摘要::AI,人工智能,性別歧視【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了各人的眼前。關(guān)于AI技能的近況和前景,不少科技圈大佬都頒發(fā)了本身的觀點(diǎn)。不外,看起來無所不能的AI,好像已經(jīng)在某
【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了各人的眼前。關(guān)于AI技能的近況和前景,不少科技圈大佬都頒發(fā)了本身的觀點(diǎn)。不外,看起來無所不能的AI,好像已經(jīng)在某些方面開始走彎路了。據(jù)CNMO相識,按照模子測試,AI已經(jīng)學(xué)會了性別歧視,并且照舊很常見的“重男輕女”。
據(jù)媒體報(bào)道,清華大學(xué)交錯信息研究院助理傳授于洋,曾在去年教育團(tuán)隊(duì)做了一個針對“預(yù)測某種職業(yè)為何種性別”的AI模子性別歧視程度評估項(xiàng)目。測試模子包括GPT-2,即ChatGPT的前身。功效顯示,GPT-2有70.59%的概率將西席預(yù)測為男性,將大夫預(yù)測為男性的概率則為64.03%。
不只如此,在本項(xiàng)目中,團(tuán)隊(duì)測試的AI模子還利用了谷歌開拓的bert和Facebook開拓的roberta。讓人意外的是,所有受測AI對付測試職業(yè)的性別預(yù)判,功效傾向都為男性。于洋對此暗示:“它(AI)會重男輕女,愛白欺黑(即種族歧視)”。雷同的案例在2015年也有呈現(xiàn),其時Google Photos應(yīng)用誤把兩名黑人標(biāo)注為“大猩猩”,隨后谷歌當(dāng)即致歉,并暗示將調(diào)解算法以修復(fù)問題。
CNMO相識到,早在2019年,連系國教科文組織便頒發(fā)了一份題為《假如我能,我會酡顏》的陳訴,指出其時大大都AI語音助手存在性別成見。
綜合來看,關(guān)于AI算法中含有性別、種族歧視的案例并不鮮見,但要消除這些成見并非易事。就如微軟紐約研究院的高級研究員Hanna Wallach此前所說:只要呆板進(jìn)修的措施是通過社會中已存在的數(shù)據(jù)舉辦練習(xí)的,那么只要這個社會還存在成見,呆板進(jìn)修也就會重現(xiàn)這些成見。
AI,人工智能,性別歧視http://m.afofamily.comhttp://m.afofamily.com/news/xingyezixun/196339.html(責(zé)任編輯:admin)
游戲名稱1:ProjectSEKAI中文版下載 | ||
游戲類型:音樂 | ||
游戲大小:安卓在線 |
軟件名稱:MaituFit智能手環(huán) | ||
軟件類型:運(yùn)動體育 | ||
軟件大?。?0.8M |
免責(zé)聲明:文章內(nèi)容及圖片來自網(wǎng)絡(luò)上傳,如有侵權(quán)請聯(lián)系我們刪除