人工智能出現(xiàn)種族偏見和性別偏見
人工智能的學(xué)習(xí)能力是讓人類羨慕的,特別是讓計算機(jī)具備理解人類語言的人工智能(AI)更是科技上的一大進(jìn)步,但是語言本就是意識形態(tài)的產(chǎn)物,而今,廣泛學(xué)習(xí)人類語言的人工智能工具已經(jīng)出現(xiàn)了明顯的種族和性別偏見。我們禁不住問:人工智能向誰學(xué)壞了?
人工智能出現(xiàn)種族偏見和性別偏見
一項研究發(fā)現(xiàn),計算機(jī)在學(xué)習(xí)人類語言的同時還吸收了人類文化中的一些根深蒂固的觀念,出現(xiàn)了相同的人類偏見。普林斯頓大學(xué)信息技術(shù)政策中心的計算機(jī)科學(xué)家們發(fā)現(xiàn)了這一問題,他們解釋,計算機(jī) AI 出現(xiàn)種族歧視和偏見源于算法偏差造成的。此前心理學(xué)家曾經(jīng)做過一項稱為“隱性關(guān)聯(lián)測試(IAT)”,測試已揭示人類的偏見。而在新的研究中,AI 在學(xué)習(xí)人類語言的時候也把這種關(guān)聯(lián)詞學(xué)到其中,從而也出現(xiàn)像人一樣的性別種族偏見。
這項研究被刊登在 2017 年 4 月 14 日發(fā)表的《科學(xué)》雜志上,為了揭示 AI 在語言學(xué)習(xí)中可能出現(xiàn)的偏見,研究團(tuán)隊們根據(jù) IAT 創(chuàng)建了新的統(tǒng)計檢測,重點關(guān)注一種名為“單詞嵌入”機(jī)器學(xué)習(xí)工具。結(jié)果發(fā)現(xiàn)這種學(xué)習(xí)算法改變了計算機(jī)解讀語音和文本的方式,結(jié)果表明,算法與 IAT 一樣擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人面孔聯(lián)系起來。這將意味著算法的存在也會讓隱性關(guān)聯(lián)出現(xiàn)在 AI 之中,從而也會帶來人類偏見。更嚴(yán)重的是,由于 AI 的學(xué)習(xí)速度驚人,這種人類偏見或許比現(xiàn)實社會中的還要嚴(yán)重。
關(guān)于“人工智能學(xué)壞”的幾點想法
偏見只是冰山一角,人工智能的快速學(xué)習(xí)能力可能是把雙刃劍。曾有研究表明,性別歧視和種族偏見將會對人類行為產(chǎn)生深遠(yuǎn)的影響。研究從面試角度進(jìn)行,對于非洲裔美國人,如果面試者的名字是歐洲裔美國人,即使簡歷內(nèi)容相同,后者所能獲得的面試邀請將比前者多出 50%。而我們使用 AI,并不希望它給我們帶來任何行動上的麻煩。如何把握,還是一個重大課題。
技術(shù)本身沒錯,但是如何應(yīng)用以及產(chǎn)生的后果則會淪為道德或者社會問題。其實,原則上,我們可以建立一些系統(tǒng)對帶有偏見的決定進(jìn)行檢測,然后采取行動,并與其他人一起呼吁建立一個人工智能監(jiān)管機(jī)構(gòu)。這是一項非常復(fù)雜的任務(wù),但作為一種社會責(zé)任,我們不應(yīng)回避。
文章編輯:CobiNet(寧波)
本公司專注于電訊配件,銅纜綜合布線系列領(lǐng)域產(chǎn)品研發(fā)生產(chǎn)超五類,六類,七類線,屏蔽模塊,配線架及相關(guān)模塊配件的研發(fā)和生產(chǎn)。
?2016-2019寧波科博通信技術(shù)有限公司版權(quán)所有浙ICP備16026074號