當(dāng)人們在為人工智能進(jìn)入人類生活的方方面面歡呼,并以為人工智能可能讓人類進(jìn)入新的文明時代而充滿無限美妙的憧憬之時,一種新憂慮產(chǎn)生了:人工智能也會像人類一樣產(chǎn)生種種偏見和歧視,而且,這種偏見和歧視與生俱來,是人類教會了它們。英國媒體《衛(wèi)報》近日發(fā)表的一篇文章指出,計算機(jī)在學(xué)習(xí)人類語言時吸收了人類文化中根深蒂固的觀念,產(chǎn)生了偏見和歧視。
在人們孜孜以求實(shí)現(xiàn)社會公平和正義之時,人工智能如果帶有偏見,就不可能更好地完成其替代人類工作和服務(wù)于人類的任務(wù)。這是人工智能應(yīng)用面臨的另一種巨大挑戰(zhàn),如果不能解決這個挑戰(zhàn),顯然沒法寄予人工智能以厚望和賦予其更大、更艱巨和更崇高的使命。
人工智能的偏見和歧視早就引起了人們的注意,較典型的是微軟2016年3月23日推出的人工智能聊天機(jī)器人Tay。設(shè)計的最初目的是讓其成為一個善解人意的小女孩,為用戶排憂解難。但是,上線第一天Tay就變成了一個滿口粗言穢語的種族主義者,發(fā)表了不少白人優(yōu)越的言論,甚至還變成了希特勒的粉絲,要發(fā)起種族滅絕戰(zhàn)爭。眼見不妙,微軟公司立刻將Tay下線,并刪除所有不適言論。經(jīng)過調(diào)教,Tay于2016年3月30日再次上線,但舊病復(fù)發(fā),不得不再次下線。
現(xiàn)在,一項(xiàng)發(fā)表于《科學(xué)》雜志(2017年4月14日)的研究揭示了人工智能的毛病來源于人類。美國普林斯頓大學(xué)信息技術(shù)政策中心計算機(jī)科學(xué)家阿爾文德·納拉亞南(Arvind Narayanan)等人在網(wǎng)上用“爬蟲”軟件收集了220萬個詞的英語文本,用來訓(xùn)練一個機(jī)器學(xué)習(xí)系統(tǒng)。這個系統(tǒng)采用了“文字嵌入”技術(shù),是一種普遍應(yīng)用于機(jī)器學(xué)習(xí)和自然語言處理過程的統(tǒng)計建模技術(shù)。其中,也包括根據(jù)心理學(xué)家揭示人類偏見時使用的內(nèi)隱聯(lián)想測驗(yàn)(IAT)。
文字嵌入的核心是采用一種稱為詞語表達(dá)全局向量的無監(jiān)督學(xué)習(xí)算法,通過對詞語庫中詞對詞同現(xiàn)的統(tǒng)計結(jié)果進(jìn)行訓(xùn)練,在處理詞匯時,主要根據(jù)各種因素來觀察詞語之間的相關(guān)性,即不同的詞共同出現(xiàn)的頻率。結(jié)果,在最為相鄰相關(guān)的詞語上出現(xiàn)了與人類語言使用相似的語義組合和聯(lián)系情景。
比較中性的結(jié)果是,鮮花與女人相聯(lián),音樂與愉快相關(guān);但極端的結(jié)果是,懶惰,甚至犯罪與黑人相聯(lián);隱秘的“偏見”則把女性與藝術(shù)、人文職業(yè)和家庭聯(lián)系得更為緊密,讓男性與數(shù)學(xué)和工程專業(yè)更為接近。
其實(shí),這不能怪人工智能,而要怪人類。人類自誕生以來和在演化進(jìn)程中一直充斥著偏見,而且從人類社會組成以來,更充滿相當(dāng)多的負(fù)面和人性的弱點(diǎn),所有這些都會體現(xiàn)在人類的文化中。而文化的載體就是語言,所以所有的偏見都可以從語言和語義中找到根源。
教會人工智能更為客觀和公正,至少比人類更客觀和公正,在目前似乎還難以做到。因?yàn)槿祟愇幕械钠姾推缫暿且环N與生俱來的“原罪”,人類要么在除掉自己的原罪后才能教會人工智能更為公正和客觀,要么就是引進(jìn)社會監(jiān)督的相生相克原理來教會和監(jiān)督機(jī)器公正和公平。
當(dāng)人類設(shè)計和研發(fā)的人工智能尚不足以做到更客觀、更公平和更公正(正義)時,人工智能的應(yīng)用就有可能受到限制。例如,如果讓人工智能來處理招聘,不公正的情況會像人工處理一樣出現(xiàn),甚至更多,因?yàn)榧偃缟暾堈叩拿质?a href="http://m.m21363.cn/company/search.php?area=107" title="歐洲" target="_blank">歐洲裔美國人,所能得到的面試機(jī)會將比非洲裔美國人要多出50%,男性名字的申請者也可能比女性名字的申請者獲得面試機(jī)會多。
即便是人工智能記者(寫作軟件)能寫稿了,但由于偏見(尤其是語言使用和語義聯(lián)系、聯(lián)想必然會產(chǎn)生的偏見)存在,也只能讓機(jī)器人寫財經(jīng)統(tǒng)計類的稿,而不能寫調(diào)查類的稿件,更不能寫評論稿,尤其不能寫辛普森案件一類的稿,否則字里行間就會體現(xiàn)出偏見和歧視。
在人工智能天然會習(xí)得人類的偏見和歧視的弱點(diǎn)未能克服之時,對于人工智能的發(fā)展前景就不能抱太大的期望。
2023-09-15 09:05
2023-09-14 11:27
2023-09-14 09:24
2023-09-14 09:07
2023-09-14 09:04
2023-09-13 09:25
2023-09-11 10:01
2023-09-11 09:39
2023-09-11 09:34
2023-09-11 09:20