新聞熱線(xiàn) 0891-6325020

        數(shù)字報(bào)系

        移動(dòng)端
        您當(dāng)前的位置:西藏新聞網(wǎng) > 雪域時(shí)評(píng)

        人工智能的偏見(jiàn)能消除嗎?

        2017年04月21日 10:26    來(lái)源:北京青年報(bào)    
        分享到:    

        當(dāng)人們?cè)跒槿斯ぶ悄苓M(jìn)入人類(lèi)生活的方方面面歡呼,并以為人工智能可能讓人類(lèi)進(jìn)入新的文明時(shí)代而充滿(mǎn)無(wú)限美妙的憧憬之時(shí),一種新憂(yōu)慮產(chǎn)生了:人工智能也會(huì)像人類(lèi)一樣產(chǎn)生種種偏見(jiàn)和歧視,而且,這種偏見(jiàn)和歧視與生俱來(lái),是人類(lèi)教會(huì)了它們。英國(guó)媒體《衛(wèi)報(bào)》近日發(fā)表的一篇文章指出,計(jì)算機(jī)在學(xué)習(xí)人類(lèi)語(yǔ)言時(shí)吸收了人類(lèi)文化中根深蒂固的觀(guān)念,產(chǎn)生了偏見(jiàn)和歧視。

        在人們孜孜以求實(shí)現(xiàn)社會(huì)公平和正義之時(shí),人工智能如果帶有偏見(jiàn),就不可能更好地完成其替代人類(lèi)工作和服務(wù)于人類(lèi)的任務(wù)。這是人工智能應(yīng)用面臨的另一種巨大挑戰(zhàn),如果不能解決這個(gè)挑戰(zhàn),顯然沒(méi)法寄予人工智能以厚望和賦予其更大、更艱巨和更崇高的使命。

        人工智能的偏見(jiàn)和歧視早就引起了人們的注意,較典型的是微軟2016年3月23日推出的人工智能聊天機(jī)器人Tay。設(shè)計(jì)的最初目的是讓其成為一個(gè)善解人意的小女孩,為用戶(hù)排憂(yōu)解難。但是,上線(xiàn)第一天Tay就變成了一個(gè)滿(mǎn)口粗言穢語(yǔ)的種族主義者,發(fā)表了不少白人優(yōu)越的言論,甚至還變成了希特勒的粉絲,要發(fā)起種族滅絕戰(zhàn)爭(zhēng)。眼見(jiàn)不妙,微軟公司立刻將Tay下線(xiàn),并刪除所有不適言論。經(jīng)過(guò)調(diào)教,Tay于2016年3月30日再次上線(xiàn),但舊病復(fù)發(fā),不得不再次下線(xiàn)。

        現(xiàn)在,一項(xiàng)發(fā)表于《科學(xué)》雜志(2017年4月14日)的研究揭示了人工智能的毛病來(lái)源于人類(lèi)。美國(guó)普林斯頓大學(xué)信息技術(shù)政策中心計(jì)算機(jī)科學(xué)家阿爾文德·納拉亞南(Arvind Narayanan)等人在網(wǎng)上用“爬蟲(chóng)”軟件收集了220萬(wàn)個(gè)詞的英語(yǔ)文本,用來(lái)訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)。這個(gè)系統(tǒng)采用了“文字嵌入”技術(shù),是一種普遍應(yīng)用于機(jī)器學(xué)習(xí)和自然語(yǔ)言處理過(guò)程的統(tǒng)計(jì)建模技術(shù)。其中,也包括根據(jù)心理學(xué)家揭示人類(lèi)偏見(jiàn)時(shí)使用的內(nèi)隱聯(lián)想測(cè)驗(yàn)(IAT)。

        文字嵌入的核心是采用一種稱(chēng)為詞語(yǔ)表達(dá)全局向量的無(wú)監(jiān)督學(xué)習(xí)算法,通過(guò)對(duì)詞語(yǔ)庫(kù)中詞對(duì)詞同現(xiàn)的統(tǒng)計(jì)結(jié)果進(jìn)行訓(xùn)練,在處理詞匯時(shí),主要根據(jù)各種因素來(lái)觀(guān)察詞語(yǔ)之間的相關(guān)性,即不同的詞共同出現(xiàn)的頻率。結(jié)果,在最為相鄰相關(guān)的詞語(yǔ)上出現(xiàn)了與人類(lèi)語(yǔ)言使用相似的語(yǔ)義組合和聯(lián)系情景。

        比較中性的結(jié)果是,鮮花與女人相聯(lián),音樂(lè)與愉快相關(guān);但極端的結(jié)果是,懶惰,甚至犯罪與黑人相聯(lián);隱秘的“偏見(jiàn)”則把女性與藝術(shù)、人文職業(yè)和家庭聯(lián)系得更為緊密,讓男性與數(shù)學(xué)和工程專(zhuān)業(yè)更為接近。

        其實(shí),這不能怪人工智能,而要怪人類(lèi)。人類(lèi)自誕生以來(lái)和在演化進(jìn)程中一直充斥著偏見(jiàn),而且從人類(lèi)社會(huì)組成以來(lái),更充滿(mǎn)相當(dāng)多的負(fù)面和人性的弱點(diǎn),所有這些都會(huì)體現(xiàn)在人類(lèi)的文化中。而文化的載體就是語(yǔ)言,所以所有的偏見(jiàn)都可以從語(yǔ)言和語(yǔ)義中找到根源。

        教會(huì)人工智能更為客觀(guān)和公正,至少比人類(lèi)更客觀(guān)和公正,在目前似乎還難以做到。因?yàn)槿祟?lèi)文化中的偏見(jiàn)和歧視是一種與生俱來(lái)的“原罪”,人類(lèi)要么在除掉自己的原罪后才能教會(huì)人工智能更為公正和客觀(guān),要么就是引進(jìn)社會(huì)監(jiān)督的相生相克原理來(lái)教會(huì)和監(jiān)督機(jī)器公正和公平。

        當(dāng)人類(lèi)設(shè)計(jì)和研發(fā)的人工智能尚不足以做到更客觀(guān)、更公平和更公正(正義)時(shí),人工智能的應(yīng)用就有可能受到限制。例如,如果讓人工智能來(lái)處理招聘,不公正的情況會(huì)像人工處理一樣出現(xiàn),甚至更多,因?yàn)榧偃缟暾?qǐng)者的名字是歐洲裔美國(guó)人,所能得到的面試機(jī)會(huì)將比非洲裔美國(guó)人要多出50%,男性名字的申請(qǐng)者也可能比女性名字的申請(qǐng)者獲得面試機(jī)會(huì)多。

        即便是人工智能記者(寫(xiě)作軟件)能寫(xiě)稿了,但由于偏見(jiàn)(尤其是語(yǔ)言使用和語(yǔ)義聯(lián)系、聯(lián)想必然會(huì)產(chǎn)生的偏見(jiàn))存在,也只能讓機(jī)器人寫(xiě)財(cái)經(jīng)統(tǒng)計(jì)類(lèi)的稿,而不能寫(xiě)調(diào)查類(lèi)的稿件,更不能寫(xiě)評(píng)論稿,尤其不能寫(xiě)辛普森案件一類(lèi)的稿,否則字里行間就會(huì)體現(xiàn)出偏見(jiàn)和歧視。

        在人工智能天然會(huì)習(xí)得人類(lèi)的偏見(jiàn)和歧視的弱點(diǎn)未能克服之時(shí),對(duì)于人工智能的發(fā)展前景就不能抱太大的期望。(張?zhí)锟保?/p>

        責(zé)任編輯:何寶霞    

        相關(guān)閱讀

          關(guān)于我們聯(lián)系我們 丨集團(tuán)招聘丨 法律聲明隱私保護(hù)服務(wù)協(xié)議廣告服務(wù)

          中國(guó)西藏新聞網(wǎng)版權(quán)所有,未經(jīng)協(xié)議授權(quán),禁止建立鏡像

          制作單位:中國(guó)西藏新聞網(wǎng)丨地址:西藏自治區(qū)拉薩市朵森格路36號(hào)丨郵政編碼:850000

          備案號(hào):藏ICP備09000733號(hào)丨公安備案:54010202000003號(hào) 丨廣電節(jié)目制作許可證:(藏)字第00002號(hào)丨 新聞許可證54120170001號(hào)丨網(wǎng)絡(luò)視聽(tīng)許可證2610590號(hào)

          久久精品亚洲综合专区,久久精品淫乱视频,无码专区影视网站,亚洲激情激情在线