您的位置:首頁(yè) > 資訊 > 行業(yè)動(dòng)態(tài) > 正文

人工智能:天使還是惡魔?

2015-02-01 18:43 性質(zhì):轉(zhuǎn)載 作者:創(chuàng)事記 來(lái)源:創(chuàng)事記
免責(zé)聲明:中叉網(wǎng)(m.m21363.cn)尊重合法版權(quán),反對(duì)侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識(shí)產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點(diǎn),與本網(wǎng)無(wú)關(guān)。如有需要?jiǎng)h除,敬請(qǐng)來(lái)電商榷!)
最近,比爾蓋茨公開(kāi)表態(tài)稱,自己對(duì)人工智能感到擔(dān)憂,而且不明白為什么有那么多人并不擔(dān)心這種技術(shù)對(duì)未來(lái)的影響。兩周前,馬斯克...

  最近,比爾蓋茨公開(kāi)表態(tài)稱,自己對(duì)人工智能感到擔(dān)憂,而且不明白為什么有那么多人并不擔(dān)心這種技術(shù)對(duì)未來(lái)的影響。

  兩周前,馬斯克和著名物理學(xué)家史蒂芬·霍金也都簽署了一封公開(kāi)信,呼吁在人工智能創(chuàng)新方面采取安全措施。但有趣的是,蓋茨與馬斯克都曾資助過(guò)人工智能的研究,微軟旗下更是有專門(mén)的實(shí)驗(yàn)室從事人工智能相關(guān)產(chǎn)品的開(kāi)發(fā)。與蓋茨、馬斯克的擔(dān)憂相反的是,真正從事人工智能研究的科學(xué)家反而斥責(zé)這類(lèi)“人工智能威脅論”,這種論調(diào)阻礙了科學(xué)的進(jìn)步。Facebook人工智能實(shí)驗(yàn)室的負(fù)責(zé)人Yann LeCun就曾指出類(lèi)似的言論在歷史上。

  人工智能從字面上看起來(lái)非常容易理解,就是由人類(lèi)制造的擁有類(lèi)人智能的機(jī)器。這也是大眾最為容易接受的一種定義,絕大多數(shù)的小說(shuō)與電影中的人工智能都是圍繞這個(gè)定義進(jìn)行描寫(xiě)與刻畫(huà)的(比如美劇《疑犯追蹤》中的兩位人工智能“上帝”,它們?cè)谧钚碌膭∏槔锷踔劣辛巳碎g的化身)。但實(shí)際上,學(xué)界對(duì)于人工智能并沒(méi)有統(tǒng)一的定義,許多研究者都只是從自己研究的方向出發(fā)對(duì)人工智能進(jìn)行模糊的描述。

  美國(guó)斯坦福大學(xué)人工智能研究中心的尼爾遜教授對(duì)人工智能下了這樣一個(gè)定義:“人工智能是關(guān)于知識(shí)的科學(xué)――怎樣表示知識(shí)以及怎樣獲得知識(shí)并使用知識(shí)的科學(xué)?!倍硪晃幻绹?guó)麻省理工學(xué)院的溫斯頓教授則認(rèn)為:“人工智能就是研究如何使計(jì)算機(jī)去做過(guò)去只有人才能做的智能工作?!?

  對(duì)于研究者而言,目前的人工智能研究主要是為了解決具體的問(wèn)題,而非創(chuàng)造一位“上帝”。我的一位老師曾經(jīng)做過(guò)關(guān)于圖像智能識(shí)別的研究,她的主要工作就是設(shè)計(jì)算法讓計(jì)算機(jī)從海量的照片中自動(dòng)識(shí)別出含有交通指示牌的照片。對(duì)她而言,所謂的“智能”不過(guò)是精巧的算法,她當(dāng)然不會(huì)害怕這些自己親手敲出的代碼。

  但馬斯克與蓋茨的擔(dān)憂也并非全然沒(méi)有道理。隨著技術(shù)的進(jìn)步,人類(lèi)有可能進(jìn)一步的破解思維產(chǎn)生的奧秘,從而設(shè)計(jì)出擁有類(lèi)人智能的機(jī)器。我不贊同那些認(rèn)為人類(lèi)大腦是不可破解的“神域”想法。人類(lèi)的思想意識(shí)來(lái)源于大腦,而大腦是由物質(zhì)組成的,和人體的其他器官并無(wú)二致。

  理論上,只要是物質(zhì),沒(méi)有什么是不可復(fù)制的,只是技術(shù)是否能夠達(dá)到的問(wèn)題。曾經(jīng),我們也認(rèn)為心臟是不可替換的,但現(xiàn)在,人工心臟已經(jīng)挽救了許多患者的生命。超強(qiáng)的計(jì)算能力、海量的數(shù)據(jù)存儲(chǔ)、無(wú)限的感知能力與人類(lèi)的智能相加,在最瘋狂的宗教中對(duì)最強(qiáng)大的神祇的想象也不過(guò)如此,這樣的怪物當(dāng)然值得人類(lèi)畏懼。

  除此以外,人工智能的思考是否能為人類(lèi)所控制也是馬斯克與霍金擔(dān)憂的主要原因。人工智能擁有近乎無(wú)限的可能性,它是否服從人類(lèi)的管理是一方面,管理它的人類(lèi)是否會(huì)將其用于正道又是另一方面。相較于前者,后者的威脅明顯更加巨大。人工智能的“惡”,我們還未曾領(lǐng)教過(guò);但人性的“惡”,每天都在發(fā)生。人工智能被用于正途,可能會(huì)成為為人類(lèi)服務(wù)的“核電站”,用于歧途,則可能成為撼動(dòng)世界的“核武器”。沒(méi)人想讓一個(gè)壞孩子掌握毀滅世界的核按鈕。

  然而,即便如此,對(duì)于人工智能研究也不應(yīng)被放下。從上個(gè)世紀(jì)四十年代開(kāi)始,人類(lèi)就已經(jīng)掌握了可能導(dǎo)致滅世的核武器。美國(guó)在日本的廣島和長(zhǎng)崎投下的兩顆原子彈,造成了超過(guò)十萬(wàn)人的死亡。絕大多數(shù)的科學(xué)家反對(duì)核武器的使用,但沒(méi)有一個(gè)科學(xué)家敢說(shuō)從未發(fā)明核武器的社會(huì)就一定會(huì)比現(xiàn)在的社會(huì)美好。

  隨著科學(xué)的進(jìn)步,人類(lèi)對(duì)于物質(zhì)的認(rèn)知進(jìn)一步加深,核武器、核能是一定會(huì)被發(fā)明出來(lái)的,這是歷史的必然。同樣,人工智能的出現(xiàn)也是一種必然,或早或晚,但終究會(huì)到來(lái)。我們有理由提防它可能造成的破壞,但沒(méi)有理由去阻止它的降生。

  很多時(shí)候,人類(lèi)對(duì)人工智能的畏懼實(shí)際上來(lái)源于對(duì)自身人性的失望。自認(rèn)萬(wàn)物靈長(zhǎng)的我們,時(shí)至今日也還沒(méi)有消滅戰(zhàn)爭(zhēng)、饑餓與仇恨等“不道德”的現(xiàn)象。人工智能就像一面鏡子,人人都能從自己的恐懼中照到自己內(nèi)心深處的陰影。與其擔(dān)憂尚未誕生的人工智能,倒不如好好反省一下人類(lèi)自身。

網(wǎng)友評(píng)論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機(jī)掃碼看新聞