是的,人類太厲害了,千百年來我們獨(dú)霸地球,無堅(jiān)不摧。但現(xiàn)在時(shí)過境遷了,人類創(chuàng)造出人工智能AI,而AI好象是一個(gè)新的物種橫空出世,剛剛登場就已經(jīng)表現(xiàn)出了遠(yuǎn)比人類卓越的能力。那,人類有一天會(huì)不會(huì)被人工智能替代,成為過時(shí)甚至消失的物種呢?
試想,有一天,人類能造出像自己一樣有智慧甚至更超群的機(jī)器人,那機(jī)器人是否會(huì)如人類當(dāng)初背棄上帝一樣背棄人類呢?若戰(zhàn)爭爆發(fā), 機(jī)器人的鋼鐵身段與人類血肉之軀,誰會(huì)更占優(yōu)勢?
試想,人類是否會(huì)進(jìn)入一個(gè)被AI取代的時(shí)代,地球未來新的主人又將是誰?在這個(gè)問題上,筆者發(fā)現(xiàn),越優(yōu)秀的地球人,對(duì)未來就越是悲觀。
美國《時(shí)代雜志》(TIME)羅列出了多位名人對(duì)人工智能發(fā)展趨勢的悲觀性看法。微軟公司創(chuàng)辦人比爾·蓋茲(Bill Gates)稱,低度人工智慧可成為替代勞工的工具,但惟恐?jǐn)?shù)十年后出現(xiàn)的“超級(jí)智慧”系統(tǒng),會(huì)“厲害到令人擔(dān)憂”。
企業(yè)家、太空探索科技公司(SpaceX)創(chuàng)辦人、特斯拉汽車公司(Tesla)執(zhí)行長馬斯克(Elon Musk)相信:人工智慧是“我們最大的生存威脅”,“借助人工智能,我們將召喚出惡魔。在所有故事里出現(xiàn)的拿著五芒星和圣水的家伙都確信他能夠控制住惡魔,但事實(shí)上根本不行”。
科學(xué)家史蒂芬·霍金則公開警告說人工智能的發(fā)展可能意味著人類的滅亡?;艚鹫f,這種技術(shù)會(huì)迅速演變并超過人類,那時(shí)將會(huì)出現(xiàn)電影《終結(jié)者》中想象的一幕。
“我們已經(jīng)擁有原始形式的人工智能,而且已經(jīng)證明非常有用。但我認(rèn)為人工智能的完全發(fā)展會(huì)導(dǎo)致人類的終結(jié)”,因?yàn)椤耙坏┙?jīng)過人類的開發(fā),人工智能將會(huì)自行發(fā)展,以加速度重新設(shè)計(jì)自己”,同時(shí),“由于受到緩慢的演化的限制,人類不能與之競爭,最終將會(huì)被代替”。
霍金推測:“人工智能計(jì)算機(jī)可能在接下來的100年之內(nèi)就將人類取而代之”,“如果這樣的事情成為了現(xiàn)實(shí),我們必須確保計(jì)算機(jī)和我們站在同一戰(zhàn)線上?!比绱耍拔覀兊奈磥硎且粓霾粩嘣鲩L的科技力量與人類使用科技的智慧之間的競爭?!比欢?,人工智能的誕生“可能是人類歷史上最重大的事件,但不幸的是,也可能是最后一件”。
為什么科技科學(xué)界、商業(yè)界的領(lǐng)軍人物頻頻發(fā)出人工智能威脅論?原因其實(shí)很簡單。人類是有限的,人類不僅信息、資源、理性與智力均有限,人類的道德更是有限;人類的進(jìn)步有限,人類控制AI的能力也將有限,而AI發(fā)展卻沒有極限。
所以,AI有一天或許會(huì)比“我們智人”更瘋狂! 沒有物理定律阻止粒子以某種方式組織起來,從而能比人腦中的粒子組合完成更高級(jí)的計(jì)算。所以,AI的爆炸性轉(zhuǎn)變是完全可能的,反制人類也是可能的。以有限的人類去控制一個(gè)無限的智能風(fēng)險(xiǎn),豈能不悲觀?
2024-01-15 09:12
2024-01-11 09:50
2024-01-11 09:42
2024-01-11 08:55
2024-01-10 11:52
2024-01-10 11:47
2024-01-10 11:43
2024-01-10 11:41
2024-01-10 11:40