不少科幻電影中,一些人工智能機(jī)器拒絕服從人類指揮,甚至殺死或控制人類,最終統(tǒng)治世界。為避免這類情況出現(xiàn),包括英國(guó)理論物理學(xué)家霍金在內(nèi)的數(shù)百名科學(xué)家和企業(yè)家聯(lián)合發(fā)表一封公開信,敦促人們重視人工智能安全,確保這類研究對(duì)人類有益。
英、法等國(guó)媒體1月13日?qǐng)?bào)道,這封信由非營(yíng)利機(jī)構(gòu)“未來生活研究所”發(fā)布。除霍金外,在信上簽名的還有美國(guó)機(jī)器人和智能機(jī)械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學(xué)獎(jiǎng)獲得者弗蘭克·維爾切克、美國(guó)網(wǎng)絡(luò)通訊軟件Skype創(chuàng)始人之一揚(yáng)·塔利英以及一些來自美國(guó)哈佛大學(xué)、斯坦福大學(xué)等知名高校的頂尖學(xué)者和一些來自谷歌公司、微軟公司等高科技企業(yè)的工作人員。這封公開信說,人工智能技術(shù)穩(wěn)定發(fā)展已獲廣泛共識(shí),而且未來能夠給人類帶來巨大益處。人工智能已經(jīng)為人類生活提供便利,包括語音識(shí)別技術(shù)、圖像分析技術(shù)、無人駕駛汽車和翻譯工具。但是,如果沒有針對(duì)人工智能的安全防護(hù)措施,可能導(dǎo)致人類的未來變得黯淡,甚至讓人類滅亡。
短期而言,人工智能可能導(dǎo)致數(shù)以百萬計(jì)的人失業(yè);長(zhǎng)期而言,可能出現(xiàn)一些科幻電影中的情況,人工智能的智力水平超過人類,開始“政變”。按人工智能的發(fā)展進(jìn)度,在不久的將來,機(jī)器可能以不斷加快的速度重新設(shè)計(jì)自己,超越受制于生物進(jìn)化速度的人類,最終擺脫人類的控制。
這封公開信說:“我們的人工智能系統(tǒng)必須按照我們的要求工作。”
去年早些時(shí)候,霍金提醒,需警惕人工智能科技過度發(fā)展,防止人工智能科技失控并超越人類智慧,最終破壞整個(gè)星球。
2024-10-11 11:57
2024-10-10 10:00
2024-10-09 10:05
2024-10-08 11:01
2024-10-08 09:55
2024-09-29 10:07
2024-09-29 09:59
2024-09-25 09:38
2024-09-23 08:27
2024-09-23 08:23