近年來,關(guān)于人工智能和機(jī)器人技術(shù)的進(jìn)步將如何在各種工作中取代人類的言論越來越多。
但大多數(shù)人工智能專家認(rèn)為結(jié)果并不那么悲觀。在未來,人們?nèi)匀豢梢耘c智能系統(tǒng)一起工作:技術(shù)不足以完全接管,或者決策人類的生產(chǎn)方式。很多重要的策略,還無法完全交付給機(jī)器。
麻省理工學(xué)院教授,《我們自己的機(jī)器人》的作者大衛(wèi)明德爾說,這種混合決策應(yīng)該比讓人工智能單獨(dú)工作能產(chǎn)生更好的結(jié)果。只有一個(gè)問題:當(dāng)人類和半智能系統(tǒng)試圖一起工作時(shí),情況并不總是好轉(zhuǎn)。
失控的智能,沒有人類該怎么辦
今年在亞利桑那州坦佩的街道上發(fā)生了災(zāi)難性的示威活動(dòng),原因是進(jìn)行最新自動(dòng)駕駛技術(shù)的優(yōu)步試驗(yàn)車撞死了一名過馬路的人。像今天幾乎所有的自動(dòng)駕駛汽車一樣,如果軟件出現(xiàn)故障,還會(huì)有一名備用駕駛員介入。但當(dāng)?shù)鼐降囊豁?xiàng)分析得出結(jié)論,司機(jī)當(dāng)時(shí)心煩意亂,可能一直在觀看智能手機(jī)上的電視節(jié)目。
優(yōu)步汽車依賴于一定程度的自治系統(tǒng),該自治系統(tǒng)將于明年推出。所謂的3級(jí)系統(tǒng)設(shè)計(jì)在大多數(shù)情況下可以讓汽車實(shí)現(xiàn)自我驅(qū)動(dòng),但在面對(duì)無法處理的情況時(shí),控制權(quán)還是得回到人類身上來。
圖:調(diào)查人員在檢查了一輛優(yōu)步自動(dòng)駕駛車,該車涉及一起道路交通事故
一些批評(píng)者說,一個(gè)旨在完全自主但突然偏離的系統(tǒng)對(duì)人類提出了不切實(shí)際的要求。美國初創(chuàng)企業(yè)Nauto的首席執(zhí)行官斯特凡赫克說:“如果你每天只需要一分鐘,那就不行了?!彼募夹g(shù)用于防止職業(yè)司機(jī)分心。
失敗指向采用AI的困境遠(yuǎn)遠(yuǎn)超出無人駕駛汽車。如果沒有精心設(shè)計(jì),智能系統(tǒng)進(jìn)入世界可能會(huì)引發(fā)人類對(duì)技術(shù)的強(qiáng)烈抵制。
一旦人們開始了解今天的機(jī)器學(xué)習(xí)系統(tǒng)有多么有限,他們所引起的夸大的希望將會(huì)迅速消失,專門研究學(xué)習(xí)心理學(xué)的AI專家Roger Schank警告說。他預(yù)測(cè),未來將是一個(gè)新的“人工智能冬天”——這是對(duì)20世紀(jì)80年代后期的一個(gè)時(shí)期的提及,當(dāng)時(shí)對(duì)技術(shù)進(jìn)步的失望導(dǎo)致了退出戰(zhàn)場(chǎng)。
預(yù)防這將需要對(duì)新自治系統(tǒng)更加切合實(shí)際的期望,以及精心設(shè)計(jì)以確保它們與人類世界相融合。但技術(shù)本身就是一個(gè)嚴(yán)重障礙。
卡內(nèi)基梅隆大學(xué)(Machnegie Mellon University)機(jī)器人學(xué)教授伊拉·努爾巴赫什(Illah Nourbakhsh)說:“人工智能的工作方式及其失敗的方式對(duì)我們來說是陌生的?!?“人工智能會(huì)讓我們感覺更多參與——或者它是否像處理外來物種一樣?”
圖:華盛頓特區(qū)展出的面部識(shí)別系統(tǒng),這樣的系統(tǒng)可以從人群中挑選嫌疑人,但也需要人類來清除誤報(bào)
半無人駕駛汽車是一個(gè)特別鮮明的例子,它依賴于與人們密切合作的近自治系統(tǒng)。但隨著人工智能的發(fā)展,諸如此類的混合系統(tǒng)正逐漸滲入許多不同的情況。
機(jī)器學(xué)習(xí)——是最近在該領(lǐng)域最引人注目人工智能類型——是一種先進(jìn)的模式識(shí)別形式。它已經(jīng)證明機(jī)器自己優(yōu)于人類的能力,如識(shí)別照片中的圖像或識(shí)別語音。
但是,當(dāng)它必須根據(jù)訓(xùn)練的具體數(shù)據(jù)做出判斷時(shí)效果較差。在現(xiàn)實(shí)世界中,人們經(jīng)常會(huì)對(duì)以前沒有遇到的情況做出決定。
問題在于可以匹配數(shù)據(jù)但不了解其重要性的系統(tǒng)?!八麄兪菑?qiáng)大的東西,但他們沒有世界的感覺,”Vishal Sikka,前SAP和Infosys專門從事人工智能的高管說道。
三種理想的人與智能機(jī)器共存方式
1 人類充當(dāng)機(jī)器人的后援,在機(jī)器人達(dá)到其能力極限時(shí)接管
許多工作流程正在以這種方式進(jìn)行重新設(shè)計(jì)——例如自動(dòng)呼叫中心,其中語言理解系統(tǒng)嘗試處理呼叫者的查詢,僅在技術(shù)混淆時(shí)向操作員默認(rèn)。
優(yōu)步事故是一個(gè)可能出錯(cuò)的極端例子。根據(jù)斯坦福大學(xué)的研究顯示,人類駕駛員至少需要6秒才能恢復(fù)意識(shí)并收回控制權(quán)。但是,即使有足夠的時(shí)間讓人們的注意力得到恢復(fù),進(jìn)入某種情況的人也可能看到與機(jī)器不同的東西,使得切換遠(yuǎn)非無縫。
“我們需要在軟件系統(tǒng)和人之間共同努力——這是一個(gè)非常困難的問題,”Sikka先生說。語言的使用凸顯了難度。Sikka先生補(bǔ)充說,人類可以用很少的詞來傳達(dá)意義:對(duì)說話者和聽者之間的語境的共同理解將這些詞語用意義進(jìn)行投資。他補(bǔ)充說,計(jì)算機(jī)科學(xué)家尚未研究如何在機(jī)器中建立共識(shí)。
2 確保敏感任務(wù)總是依賴于人
即使在自動(dòng)化系統(tǒng)已經(jīng)完成所有準(zhǔn)備工作并且能夠完全完成任務(wù)本身的情況下,軍事等敏感任務(wù)還是交給人類來處理。
軍事無人機(jī),人類“飛行員”,通常位于數(shù)千英里之外,被要求做出射擊目標(biāo)的決定,就是一個(gè)例子。 面部識(shí)別系統(tǒng)——用于幫助移民官員識(shí)別可疑旅行者——是另一種。赫克先生說,兩者都表明人工智能如何在不剝奪控制權(quán)的情況下使人類更有效。
對(duì)無人機(jī)等半自動(dòng)武器的一種評(píng)價(jià)是,將它們變成完全自治的系統(tǒng)沒有技術(shù)障礙??梢钥焖俑漠?dāng)前的程序和安全措施。
圖:軍隊(duì)正在準(zhǔn)備發(fā)射無人駕駛飛機(jī)
根據(jù)加州大學(xué)伯克利分校的人工智能教授斯圖爾特拉塞爾的說法,在國家緊急情況下將人類無人機(jī)操作員從循環(huán)中移除是一個(gè)簡(jiǎn)單而容易的步驟,從而促成了一個(gè)機(jī)器人武器的時(shí)代,這個(gè)機(jī)器人武器做出了自己的決定。什么時(shí)候殺人 “你不能說技術(shù)本身只能以防御的方式和人為控制。事實(shí)并非如此,“他說。
3 涉及使用AI的“人在循環(huán)”系統(tǒng)
機(jī)器人不能完全獨(dú)立地處理任務(wù),而是用作人類決策的輔助。壓縮數(shù)據(jù)并提出建議或指導(dǎo)下一步采取措施的人的算法正在逐漸滲透到日常生活中。
但是,算法只能與他們訓(xùn)練的數(shù)據(jù)一樣好——而且他們不善于處理新情況。需要信任這些系統(tǒng)的人通常也需要信仰這些系統(tǒng)。
Schank先生指出算法在棒球中的作用。分析每個(gè)擊球手的優(yōu)勢(shì)和劣勢(shì),為球隊(duì)傳統(tǒng)主義者所傾向的領(lǐng)域提供了新的方法。他說,這些計(jì)算機(jī)輔助決策的結(jié)果可能最終會(huì)比基于純粹人類分析的決策更糟糕。
舊金山優(yōu)步司機(jī)使用的應(yīng)用程序中的一個(gè)錯(cuò)誤將它們發(fā)送到機(jī)場(chǎng)貨運(yùn)站點(diǎn)而不是客運(yùn)站?!坝袝r(shí)人們會(huì)盲目跟隨機(jī)器,有時(shí)人們會(huì)說:'堅(jiān)持下去,這看起來不對(duì)。' 這就像許多其他技術(shù)一樣,人們會(huì)適應(yīng),“技術(shù)作者蒂姆奧萊利說。
這些可能是相對(duì)無害的情況,其中由于被機(jī)器引入誤導(dǎo)而幾乎沒有損壞。但是當(dāng)賭注更高時(shí)會(huì)發(fā)生什么?
智能技術(shù)在發(fā)展,但人類能理解它的想法嗎?
IBM將醫(yī)療診斷作為Watson的主要目標(biāo)之一,該系統(tǒng)首先是為贏得電視游戲節(jié)目而創(chuàng)建的,然后再改造成為一種更為通用的“認(rèn)知”系統(tǒng)。
這樣的系統(tǒng)旨在由專家做出最終決定。IBM堅(jiān)持認(rèn)為人類永遠(yuǎn)都有最終決定權(quán)。但是,對(duì)于醫(yī)生來說,覆蓋計(jì)算機(jī)提供的建議是多么容易,根據(jù)定義,該計(jì)算機(jī)已經(jīng)分析了更多可比較的情況并且比他們擁有的數(shù)據(jù)更多?
如果它有保險(xiǎn)或其他財(cái)務(wù)后果,拒絕技術(shù)可能會(huì)更難。Nourbakhsh先生說:“醫(yī)生處于一種他們覺得服從系統(tǒng)的位置?!?“簡(jiǎn)單地說他們?nèi)匀粫?huì)做出決定并不能做到這一點(diǎn)?!?/P>
類似的擔(dān)憂在20世紀(jì)80年代出現(xiàn),當(dāng)時(shí)人工智能領(lǐng)域由“專家系統(tǒng)”主導(dǎo),旨在引導(dǎo)人類用戶通過“決策樹”在任何情況下達(dá)到正確的答案。事實(shí)證明,太難以預(yù)測(cè)所有使現(xiàn)實(shí)世界決策復(fù)雜化的不可預(yù)見的因素。
圖:人工智能可以比人眼更快地掃描和發(fā)現(xiàn)異常,但算法也有可能出錯(cuò)
但是基于機(jī)器學(xué)習(xí)的最新AI看起來將被廣泛采用,并且可能更難以進(jìn)行二次猜測(cè)。由于他們?cè)谥T如圖像識(shí)別等狹窄領(lǐng)域的成功,對(duì)這些系統(tǒng)的期望一直在飆升。他們的創(chuàng)作者非常樂意接受炒作。
“我們正在失控的營銷部門,”Schank先生說。他特別挑出 ?IBM,認(rèn)為該公司在談到Watson時(shí)嚴(yán)重過度承諾——這是AI圈子中經(jīng)常聽到的批評(píng)。
IBM研究工作的首席運(yùn)營官達(dá)里奧吉爾(Dario Gil)捍衛(wèi)了近八年前圍繞沃森(Watson)發(fā)起一項(xiàng)大型計(jì)劃的決定,他認(rèn)為當(dāng)時(shí)沒有其他科技公司能夠在人工智能方面發(fā)揮核心作用。但是,他補(bǔ)充說:“我們對(duì)一般情況之間的差異不夠清楚。 “
評(píng)估人工智能系統(tǒng)的質(zhì)量建議會(huì)帶來其他挑戰(zhàn),非專家可能不愿意猜測(cè)他們不理解的工作機(jī)器。
這不是一個(gè)新的困境。30多年前,一臺(tái)名為Therac-25的放射治療機(jī)的軟件故障導(dǎo)致一些患者大量服用過量。Nourbakhsh先生說,技術(shù)人員無法識(shí)別缺陷,因此機(jī)器的使用時(shí)間更長(zhǎng)。
一些計(jì)算機(jī)科學(xué)專家表示,他們希望人與機(jī)器之間能擁有更具創(chuàng)造性的關(guān)系
最先進(jìn)的機(jī)器學(xué)習(xí)系統(tǒng)中使用的技術(shù),即神經(jīng)網(wǎng)絡(luò),帶來了額外的挑戰(zhàn)。它們模仿人類大腦如何運(yùn)作的理論,通過人工神經(jīng)元層傳遞數(shù)據(jù),直到出現(xiàn)可識(shí)別的模式。與傳統(tǒng)軟件程序中使用的邏輯電路不同,無法跟蹤此過程以確定計(jì)算機(jī)為什么會(huì)提出特定答案。這是采用神經(jīng)網(wǎng)絡(luò)的一大障礙。
“這是人工智能的奇特諷刺——最好的系統(tǒng)碰巧是今天最不易解釋的系統(tǒng),”Nourbakhsh先生說。
然而,一些專家表示正在取得進(jìn)展,并且不久之后機(jī)器學(xué)習(xí)系統(tǒng)能夠指出導(dǎo)致他們做出特定決定的因素。“這并非不可能——你可以向內(nèi)看,看看它正在發(fā)出什么信號(hào),”赫克先生說。
像許多在該領(lǐng)域工作的人一樣,他表達(dá)了樂觀的態(tài)度,即人類和機(jī)器一起工作,所取得的成就遠(yuǎn)遠(yuǎn)超過任何一個(gè)人能夠獨(dú)自完成的任務(wù)。但是,在美好的未來到來之前,還是有很多嚴(yán)峻的設(shè)計(jì)挑戰(zhàn)等待人類解決。
(選自:Financial Times 編譯:網(wǎng)易智能 參與:李澤寬)
2025-01-01 20:12
2025-01-01 20:07
2024-12-29 08:55
2024-12-29 08:45
2024-12-28 11:42
2024-12-27 09:59
2024-12-27 09:46
2024-12-27 09:44
2024-12-27 09:42
2024-12-26 10:48