近年來,關(guān)于人工智能和機器人技術(shù)的進步將如何在各種工作中取代人類的言論越來越多。
但大多數(shù)人工智能專家認為結(jié)果并不那么悲觀。在未來,人們?nèi)匀豢梢耘c智能系統(tǒng)一起工作:技術(shù)不足以完全接管,或者決策人類的生產(chǎn)方式。很多重要的策略,還無法完全交付給機器。
麻省理工學院教授,《我們自己的機器人》的作者大衛(wèi)明德爾說,這種混合決策應(yīng)該比讓人工智能單獨工作能產(chǎn)生更好的結(jié)果。只有一個問題:當人類和半智能系統(tǒng)試圖一起工作時,情況并不總是好轉(zhuǎn)。
失控的智能,沒有人類該怎么辦
今年在亞利桑那州坦佩的街道上發(fā)生了災(zāi)難性的示威活動,原因是進行最新自動駕駛技術(shù)的優(yōu)步試驗車撞死了一名過馬路的人。像今天幾乎所有的自動駕駛汽車一樣,如果軟件出現(xiàn)故障,還會有一名備用駕駛員介入。但當?shù)鼐降囊豁椃治龅贸鼋Y(jié)論,司機當時心煩意亂,可能一直在觀看智能手機上的電視節(jié)目。
優(yōu)步汽車依賴于一定程度的自治系統(tǒng),該自治系統(tǒng)將于明年推出。所謂的3級系統(tǒng)設(shè)計在大多數(shù)情況下可以讓汽車實現(xiàn)自我驅(qū)動,但在面對無法處理的情況時,控制權(quán)還是得回到人類身上來。
圖:調(diào)查人員在檢查了一輛優(yōu)步自動駕駛車,該車涉及一起道路交通事故
一些批評者說,一個旨在完全自主但突然偏離的系統(tǒng)對人類提出了不切實際的要求。美國初創(chuàng)企業(yè)Nauto的首席執(zhí)行官斯特凡赫克說:“如果你每天只需要一分鐘,那就不行了?!彼募夹g(shù)用于防止職業(yè)司機分心。
失敗指向采用AI的困境遠遠超出無人駕駛汽車。如果沒有精心設(shè)計,智能系統(tǒng)進入世界可能會引發(fā)人類對技術(shù)的強烈抵制。
一旦人們開始了解今天的機器學習系統(tǒng)有多么有限,他們所引起的夸大的希望將會迅速消失,專門研究學習心理學的AI專家Roger Schank警告說。他預測,未來將是一個新的“人工智能冬天”——這是對20世紀80年代后期的一個時期的提及,當時對技術(shù)進步的失望導致了退出戰(zhàn)場。
預防這將需要對新自治系統(tǒng)更加切合實際的期望,以及精心設(shè)計以確保它們與人類世界相融合。但技術(shù)本身就是一個嚴重障礙。
卡內(nèi)基梅隆大學(Machnegie Mellon University)機器人學教授伊拉·努爾巴赫什(Illah Nourbakhsh)說:“人工智能的工作方式及其失敗的方式對我們來說是陌生的?!?“人工智能會讓我們感覺更多參與——或者它是否像處理外來物種一樣?”
圖:華盛頓特區(qū)展出的面部識別系統(tǒng),這樣的系統(tǒng)可以從人群中挑選嫌疑人,但也需要人類來清除誤報
半無人駕駛汽車是一個特別鮮明的例子,它依賴于與人們密切合作的近自治系統(tǒng)。但隨著人工智能的發(fā)展,諸如此類的混合系統(tǒng)正逐漸滲入許多不同的情況。
機器學習——是最近在該領(lǐng)域最引人注目人工智能類型——是一種先進的模式識別形式。它已經(jīng)證明機器自己優(yōu)于人類的能力,如識別照片中的圖像或識別語音。
但是,當它必須根據(jù)訓練的具體數(shù)據(jù)做出判斷時效果較差。在現(xiàn)實世界中,人們經(jīng)常會對以前沒有遇到的情況做出決定。
問題在于可以匹配數(shù)據(jù)但不了解其重要性的系統(tǒng)?!八麄兪菑姶蟮臇|西,但他們沒有世界的感覺,”Vishal Sikka,前SAP和Infosys專門從事人工智能的高管說道。
三種理想的人與智能機器共存方式
1 人類充當機器人的后援,在機器人達到其能力極限時接管
許多工作流程正在以這種方式進行重新設(shè)計——例如自動呼叫中心,其中語言理解系統(tǒng)嘗試處理呼叫者的查詢,僅在技術(shù)混淆時向操作員默認。
優(yōu)步事故是一個可能出錯的極端例子。根據(jù)斯坦福大學的研究顯示,人類駕駛員至少需要6秒才能恢復意識并收回控制權(quán)。但是,即使有足夠的時間讓人們的注意力得到恢復,進入某種情況的人也可能看到與機器不同的東西,使得切換遠非無縫。
“我們需要在軟件系統(tǒng)和人之間共同努力——這是一個非常困難的問題,”Sikka先生說。語言的使用凸顯了難度。Sikka先生補充說,人類可以用很少的詞來傳達意義:對說話者和聽者之間的語境的共同理解將這些詞語用意義進行投資。他補充說,計算機科學家尚未研究如何在機器中建立共識。
2 確保敏感任務(wù)總是依賴于人
即使在自動化系統(tǒng)已經(jīng)完成所有準備工作并且能夠完全完成任務(wù)本身的情況下,軍事等敏感任務(wù)還是交給人類來處理。
軍事無人機,人類“飛行員”,通常位于數(shù)千英里之外,被要求做出射擊目標的決定,就是一個例子。 面部識別系統(tǒng)——用于幫助移民官員識別可疑旅行者——是另一種。赫克先生說,兩者都表明人工智能如何在不剝奪控制權(quán)的情況下使人類更有效。
對無人機等半自動武器的一種評價是,將它們變成完全自治的系統(tǒng)沒有技術(shù)障礙??梢钥焖俑漠斍暗某绦?a href="http://m.m21363.cn/shop/31145/index/" title="和安" target="_blank">和安全措施。
圖:軍隊正在準備發(fā)射無人駕駛飛機
根據(jù)加州大學伯克利分校的人工智能教授斯圖爾特拉塞爾的說法,在國家緊急情況下將人類無人機操作員從循環(huán)中移除是一個簡單而容易的步驟,從而促成了一個機器人武器的時代,這個機器人武器做出了自己的決定。什么時候殺人 “你不能說技術(shù)本身只能以防御的方式和人為控制。事實并非如此,“他說。
3 涉及使用AI的“人在循環(huán)”系統(tǒng)
機器人不能完全獨立地處理任務(wù),而是用作人類決策的輔助。壓縮數(shù)據(jù)并提出建議或指導下一步采取措施的人的算法正在逐漸滲透到日常生活中。
但是,算法只能與他們訓練的數(shù)據(jù)一樣好——而且他們不善于處理新情況。需要信任這些系統(tǒng)的人通常也需要信仰這些系統(tǒng)。
Schank先生指出算法在棒球中的作用。分析每個擊球手的優(yōu)勢和劣勢,為球隊傳統(tǒng)主義者所傾向的領(lǐng)域提供了新的方法。他說,這些計算機輔助決策的結(jié)果可能最終會比基于純粹人類分析的決策更糟糕。
舊金山優(yōu)步司機使用的應(yīng)用程序中的一個錯誤將它們發(fā)送到機場貨運站點而不是客運站?!坝袝r人們會盲目跟隨機器,有時人們會說:'堅持下去,這看起來不對。' 這就像許多其他技術(shù)一樣,人們會適應(yīng),“技術(shù)作者蒂姆奧萊利說。
這些可能是相對無害的情況,其中由于被機器引入誤導而幾乎沒有損壞。但是當賭注更高時會發(fā)生什么?
智能技術(shù)在發(fā)展,但人類能理解它的想法嗎?
IBM將醫(yī)療診斷作為Watson的主要目標之一,該系統(tǒng)首先是為贏得電視游戲節(jié)目而創(chuàng)建的,然后再改造成為一種更為通用的“認知”系統(tǒng)。
這樣的系統(tǒng)旨在由專家做出最終決定。IBM堅持認為人類永遠都有最終決定權(quán)。但是,對于醫(yī)生來說,覆蓋計算機提供的建議是多么容易,根據(jù)定義,該計算機已經(jīng)分析了更多可比較的情況并且比他們擁有的數(shù)據(jù)更多?
如果它有保險或其他財務(wù)后果,拒絕技術(shù)可能會更難。Nourbakhsh先生說:“醫(yī)生處于一種他們覺得服從系統(tǒng)的位置。” “簡單地說他們?nèi)匀粫龀鰶Q定并不能做到這一點?!?/P>
類似的擔憂在20世紀80年代出現(xiàn),當時人工智能領(lǐng)域由“專家系統(tǒng)”主導,旨在引導人類用戶通過“決策樹”在任何情況下達到正確的答案。事實證明,太難以預測所有使現(xiàn)實世界決策復雜化的不可預見的因素。
圖:人工智能可以比人眼更快地掃描和發(fā)現(xiàn)異常,但算法也有可能出錯
但是基于機器學習的最新AI看起來將被廣泛采用,并且可能更難以進行二次猜測。由于他們在諸如圖像識別等狹窄領(lǐng)域的成功,對這些系統(tǒng)的期望一直在飆升。他們的創(chuàng)作者非常樂意接受炒作。
“我們正在失控的營銷部門,”Schank先生說。他特別挑出 ?IBM,認為該公司在談到Watson時嚴重過度承諾——這是AI圈子中經(jīng)常聽到的批評。
IBM研究工作的首席運營官達里奧吉爾(Dario Gil)捍衛(wèi)了近八年前圍繞沃森(Watson)發(fā)起一項大型計劃的決定,他認為當時沒有其他科技公司能夠在人工智能方面發(fā)揮核心作用。但是,他補充說:“我們對一般情況之間的差異不夠清楚。 “
評估人工智能系統(tǒng)的質(zhì)量建議會帶來其他挑戰(zhàn),非專家可能不愿意猜測他們不理解的工作機器。
這不是一個新的困境。30多年前,一臺名為Therac-25的放射治療機的軟件故障導致一些患者大量服用過量。Nourbakhsh先生說,技術(shù)人員無法識別缺陷,因此機器的使用時間更長。
一些計算機科學專家表示,他們希望人與機器之間能擁有更具創(chuàng)造性的關(guān)系
最先進的機器學習系統(tǒng)中使用的技術(shù),即神經(jīng)網(wǎng)絡(luò),帶來了額外的挑戰(zhàn)。它們模仿人類大腦如何運作的理論,通過人工神經(jīng)元層傳遞數(shù)據(jù),直到出現(xiàn)可識別的模式。與傳統(tǒng)軟件程序中使用的邏輯電路不同,無法跟蹤此過程以確定計算機為什么會提出特定答案。這是采用神經(jīng)網(wǎng)絡(luò)的一大障礙。
“這是人工智能的奇特諷刺——最好的系統(tǒng)碰巧是今天最不易解釋的系統(tǒng),”Nourbakhsh先生說。
然而,一些專家表示正在取得進展,并且不久之后機器學習系統(tǒng)能夠指出導致他們做出特定決定的因素?!斑@并非不可能——你可以向內(nèi)看,看看它正在發(fā)出什么信號,”赫克先生說。
像許多在該領(lǐng)域工作的人一樣,他表達了樂觀的態(tài)度,即人類和機器一起工作,所取得的成就遠遠超過任何一個人能夠獨自完成的任務(wù)。但是,在美好的未來到來之前,還是有很多嚴峻的設(shè)計挑戰(zhàn)等待人類解決。
(選自:Financial Times 編譯:網(wǎng)易智能 參與:李澤寬)
2024-11-02 08:58
2024-10-30 10:21
2024-10-30 10:14
2024-10-29 09:48
2024-10-28 08:36
2024-10-28 08:21
2024-10-26 11:08
2024-10-26 10:09
2024-10-23 09:13
2024-10-21 14:35