您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

人工智能如何“德才兼?zhèn)洹?/h1>

2018-07-06 06:59 性質(zhì):轉載 作者:中國科學報 來源:中國科學報
免責聲明:中叉網(wǎng)(m.m21363.cn)尊重合法版權,反對侵權盜版。(凡是我網(wǎng)所轉載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權均系原作者和機構所有。文章內(nèi)容觀點,與本網(wǎng)無關。如有需要刪除,敬請來電商榷?。?/div>
1956年夏季,當一批年輕的科學家首次提出“人工智能”這一術語,想必他們是激動的。在經(jīng)過了緩慢發(fā)展的一段時間后,得益于大數(shù)據(jù)驅(qū)動、...

  1956年夏季,當一批年輕的科學家首次提出“人工智能”這一術語,想必他們是激動的。在經(jīng)過了緩慢發(fā)展的一段時間后,得益于大數(shù)據(jù)驅(qū)動、硬件技術的不斷發(fā)展、計算能力的提升、深度學習算法等帶來的數(shù)據(jù)智能和感知智能上的突破,近些年人工智能得以快速發(fā)展。

  “在人工智能的發(fā)展和應用中,倫理必須占據(jù)中心地位。”今年4月,英國上議院出了一份長達183頁的報告《人工智能在英國:充分準備、意愿積極、能力爆棚?》,不僅說了人工智能在英國的發(fā)展,更聚焦于倫理道德問題——那些AI可能為人類帶來的風險。

  在機器人原則與倫理標準方面,日本、韓國、英國、歐洲和聯(lián)合國教科文組織等相繼推出了多項倫理原則、規(guī)范、指南和標準。

  2016年,聯(lián)合國教科文組織發(fā)布了《機器人倫理報告初步草案》,草案不僅探討了社會、醫(yī)療、健康、軍事、監(jiān)控、工作中的機器人倫理問題,最后還對運用機器倫理制造道德機器進行了討論。

  2016年至2017年,電氣電子工程師協(xié)會(IEEE)頒布了《人工智能設計的倫理準則》的第一版和第二版。

  目前,中國相關部門也正在積極地開展人工智能的標準研究。

  無疑,人們在探討人工智能帶來的倫理問題的同時,還在思考怎樣才能解決這些倫理問題,盡管離解決問題還有些距離。

機器有偏見

  今年5月,滴滴順風車司機殺害女乘客事件發(fā)生后,有網(wǎng)友爆出,滴滴順風車司機通過平臺軟件,在接單前可以看到以前司機對乘客的全部評價,而這些評價中就包括對女性乘客外貌的評價。這是因為平臺軟件上增加了社交功能。

  今年2月,《紐約時報》英文網(wǎng)站發(fā)表了一篇文章,指出如今非常熱門的人工智能應用人臉識別,針對不同種族的準確率差異巨大。這讓人們意識到,人工智能系統(tǒng)確實可能存在偏見。

  人工智能帶來的文化偏見的例子還有很多,如詞語“女性”“婦女”與藝術人文類職業(yè)以及家庭聯(lián)系更緊密,詞語“男性”“男人”則和數(shù)學、工程類職業(yè)更近。尤為危險的是,AI還有強化所習得的偏見的潛能,它們不像人可以有意識地去抵制偏見。

  不用說,當下時不時就會看到人工智能的新聞,且多是對人們生活已造成或者可能造成負面影響的消息。又比如這兩天在國內(nèi)出現(xiàn)的手機任意調(diào)動攝像頭事件,人們震驚于原來有的手機會自動把攝像頭打開。

  顯然,人工智能的倫理問題比以往技術帶給人類的更為復雜。

  美國耶魯大學教授溫德爾·瓦拉赫在接受《中國科學報》記者采訪時表示,人工智能是一種認知技術,是區(qū)別于過去的技術發(fā)展。過去的技術發(fā)展確實能取代一部分人類的勞動,但通常不包括人類的精神活動。而人工智能可能會在更廣泛的領域內(nèi)取代人類的工作。

  技術帶來的倫理問題本質(zhì)上是相同的。但隨著新技術的發(fā)展,這些問題會以新的形式出現(xiàn)。這里不僅包括人工智能,也包括其他新興技術?!暗煌氖牵斯ぶ悄懿粌H僅是一個特定的應用,或者一組應用,它是一項幾乎可以應用于生活的每一個方面的技術?!?/P>

倫理有缺位

  “人工智能和包括機器人在內(nèi)的智能化自動系統(tǒng)的普遍應用,不僅僅是一場結果未知的開放性的科技創(chuàng)新,更將是人類文明史上影響至為深遠的社會倫理試驗?!敝袊鐣茖W院研究員段偉文近些年致力于人工智能的倫理研究,他表達了自己的擔憂。

  對于上文提到滴滴順風車司機殺害女乘客事件,段偉文給《中國科學報》記者分析,作為共享交通平臺,它的目標是安全快捷地把乘客送達目的地,現(xiàn)在為了達到商業(yè)上的利益最大化,增加了社交軟件,卻沒有考慮到那些女乘客以及潛在受害者的利益。這就涉及到倫理問題。“通過對司機、乘客和平臺的利益分析和價值分析,發(fā)現(xiàn)其實包含了對各方的利害得失與價值沖突。”

  如果說人工智能對人類的威脅是終極問題,如何解決還未可知,那么人工智能在當下活動中體現(xiàn)出來的倫理問題就亟待解決了。

  段偉文認為,應當從我們這些年研究科學技術前沿中的、科學技術應用中遇到的實例,去探討人工智能的倫理問題。“從這個角度,我更愿意把它當作未完成的倫理?!?/P>

  與以往不同,人工智能倫理研究不再是一個高高在上的理論,也沒有一套適用全部情形的普遍原則體系,更多的是針對具體的人類活動或者科技實踐的原則體系,比如說,陪護機器人,就需要一些防止過度依賴機器人的原則。

  “從里面找到一些價值沖突,需要作哪些倫理的決擇,讓我們發(fā)現(xiàn)問題、研究問題?!倍蝹ノ恼f。

  另外,當下的社會中,大數(shù)據(jù)讓人們享受了便捷,同時這些數(shù)據(jù)會受到不良的使用,或者是沒有必要的濫用。而由于大數(shù)據(jù)的挖掘?qū)е律虡I(yè)智能的運用對人的權利的侵犯,這種侵犯最核心一點就是人的自主權,包括隱私。

  因此,歐盟數(shù)據(jù)保護條例中,針對保護個人數(shù)據(jù)的態(tài)度很強硬,只要能夠識別是個人的,就是個人數(shù)據(jù),而且個人能決定他的數(shù)據(jù)怎么使用、該不該使用,以及對有些數(shù)據(jù)要求被遺忘、數(shù)據(jù)可攜帶等。

  “讓技術在社會上更好地運行,就要從倫理上對它進行設計?!倍蝹ノ恼f,比如現(xiàn)在經(jīng)常提到監(jiān)控裝置對人的隱私的傷害,將來可以讓使用者看到攝像頭的界面,讓人們在一定程度上了解自己的數(shù)據(jù)如何被追蹤和使用;這樣既可以促使數(shù)據(jù)追蹤者規(guī)范其行為,也有利于被追蹤對象適當修正其行為方式?!斑@是數(shù)據(jù)時代、信息時代一個新的信息對稱的問題,讓不對稱變對稱一點,尋求一種再平衡。”

道德機器是否可期?

  美國著名科幻作家阿西莫夫曾在他的小說中提到“機器人學三定律”。以往人們更關注其內(nèi)容,而忽視了“機器人學三定律”如何在實際操作中來規(guī)范機器人的行為。

  其實阿西莫夫有很詳細的構想,通過技術直接嵌入到機器人的控制軟件或智能編碼底層,令“機器人學三定律”不只是紙上法則,更可經(jīng)由技術強制執(zhí)行——通過內(nèi)置的“機器道德調(diào)節(jié)器”使機器人成為有道德的機器人。

  如何解決人工智能的倫理問題,這是一個科學家、哲學家以及相關領域的研究者都不能忽視的問題。讓機器人有道德或許不是科幻呢?

  溫德爾·瓦拉赫和認知哲學家科林·艾倫在10年前共同完成了《道德機器:如何讓機器人明辨是非》一書。他們對能否讓機器有道德進行了研究。溫德爾·瓦拉赫是耶魯大學生物倫理學跨學科研究中心主管,曾開過“機器人的道德和人的倫理”的課程。

  科林·艾倫1999年涉足這個領域,他還曾任《斯坦福哲學百科全書》——全球最大的電子哲學詞典的技術總監(jiān),指導開發(fā)人員,使他同時在哲學和計算機這兩個領域皆有深刻的理解。

  2002年,他們在德國巴登巴登召開的一次會議上相識,因共同的學術興趣,兩人開始研究人工道德智能體的技術層面的倫理問題。2008年2月完成了本書,2009年英文版出版。

  兩位學者在書中提出要設計出符合人類道德規(guī)范的機器人。這個聽起來是不大可能實現(xiàn)的目標。他們也認為,完備的機器道德智能體還很遙遠,但是目前有必要,而且有可能開始建構一種功能性道德,從而使人工道德智能體可以具有基本的道德敏感性。

  例如,對于前面提到的語言上的偏見,艾倫認為應該考慮的是,“如何在設計理解語言的算法時既讓其消除偏見,又不喪失其對語言的解釋能力”。

  兩位學者進行了開創(chuàng)性的研究,并提出了解決方案的三條路徑:一是自上而下,就是把人類已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進去,即理論驅(qū)動作決策;二是自下而上式的數(shù)據(jù)驅(qū)動的學習和進化的方式;三是混合進路系統(tǒng),即將前兩種結合起來,使人工智能體在一定的普遍倫理準則指引下、通過深度學習算法,在與人類的互動中不斷完善其倫理系統(tǒng)。

  西安交通大學計算哲學實驗室中方主任、本書主譯王小紅向《中國科學報》記者介紹,《道德機器》的兩位作者的討論是基于哲學家、科學哲學家、技術倫理學家在交叉領域的深入思考和研究,沒有停留在形而上的討論上,而是提出了可行性方案讓這種自動控制系統(tǒng)機器人有道德的能力。“特別有預見性和超前意識,在10年前就考慮從前端來解決問題?!?/P>

  王小紅進一步解釋,從前端將倫理算法嵌入機器,并不代表著其他的社會控制不需要,因為不可能把所有的實際社會場景、生活難題都預測到,后來遇到了還可以通過其他規(guī)范去制約。所以,她認為,前端嵌入和后端制約應該是齊頭并進的。

要走的路還很長

  像所有開放的和影響深遠的人類活動一樣,人工智能的不斷發(fā)展和加速進步使人們很難明確界定其內(nèi)涵。同樣的,人工智能的倫理也沒有相對嚴格的定義和界限。

  段偉文認為,當前,有關人工智能與機器人的倫理研究可大致分為四個進路。

  一是面向應用場景的描述性研究;二是凸顯主體責任的責任倫理研究;三是基于主體權利的權利倫理研究;四是探討倫理嵌入的機器倫理研究。

  段偉文解釋說,第四種相當于溫德爾·瓦拉赫和科林·艾倫的探討,因此說,怎么讓機器有道德,是前瞻性的探討,也是現(xiàn)在討論的一部分。盡管此進路已有一些探索,但在技術上存在極大困難,理論上也遭遇難以解決的道德困境。

  “阿西莫夫所提出的機器人定律可能未必有實質(zhì)的意義,但其真正的價值可能更多地在于觀念上的超前與突破。”段偉文說,機器人三定律帶來的啟迪是:為了使人所創(chuàng)造的機器人和人工智能有益人類和免于失控,應致力于從人類價值、利益、安全以及未來發(fā)展的角度對其加以價值校準與倫理調(diào)適,以此消除人們對其終極創(chuàng)造物的疑慮。

  人工智能的倫理問題要走的路還有很長?!八鼘嶋H上是一個改變歷史的轉折點,而不僅僅是對過去問題的簡單延續(xù)?!睖氐聽枴ね呃毡硎?,而且這項研究幾乎所有的學科都涵蓋在內(nèi),如神經(jīng)科學、經(jīng)濟學、心理學、哲學等?!靶枰紤]的是,哪些方面會影響人類進行決策,以及它們是如何影響人類決策的。”

  盡管人工智能的問題很多,但不能像限制直接對人類造成傷害的技術那樣限制人工智能的發(fā)展,因為沒人會懷疑,如果現(xiàn)在限制了,未來的10年、30年或50年之后,人們又不得不回過頭來重新開始發(fā)展這些技術。

  在溫德爾·瓦拉赫和科林·艾倫看來,解決終極的人工智能倫理問題還很遙遠,但需要朝著這個方向走,而且,他們有關“道德機器”的觀點依然非常領先,甚至更具現(xiàn)代化,可作為人們反思這些問題的基礎。(張亞茹對本文亦有貢獻)

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關資訊

關注官方微信

手機掃碼看新聞