軍用機器人,也被稱為無人系統(tǒng),用于執(zhí)行偵察、排雷、作戰(zhàn)、海上搜救等危險系數(shù)較高的軍事行動。
早在20世紀30年代,前蘇聯(lián)軍隊就曾試驗“遙控坦克”;二戰(zhàn)期間,德軍先后制造了數(shù)千輛遙控戰(zhàn)斗車輛用于掃雷和爆破。
自20世紀80年代以來,以美國為首的西方軍事強國一直在積極研發(fā)各種新型智能機器人,相繼出現(xiàn)了地面、空中和水下軍用機器人。據(jù)媒體報道,美國國會曾通過法案,規(guī)定到2015年前,1/3的地面戰(zhàn)斗將使用機器人士兵。還有報道稱,美軍未來一個旅級作戰(zhàn)單元將至少包括151個機器人戰(zhàn)士。
除美國外,俄、英、法、德、日、韓等國也正加緊研制新一代智能機器人。2013年,俄羅斯國防部成立了機器人技術(shù)科研實驗中心,專門負責(zé)領(lǐng)導(dǎo)俄軍用機器人的研發(fā)生產(chǎn)。據(jù)軍事專家統(tǒng)計,目前全球已超過60個國家的軍隊裝備了軍用機器人,種類超過150種。
面對機器士兵的迅猛發(fā)展,不少專家憂心忡忡。“如果有人下達命令殺光某座城市中的所有男性,它們肯定能夠完成任務(wù)?!奔又荽髮W(xué)柏克萊分校計算機科學(xué)教授拉塞爾說,為此,他去年曾聯(lián)合一些知名人士公開呼吁禁止機器士兵的研發(fā)。
2012年,美國政府強制規(guī)定自主武器需要為期10年的人工控制。但人工控制期限過后呢,機器士兵真的能夠完全自主嗎?如何創(chuàng)造一個“符合道德倫理”的機器士兵,如何用程序語言輸入“公平”或“傷害”這些概念?讓機器士兵自主決定是否傷害人類會不會很荒謬?如果機器士兵在戰(zhàn)場上違法殺人,過錯應(yīng)算到誰頭上(目前的答案是“無人需要負責(zé)”)?機器士兵要不要上戰(zhàn)爭法庭?
除了黑客侵入導(dǎo)致倒戈的切實潛在危險之外,機器士兵的應(yīng)用還有太多倫理困境需要我們回答。
2024-10-18 10:00
2024-10-18 09:59
2024-10-18 09:57
2024-10-18 09:56
2024-10-18 09:54
2024-10-18 09:54
2024-10-18 09:53
2024-10-17 11:48
2024-10-17 10:09
2024-10-17 09:06