數(shù)以百萬(wàn)計(jì)的人每天都在以某種形式使用著人工智能(AI),而其中大部分都是在不知不覺中進(jìn)行的。全世界的人們都在通過(guò)手機(jī)上的、或者其他平臺(tái)上的應(yīng)用來(lái)使用它。
例如,谷歌搜索提示、Facebook好友建議、自動(dòng)更正和預(yù)測(cè)文本都是通過(guò)使用人工智能技術(shù)進(jìn)行的。正因?yàn)槿绱?,比以往任何時(shí)候都更重要的是,我們需要在全球范圍內(nèi)提高人工智能的透明度,從而能夠了解這項(xiàng)技術(shù)的工作原理,然后做出決策,并為醫(yī)療和金融等行業(yè)提供關(guān)鍵的應(yīng)用程序。
我想我們都應(yīng)該認(rèn)可賦予的人工智能權(quán)力不應(yīng)該凌駕于法律之上,但與此同時(shí),人工智能技術(shù)也不應(yīng)受到過(guò)于嚴(yán)格的監(jiān)管。至少在徹底分析新標(biāo)準(zhǔn)和新規(guī)是否能保護(hù)消費(fèi)者、或者實(shí)際上能限制其往壞的方向發(fā)展之前,我們不應(yīng)該這樣看待人工智能。分析的范圍應(yīng)該集中在人工智能的當(dāng)前應(yīng)用下、它在新領(lǐng)域的部署對(duì)經(jīng)濟(jì)的潛在影響、以及公眾對(duì)該技術(shù)看法的評(píng)估等方面。
與此同時(shí),我們這些在全球科技圈研發(fā)人工智能的人需要共同解決其可審核性和透明度的問(wèn)題。我們應(yīng)該致力于投資新興人工智能技術(shù)的研發(fā),而這正是許多人在僅僅觀察算法層面上是無(wú)法理解的。值得肯定的是,企業(yè)、政府和學(xué)術(shù)領(lǐng)域的利益相關(guān)方都有責(zé)任幫助人們理解人工智能何時(shí)對(duì)于他們最有用,為什么它能提高生產(chǎn)力,以及很重要的一點(diǎn),關(guān)于收集相關(guān)數(shù)據(jù)以呈現(xiàn)出人們互動(dòng)的方式。
加強(qiáng)和擴(kuò)大人工智能透明度、知識(shí)和理解的關(guān)鍵需要從幾個(gè)方面來(lái)說(shuō),接下來(lái)讓我來(lái)說(shuō)明。
與人工智能互動(dòng)的每個(gè)人都應(yīng)該意識(shí)到這并不是人類在跟我們對(duì)話,而且,在此應(yīng)用下人類也不應(yīng)該假裝成機(jī)器人。利用人工智能技術(shù)進(jìn)行客戶和人員互動(dòng)的公司應(yīng)該清楚地知道其產(chǎn)生的數(shù)據(jù)將會(huì)帶給他們什么。與人工智能驅(qū)動(dòng)的平臺(tái)和系統(tǒng)進(jìn)行聊天測(cè)試的人應(yīng)該需要記錄他們的談話記錄,并在出現(xiàn)差異、問(wèn)題或需要確認(rèn)的情況下對(duì)他們進(jìn)行調(diào)整。
為企業(yè)和企業(yè)應(yīng)用開發(fā)人工智能的人需要負(fù)責(zé)任地創(chuàng)建、獲取和測(cè)試各種數(shù)據(jù)。我們需要引入偏差檢測(cè)測(cè)試,以確定人工智能是否符合標(biāo)準(zhǔn)和商定的測(cè)試協(xié)議。或者我們具體來(lái)說(shuō),在人工智能測(cè)試實(shí)驗(yàn)結(jié)束之前,工程師需要模擬和掌握其體內(nèi)的數(shù)據(jù)集如何在各種環(huán)境中與用戶交互的情況。
工程師需要測(cè)試產(chǎn)品以確保它們不會(huì)對(duì)人類有害。為了保護(hù)用戶,他們對(duì)人工智能應(yīng)用的可用性、安全性、可擴(kuò)展性和安全性進(jìn)行產(chǎn)品測(cè)試,但目前還沒(méi)有對(duì)它們?cè)谏缃弧⒌赖禄蚯楦蟹矫婵赡軐?duì)人類造成的傷害做相關(guān)的測(cè)試。作為一個(gè)新興行業(yè),我們?yōu)槭裁床辉陂_發(fā)周期添加偏見測(cè)試,以確保人工智能應(yīng)用程序中的算法不存在偏見,從而不會(huì)造成對(duì)用戶慢性的或傳統(tǒng)意義上的傷害呢?
人工智能工程師還需要與公司內(nèi)外的同行分享他們對(duì)于人工智能的最佳實(shí)踐成果和消除傳統(tǒng)觀念的新發(fā)現(xiàn)。他們需要確保他們正在開發(fā)的人工智能和它所使用的數(shù)據(jù)能夠反映使用者們需要得到的信息的多樣性。最重要的是,當(dāng)技術(shù)出現(xiàn)問(wèn)題時(shí),企業(yè)需要做出艱難的決定來(lái)阻止人工智能,例如設(shè)置避免偏見性算法或提高算法的透明度。通過(guò)確保技術(shù)和數(shù)據(jù)是多樣的、客觀的和無(wú)缺陷的,當(dāng)人們?cè)噲D獲取這些信息時(shí)將不會(huì)遇到太多的偏見性問(wèn)題。
人工智能行業(yè)應(yīng)該實(shí)現(xiàn)自我管理,并與企業(yè)董事會(huì)和管理團(tuán)隊(duì)目標(biāo)保持一致。這些要求應(yīng)該有一個(gè)統(tǒng)一的,并且是可選擇的原則準(zhǔn)則,比如我們?cè)赟age上發(fā)布的用于開發(fā)和應(yīng)用人工智能解決方案的人工智能倫理指南。政府和企業(yè)之間也應(yīng)該建立合作伙伴關(guān)系,這樣他們就可以實(shí)時(shí)分享關(guān)于人工智能安全相關(guān)的信息。假如實(shí)現(xiàn)這樣的真正伙伴關(guān)系的話,這會(huì)極大地提高人工智能使用的透明度,并可以為其他考慮轉(zhuǎn)向“人工智能用于商業(yè)發(fā)展、公共服務(wù)和社會(huì)公益”為目標(biāo)的司法管轄區(qū)提供了范例。
公司考慮應(yīng)該對(duì)人工智能進(jìn)行內(nèi)部審查去了解人工智能在哪里可以得到最大化應(yīng)用,以及需要培訓(xùn)多少人才能更好地實(shí)施人工智能驅(qū)動(dòng)的服務(wù)。他們應(yīng)該創(chuàng)建培訓(xùn)和加速勞動(dòng)力的相關(guān)項(xiàng)目,以鼓勵(lì)更多具備人工智能研發(fā)技能的人才從事技術(shù)驅(qū)動(dòng)這項(xiàng)工作。
人工智能實(shí)現(xiàn)透明化是一項(xiàng)全球性的努力
從根本上講,我們的科技社區(qū)需要定義人工智能透明化的含義并共同努力,將透明度應(yīng)用于創(chuàng)新人工智能技術(shù)中。我們需要停止持有將人工智能視為一個(gè)黑匣子的這種觀念,并解決其可審計(jì)性和可追溯性問(wèn)題,而解決這些問(wèn)題將引領(lǐng)我們走上正確的道路。我們需要普及關(guān)于人工智能的知識(shí),并闡明它的無(wú)數(shù)用例——從技術(shù)到醫(yī)療,從交通到社會(huì)安全再到家庭生活。
由于當(dāng)前缺乏人工智能的透明度和教育,導(dǎo)致人們對(duì)這一將來(lái)發(fā)展所需要的重要技術(shù)產(chǎn)生不信任。如果我們能夠?qū)⑦@個(gè)問(wèn)題作為一個(gè)正式行業(yè)來(lái)面對(duì),那么我們將能夠通過(guò)像人工智能這樣的技術(shù)來(lái)真正實(shí)現(xiàn)信息的民主化,而這將把我們集中成一個(gè)全球性的科技和用戶群體。
如果需要爭(zhēng)取普遍透明度,我們必須在算法和數(shù)據(jù)層面上來(lái)實(shí)現(xiàn)它。全球人工智能社區(qū)需要共同努力,通過(guò)適當(dāng)?shù)臏y(cè)試、培訓(xùn)和教育來(lái)遏制、消除偏見,這也是我在職業(yè)生涯中一直致力于做的事情。而且我并不是唯一一個(gè)這樣做的人,包括英國(guó)議會(huì)的人工智能委員會(huì)、紐約大學(xué)的人工智能學(xué)院和麻省理工學(xué)院媒體實(shí)驗(yàn)室的人工智能和治理倡議等項(xiàng)目,都在努力打造透明的、合乎道德的人工智能。我們?nèi)杂泻芏喙ぷ饕觥5斯ぶ悄艿耐该骰俏覀兎浅V档门θ?shí)現(xiàn)的。
2024-03-08 09:31
2024-03-07 15:27
2024-03-07 10:20
2024-03-07 09:56
2024-03-05 09:41
2024-03-05 09:39
2024-03-05 09:37
2024-03-05 09:32
2024-03-05 08:59
2024-03-04 09:11