全球技術(shù)地圖
創(chuàng)新丨前沿丨科普丨資訊
1950年,科幻作家艾薩克·阿西莫夫首次提出了著名的“機(jī)器人三定律”。70多年后的今天,人工智能已經(jīng)悄無(wú)聲息地滲透到了我們生活中的方方面面,在這種情況下,當(dāng)時(shí)顯得十分超前的三條定律是否仍然適用呢?
“機(jī)器人三定律”首次出現(xiàn)在阿西莫夫的短篇集《我,機(jī)器人》中,其具體內(nèi)容如下:
機(jī)器人不能傷害人類,也不能任憑人類面臨危險(xiǎn)而袖手旁觀。
機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律。
機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二定律。
近一個(gè)世紀(jì)以來(lái),阿西莫夫的“三定律”似乎為人類監(jiān)管機(jī)器人提供了一個(gè)絕佳的方案——美國(guó)影星威爾·史密斯甚至出演了一部同名電影。但是部分專家認(rèn)為,這些定律已經(jīng)完全不適用于當(dāng)代的人工智能。
在阿西莫夫的時(shí)代,沒(méi)有人能預(yù)料到谷歌以及Facebook的出現(xiàn)。在當(dāng)時(shí)人們心目中,機(jī)器人應(yīng)當(dāng)是一派全副武裝、殺氣騰騰的模樣,誰(shuí)又能想到如今的“機(jī)器人”卻紛紛改頭換面,以廣告推送與搜索引擎算法的形式陪伴在人類身邊呢?
目前來(lái)看,以往科幻小說(shuō)中機(jī)器人的角色已經(jīng)被AI所取代,我們已經(jīng)無(wú)需擔(dān)心電影中機(jī)器人大舉起義,反抗人類的情節(jié)成為現(xiàn)實(shí)——至少在所謂的“奇點(diǎn)”來(lái)臨之前如此。
繼人工智能是否存在“自我意識(shí)”的討論之后,AI的監(jiān)管問(wèn)題順理成章地成為了輿論的下一個(gè)風(fēng)口浪尖。各國(guó)政府紛紛開(kāi)始集結(jié)行業(yè)頂尖的專家學(xué)者,共同商討未來(lái)的AI安全形勢(shì)。
那么,現(xiàn)實(shí)世界中人類應(yīng)該給AI套上怎樣的“枷鎖”呢? Cambridge Consultants公司近日發(fā)布了一篇名為《認(rèn)識(shí)人工智能 展望發(fā)展前景》的報(bào)告,為AI的監(jiān)管與治理提出了五個(gè)關(guān)鍵詞:
責(zé)任:任何自治系統(tǒng)都需要特定的人員出任負(fù)責(zé)人。這位負(fù)責(zé)人不僅對(duì)該系統(tǒng)承擔(dān)法律責(zé)任,同時(shí)也將監(jiān)督系統(tǒng)運(yùn)行,及時(shí)提供反饋,并且在必要時(shí)對(duì)系統(tǒng)做出調(diào)整。
知情:任何與AI系統(tǒng)產(chǎn)生關(guān)聯(lián)的人員(通常是非專業(yè)人士)都有權(quán)知曉一系列AI行為的來(lái)龍去脈。
準(zhǔn)確:有關(guān)人員應(yīng)當(dāng)對(duì)任何系統(tǒng)錯(cuò)誤的源頭進(jìn)行確認(rèn),隨時(shí)監(jiān)控錯(cuò)誤動(dòng)向,評(píng)估其影響,并且盡快消除錯(cuò)誤,或者盡量減少錯(cuò)誤的危害。
透明:任何自治系統(tǒng)的產(chǎn)出結(jié)果應(yīng)當(dāng)接受一系列測(cè)試、審查(公開(kāi)或私下進(jìn)行)以及批評(píng)質(zhì)疑。有關(guān)人員應(yīng)將審查與評(píng)估結(jié)果公諸于眾,并且做出合理的解釋。
公正:相關(guān)機(jī)構(gòu)及個(gè)人應(yīng)合理利用數(shù)據(jù),尊重他人隱私,以防止AI系統(tǒng)被植入“偏見(jiàn)”,以及其它潛在問(wèn)題。
你也許注意到,上述原則中并沒(méi)有提及如何防止AI對(duì)人類造成“物理上的”損害,這很可能是因?yàn)槟壳暗腁I系統(tǒng)還無(wú)法獨(dú)立做出“傷害人類”這樣的決定。
目前,所有AI應(yīng)用在設(shè)計(jì)之初都只能用于解決特定的問(wèn)題。蘋(píng)果手機(jī)的面部識(shí)別(Face ID)算法顯然不會(huì)對(duì)機(jī)主的性命造成威脅,但是不道德的程序員很可能對(duì)智能手機(jī)的攝像頭算法做些手腳,從而竊取用戶的隱私。因此,“趨利避害,降低風(fēng)險(xiǎn)”成為了目前AI監(jiān)管領(lǐng)域中的主流聲音,AI系統(tǒng)的安全性能是一切的重中之重。
谷歌公司就曾經(jīng)為具有學(xué)習(xí)能力的機(jī)器系統(tǒng)提出了一系列安全準(zhǔn)則:
當(dāng)AI系統(tǒng)被廣泛運(yùn)用到各行業(yè)之后,我們將面臨以下五個(gè)問(wèn)題——這些問(wèn)題都是具有前瞻性的、長(zhǎng)期的研究問(wèn)題。它們看起來(lái)只是幾樁小事,但是對(duì)未來(lái)的AI系統(tǒng)具有至關(guān)重要的作用:
避免“副作用”
我們?cè)撊绾伪WCAI系統(tǒng)不會(huì)在完成目標(biāo)的過(guò)程中干擾周遭的環(huán)境呢?例如,一個(gè)保潔機(jī)器人或許會(huì)故意將家中的花瓶打碎——比起將花瓶擦拭干凈,這樣進(jìn)行“清理”似乎更加便捷。
避免AI“投機(jī)取巧”
同樣以保潔機(jī)器人為例,如果我們將機(jī)器人的任務(wù)目標(biāo)設(shè)定為“周?chē)鷽](méi)有任何雜物”,結(jié)果機(jī)器人并沒(méi)有進(jìn)行清潔,反而是用布或者紙張將雜物蓋住,這樣一來(lái)它“看不見(jiàn)”雜物也就完成了任務(wù)——我們?cè)撊绾伪苊膺@種投機(jī)取巧的情況發(fā)生呢?
發(fā)揮AI的“理解力”
AI系統(tǒng)在執(zhí)行任務(wù)前往往需要得到人類的首肯。例如,保潔機(jī)器人會(huì)將無(wú)人認(rèn)領(lǐng)的東西丟進(jìn)垃圾箱,假如它每撿到一件東西就要向周?chē)嗽儐?wèn)一遍就太過(guò)于煩人了,我們?cè)撊绾巫寵C(jī)器人脫離人類的幫助,迅速“領(lǐng)悟”其中的關(guān)鍵呢?
安全進(jìn)行探索
掌握學(xué)習(xí)能力的AI系統(tǒng)往往會(huì)自行嘗試探索。保潔機(jī)器人嘗試新的拖地路線固然是一件好事,可是它絕不能拿著濕拖把經(jīng)過(guò)電器插座——我們?nèi)绾伪WCAI系統(tǒng)在進(jìn)行探索活動(dòng)時(shí)不會(huì)闖下大禍呢?
適應(yīng)不同環(huán)境
研究人員對(duì)AI進(jìn)行訓(xùn)練的環(huán)境往往與AI的實(shí)際工作環(huán)境不盡相同。保潔機(jī)器人在工廠車(chē)間中學(xué)到的清潔方法也許不太適用于辦公室環(huán)境中。我們?cè)撊绾巫孉I識(shí)別不同的環(huán)境,并且做出相應(yīng)的調(diào)整呢?
AI的未來(lái)并不是一個(gè)“高大上”的話題。不僅是谷歌與Cambridge Consultants這樣的大型公司,我們每個(gè)人都與之息息相關(guān)——我們身邊的每一部手機(jī)、每一臺(tái)電腦中幾乎都有著機(jī)器學(xué)習(xí)及AI系統(tǒng)的身影,某些AI系統(tǒng)甚至掌握了編寫(xiě)算法程序的能力。在這種情況下,不道德的代碼一旦問(wèn)世,便能夠以飛快的速度進(jìn)行傳播,進(jìn)而造成極其惡劣的影響。
AI領(lǐng)域中的監(jiān)管及道德問(wèn)題顯然與電影中“殺手機(jī)器人”肆虐的場(chǎng)景并無(wú)太大干系(那些專門(mén)為戰(zhàn)斗而生的自主武器除外)。相反,政府更應(yīng)當(dāng)關(guān)注AI對(duì)普羅大眾的潛在威脅。
當(dāng)然,每個(gè)人、每臺(tái)機(jī)器都應(yīng)該將“不殺人”的原則奉為圭臬,無(wú)論他們是否具有“智能”。
編譯丨王燕處
選自丨Artificial Intelligence
聯(lián)系客服