国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開(kāi)通VIP
牛津大學(xué)在思考:如何讓AI成為一個(gè)好人?

轉(zhuǎn)自:學(xué)術(shù)plus,作者:Mariarosaria Taddeo,Luciano Floridi 牛津大學(xué)互聯(lián)網(wǎng)研究所,阿蘭·圖靈研究所,編譯:學(xué)術(shù)plus評(píng)論員 張濤

編者按:2018年8月,牛津大學(xué)互聯(lián)網(wǎng)研究所、阿蘭·圖靈研究所 Mariarosaria Taddeo,Luciano Floridi 發(fā)表發(fā)表署名文章《How AI can be a force for good》,文中詳細(xì)討論了倫理范疇下的人工智能,其中包括AI責(zé)任權(quán)限授予、AI與生活融合之后的可信性與透明度問(wèn)題,AI倫理原則制定等重要議題。僅供大家學(xué)習(xí)參考。文章版權(quán)歸原作者所有,觀點(diǎn)不代表本機(jī)構(gòu)立場(chǎng)。



人工智能倫理準(zhǔn)則框架

How AI can be a force for good


原載:www.sciencemag.org/content/361/6404/751


An ethical framework will help to harness the potential of AI while keeping humans in control.



人工智能(AI)不僅是一項(xiàng)需要監(jiān)管的新技術(shù),而且重塑著我們的日常生活、個(gè)人和專業(yè)的互動(dòng)方式等。對(duì)我們?nèi)祟惗?,?dāng)然希望AI能夠?yàn)槲覀兯?,更好地改善我們的生活。在這中間,倫理(ethics)就起著非常關(guān)鍵的作用,因?yàn)橐軌虼_保AI在發(fā)揮其潛力的同時(shí)能夠緩解其帶來(lái)的風(fēng)險(xiǎn)。


AI在許多的場(chǎng)景下會(huì)有不同的定義。如果定義出了差錯(cuò),那么對(duì)AI的倫理挑戰(zhàn)的評(píng)判就可能是不準(zhǔn)確和不負(fù)責(zé)的。其中一個(gè)觀點(diǎn)是利用經(jīng)典定義:



“growing resource of interactive, autonomous, self-learning agency, which enables computational artifacts to perform tasks that otherwise would require human intelligence to be executed successfully”。

“不斷增長(zhǎng)的互動(dòng)的、自主的、自學(xué)代理的資源,使計(jì)算部件能夠執(zhí)行任務(wù)”。



AI還可以在一些特征中進(jìn)行定義,比如依賴的模型或技術(shù)架構(gòu)。但在政策相關(guān)的問(wèn)題上,是不需要技術(shù)架構(gòu)的。另一方面,AI是數(shù)據(jù)驅(qū)動(dòng)的技術(shù),因此面臨數(shù)據(jù)管理的倫理挑戰(zhàn),包括同意權(quán)(consent)、擁有權(quán)(ownership)和隱私權(quán)(privacy)。AI帶來(lái)的數(shù)據(jù)相關(guān)的挑戰(zhàn)是有唯一性的,即其他技術(shù)的發(fā)展并不會(huì)帶來(lái)這樣的問(wèn)題。同時(shí),AI也是一種自動(dòng)化和自學(xué)習(xí)的技術(shù),因此也會(huì)帶來(lái)一些獨(dú)特的倫理挑戰(zhàn)。這也是本文重點(diǎn)關(guān)注的內(nèi)容。


AI的倫理爭(zhēng)論可追溯到20世紀(jì)60年代,從那時(shí)起,就引出了許多授權(quán)與責(zé)任delegation and responsibility相關(guān)的問(wèn)題。隨著AI應(yīng)用的場(chǎng)景越來(lái)越多,包括招聘、醫(yī)療、任務(wù)理解和決策,如何將責(zé)任歸結(jié)為性能問(wèn)題,其實(shí)是一個(gè)倫理問(wèn)題。同時(shí),AI變得隨處可見(jiàn),新的倫理挑戰(zhàn)隨即出現(xiàn)。人類自我決定(self-determination)是其中最相關(guān)、最亟需解決的問(wèn)題。利用AI對(duì)用戶進(jìn)行畫像然后精準(zhǔn)廣告投放就是一個(gè)例子,AI系統(tǒng)獲取了用戶偏好、特征,并進(jìn)行用戶畫像,然后用于之后的推薦的案例,這樣的案例可以應(yīng)用于在線服務(wù)提供商,甚至是政治活動(dòng)等。


授權(quán)與責(zé)任


AI的應(yīng)用變得越來(lái)越普及,從貨物運(yùn)輸?shù)絿?guó)家安全,用戶依賴AI應(yīng)用來(lái)處理不同的任務(wù)。將這些任務(wù)分配給AI來(lái)做會(huì)給我們?nèi)祟悗?lái)大量的收益,可以降低成本、減少風(fēng)險(xiǎn)、增加持續(xù)性和可靠性,確保新的方案可以應(yīng)用到解決復(fù)雜問(wèn)題中等等。比如,AI應(yīng)用在診斷乳癌方面可以將診斷錯(cuò)誤率降低85%,AI網(wǎng)絡(luò)安全系統(tǒng)可以將識(shí)別和中和網(wǎng)絡(luò)攻擊的平均時(shí)間從101小時(shí)減少到幾個(gè)小時(shí)。


Delegation(授權(quán))可能會(huì)導(dǎo)致有害的和一些意想不到的后果,尤其是涉及敏感的決策或任務(wù)時(shí)。以COMPAS系統(tǒng)為例,COMPAS是一款預(yù)測(cè)罪犯可能會(huì)成為再犯的風(fēng)險(xiǎn)評(píng)估的AI軟件,但COMPAS系統(tǒng)在非裔美國(guó)人和西班牙裔美國(guó)人的評(píng)估中存在歧視問(wèn)題。因此,人類需要對(duì)這些AI的應(yīng)用過(guò)程進(jìn)行監(jiān)管來(lái)減小不希望的結(jié)果,并對(duì)AI不公平的影響進(jìn)行矯正。


人類的監(jiān)管在處理復(fù)雜問(wèn)題上是不夠的,因此需要能夠解釋AI和預(yù)測(cè)結(jié)果的技術(shù)。DARPA(Defense Advanced Research Project Agency)的XAI(Explainable Artificial Intelligence)項(xiàng)目就是一個(gè)這樣的,該項(xiàng)目的目標(biāo)就是定義解釋AI系統(tǒng)決策過(guò)程的新技術(shù)。這樣人們就可以了解AI系統(tǒng)決策的過(guò)程,設(shè)計(jì)者和開(kāi)發(fā)者就可以通過(guò)避免錯(cuò)誤、緩解誤用帶來(lái)的風(fēng)險(xiǎn)等方式來(lái)改善系統(tǒng)。類似的項(xiàng)目必須含有倫理影響分析的過(guò)程,判定AI的風(fēng)險(xiǎn)和好處,定義設(shè)計(jì)和使用AI的指導(dǎo)原則。


基于AI的決策或行為的效果是設(shè)計(jì)者、開(kāi)發(fā)者、 用戶、軟件和硬件等眾多參與者無(wú)數(shù)次交互的結(jié)果,這就是distributed agency(分布式代理)。分布式代理帶來(lái)了分布式責(zé)任,現(xiàn)有的倫理框架解決的是單個(gè)的人的責(zé)任,基于單個(gè)人的動(dòng)作和意圖進(jìn)行獎(jiǎng)勵(lì)和處罰,而不能解決分布式的責(zé)任問(wèn)題。


直到最近才有一些新的倫理理論考慮了分布式代理。這些倫理理論基于合同和侵權(quán)責(zé)任或嚴(yán)格的責(zé)任,并采用了無(wú)過(guò)錯(cuò)責(zé)任模型(faultless responsibility model)。該模型將單個(gè)代理的責(zé)任從意圖中分割出來(lái)來(lái)執(zhí)行特定的動(dòng)作,或從能力中分割出來(lái)來(lái)控制結(jié)果,并持有分布式系統(tǒng)的所有代理。這在AI中是非常重要的,因?yàn)閷⒌赖仑?zé)任分布在設(shè)計(jì)者、監(jiān)管者和用戶之間了。所以,模型在“懲惡揚(yáng)善”上起著關(guān)鍵的作用,因?yàn)槟P蜁?huì)促使所有的代理采用負(fù)責(zé)任的行為。


為授權(quán)建立最佳實(shí)踐(good practices)并定義新的模型來(lái)分配道德責(zé)任是抓住AI創(chuàng)造的機(jī)會(huì)和解決相關(guān)挑戰(zhàn)所必須的,但這仍然是不夠的。倫理分析必須擴(kuò)展為考慮AI對(duì)人類行為的不可見(jiàn)的影響。


可信度與透明度


AI支持的服務(wù)、平臺(tái)和設(shè)備隨處可見(jiàn),并逐漸應(yīng)用到我們生活的各個(gè)方面。2017年,國(guó)際機(jī)器人學(xué)聯(lián)合會(huì)預(yù)測(cè)到2020年會(huì)有超過(guò)170萬(wàn)新AI驅(qū)動(dòng)的機(jī)器人安裝在世界各地的工廠。同年,Juniper Networks公司發(fā)布的報(bào)告稱到2022年,55%的家庭會(huì)擁有語(yǔ)音助手。


隨著AI技術(shù)的成熟和傳播,AI會(huì)融入我們的生活、經(jīng)驗(yàn)和環(huán)境中,變成一個(gè)隱形的促進(jìn)者。在創(chuàng)造新的機(jī)會(huì)方面,AI與環(huán)境的融合會(huì)出現(xiàn)新的倫理問(wèn)題。其中一些問(wèn)題是領(lǐng)域獨(dú)立的,比如在將AI解決方案嵌入家庭、學(xué)校、醫(yī)院時(shí),可信和透明是非常重要的,而在工作場(chǎng)所,員工的平等、公平、創(chuàng)造力的保護(hù)和權(quán)利也是必要的。但AI的融合也會(huì)產(chǎn)生新的基本風(fēng)險(xiǎn):因?yàn)锳I巨大的影響力會(huì)侵蝕和破壞人類的自決性。


圖片:住院兒童可以通過(guò)Avatar Kids項(xiàng)目用遠(yuǎn)程控制的機(jī)器人參與課堂互動(dòng),圖片來(lái)源:BSIP/UIG


因?yàn)锳I的預(yù)測(cè)能力、普遍存在性、輕微影響性,AI系統(tǒng)可以輕易地、默默地形成我們的選擇和動(dòng)作,比如可以培養(yǎng)社交和合作能力 。但AI的影響力也可能會(huì)超出我們的預(yù)期和理解,逐步削弱我們對(duì)環(huán)境、社會(huì)的控制,并最終影響我們的選擇、身份和生活。


倫理原則制定


為了解決AI帶來(lái)的風(fēng)險(xiǎn),識(shí)別出基本的倫理原則集是必要的,因?yàn)榭梢允笰I的設(shè)計(jì)、管理和使用都遵循這些原則。但這并不容易,因?yàn)槲幕瘓?chǎng)景和分析的領(lǐng)域不同,倫理原則就會(huì)有所不同。這也是IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems(全球自主和智能系統(tǒng)倫理倡議)想要解決的問(wèn)題。


更重要的一點(diǎn)是,一些基本原則的協(xié)定正不斷涌現(xiàn)。最近就有文章對(duì)關(guān)注AI倫理的主流觀點(diǎn)進(jìn)行了對(duì)比分析,主要強(qiáng)調(diào)的是這些原則的重疊點(diǎn)和生物倫理學(xué)的主要原則,也就是慈善、非惡意、自治和正義。對(duì)于這些準(zhǔn)則未來(lái)的融合,我們的觀點(diǎn)可以樂(lè)觀一些,因?yàn)槠渌瓌t主要來(lái)自于Universal Declaration of Human Rights(世界人權(quán)宣言)。


識(shí)別出倫理原則后,就需要轉(zhuǎn)化為可行的指南來(lái)形成基于AI的創(chuàng)新。這種轉(zhuǎn)化也是有先例可循的,尤其是在醫(yī)藥行業(yè),轉(zhuǎn)換研究從基礎(chǔ)研究到臨床應(yīng)用,基于生物學(xué)的研究進(jìn)展來(lái)開(kāi)發(fā)新的治療方法和方案。倫理轉(zhuǎn)變還適用于學(xué)術(shù)進(jìn)展,用于形成規(guī)制和治理方法。這種方法在不斷加強(qiáng)AI4People即將出臺(tái)的用于倫理設(shè)計(jì)和AI管理的建議。


AI4People是歐盟議會(huì)2018年2月(注:文章中是2018年2月,AI4People網(wǎng)站寫的是2017年11月)啟動(dòng)的一個(gè)項(xiàng)目,是為研究AI帶來(lái)的社會(huì)影響而建立的。目標(biāo)是創(chuàng)建一個(gè)布局構(gòu)建“good AI society”政策和實(shí)踐的公共空間。AI4People也是一個(gè)多利益方參與的全球性論壇,包括歐盟國(guó)會(huì)、社會(huì)組織、工業(yè)界和媒體等。


AI的倫理需要制定一些預(yù)見(jiàn)性方法來(lái)識(shí)別倫理風(fēng)險(xiǎn)和機(jī)會(huì),預(yù)防一些不期望的結(jié)果出現(xiàn)。影響評(píng)定分析就是這種方法的一個(gè)例子,提供了對(duì)給定企業(yè)的隱私、透明性、責(zé)任等方面應(yīng)用的技術(shù)的影響的分析。AI系統(tǒng)設(shè)計(jì)和倫理管理是一個(gè)復(fù)雜但必須要做的事情。這種可選的方法可能會(huì)造成個(gè)人權(quán)力和社會(huì)價(jià)值的降級(jí),基于AI的創(chuàng)新也可能會(huì)受到很大的限制,很可能不小心錯(cuò)過(guò)AI改善個(gè)人生活和社會(huì)福利的機(jī)會(huì)。


因?yàn)锳I革命的意義重大,因此人類不能再犯同樣的錯(cuò)誤。解決后AI社會(huì)和價(jià)值的本質(zhì)問(wèn)題是必須的,而且要考慮設(shè)計(jì)、管理和使用等不同的方面。這也是AI4People、IEEE projects、歐盟AI戰(zhàn)略、歐盟人工智能合作宣言(EU Declaration of Cooperation on Artificial Intelligence)的共同目標(biāo)。社會(huì)、政策、商業(yè)界、學(xué)術(shù)界的共同合作可以幫助識(shí)別和找出使AI“為我所用”的力量,并解鎖其尊重人類人格的同時(shí)促進(jìn)人類繁榮的潛力。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
李彥宏在2018世界人工智能大會(huì)的演講實(shí)錄
文匯學(xué)人;論衡
“信息繭房”、隱私外泄,如何應(yīng)對(duì)人工智能帶來(lái)的倫理風(fēng)險(xiǎn)?
算法“黑箱”下AI信任存疑,可解釋性AI迎來(lái)發(fā)展“元年”
人工智能安全問(wèn)題
目前最優(yōu)的非蒸餾、可商用的開(kāi)源大模型!MIT-IBM 提出鮭魚模型!
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服