文章來源:《自然辯證法研究》2019年05期;
作者單位:閆坤如,華南理工大學(xué)馬克思主義學(xué)院;
基金項(xiàng)目:國家社科一般項(xiàng)目“現(xiàn)代技術(shù)風(fēng)險的認(rèn)識論問題研究”(18ZXB047)。
內(nèi)容摘要:人工智能機(jī)器是否具有道德以及是否構(gòu)成道德主體引發(fā)學(xué)者思考,這涉及到對于道德主體的界定、對道德主體標(biāo)準(zhǔn)的思考,更涉及到對于智能機(jī)器與人類的區(qū)別的反思,我們在對道德主體標(biāo)準(zhǔn)分析的基礎(chǔ)上,對道德嵌入的人工道德主體進(jìn)行倫理建構(gòu),在智能機(jī)器設(shè)計(jì)之初把"善"的理念嵌入到人工智能機(jī)器中,促進(jìn)與引導(dǎo)人工智能的發(fā)展。
關(guān)鍵詞:道德主體;準(zhǔn)道德主體;道德物化;分布式道德;
人工智能先驅(qū)圖靈( Alan Turing) 在論文《計(jì)算機(jī)器與智能》中提出“機(jī)器是否能夠思維?”的疑問,同時提出機(jī)器可能具有智能的特征?!耙慌_沒有肢體的機(jī)器所能執(zhí)行的命令,必須像上述例子( 做家庭作業(yè)) 那樣,具有一定的智能特征”〔1〕。強(qiáng)人工智能就是讓機(jī)器實(shí)現(xiàn)人類智能,并且機(jī)器不僅僅是實(shí)現(xiàn)人類智能的工具,機(jī)器具有人類智能,那么計(jì)算機(jī)或者機(jī)器是否能夠成為像人類一樣的道德主體呢? 這引發(fā)學(xué)者思考。我們通過學(xué)者對道德主體研究的嬗變以及對于道德主體標(biāo)準(zhǔn)的界定來分析。
一、道德主體的研究嬗變
1.道德主體從人到生命體的拓展。人工智能是否具有道德主體地位涉及到對道德主體研究的溯源。道德主體( Moral agent) 法律術(shù)語譯為“道德代理人”,指的是能夠具有主觀判斷且能夠承擔(dān)法律責(zé)任的人。道德主體指的是具有自我意識,能夠進(jìn)行道德認(rèn)知、能夠進(jìn)行推理并形成自我判斷、能夠進(jìn)行道德選擇與實(shí)施道德行為且承擔(dān)道德責(zé)任的道德行為體。從這個意義來講,只有具有理性思維能力的人類才具有道德主體地位。嬰幼兒、精神病患者等理性有限的人群雖然具有某些基本的道德能力,但不能完全對自己的行為負(fù)責(zé),不能稱其為道德主體??档? Kant) 把道德看作是理性當(dāng)事人之間的關(guān)系,因此,嬰幼兒、精神病患者以及其它動物應(yīng)排除在道德主體的范疇之外。動物倫理學(xué)家彼得·辛格( Peter Singer)反對這樣的觀點(diǎn),辛格提倡動物解放,認(rèn)為動物具有與人同樣的主體地位; 在費(fèi)因伯格( Joel Feinburg) 看來,動物與人都是生物進(jìn)化的結(jié)果,動物具有人類的意識與欲望,應(yīng)該享有人類主體一樣的生存權(quán)與自主權(quán),應(yīng)該賦予動物與人類一樣的道德主體地位。植物因?yàn)椴痪邆鋭訖C(jī)、意識、沖動等,所以植物不可能具有人類權(quán)益與道德身份。環(huán)境倫理學(xué)之父羅爾斯頓( Holmes Rolston)主張自然內(nèi)在價值的合理性,環(huán)境包括動物、植物在內(nèi)都具有道德主體地位。自然界的自然屬性中包含的一切生命體都具有道德主體地位。
2.道德主體從生命體到技術(shù)人工物的轉(zhuǎn)變。1992年,拉圖爾( Bruno Latour) 提出技術(shù)人工物可以執(zhí)行人類道德,且執(zhí)行道德規(guī)則的方式與人類相似,技術(shù)人工物可以看作道德主體。比如,人工設(shè)計(jì)的道路減速帶作為一種道德媒介執(zhí)行道德規(guī)則,對汽車駕駛員的道德行為產(chǎn)生影響,從而避免車輛超速駕駛,這樣,調(diào)節(jié)主體行為的技術(shù)人工物具有潛在的道德主體地位。2004年,維貝克( Pe-ter - paul Verbeek)提出“道德物化( materialization of morality)”的觀點(diǎn),所謂“道德物化”指的是把抽象的道德理念通過恰當(dāng)?shù)脑O(shè)計(jì),在人工物的結(jié)構(gòu)和功能中得以體現(xiàn),從而對人的行為產(chǎn)生道德意義上的引導(dǎo)和規(guī)范作用。維貝克承認(rèn)了技術(shù)人工物具有道德主體地位,人工物與人一樣成為道德主體。技術(shù)不能簡單地被看成是人與世界中介的工具,人工物在人與世界的關(guān)系中發(fā)揮著主動性作用。技術(shù)的調(diào)節(jié)具有道德維度,技術(shù)物是道德承載者。技術(shù)人工物等技術(shù)裝置也顯示出道德意蘊(yùn),應(yīng)該把客體的道德維度以及客體對主體道德的調(diào)節(jié)都納入道德范疇。阿特胡斯( Hans Achterhuis)主張“將裝置道德化”,比如,驗(yàn)票閘門規(guī)范逃票行為,人工物的行為影響人類行為主體的道德自主性,可以看作是道德主體。人工物不是道德中立的,它們可以引導(dǎo)人類的道德行為以及影響人類的道德結(jié)果,技術(shù)人工物可以通過使人類行為合乎道德來促進(jìn)或加強(qiáng)道德。例如,如果一輛汽車在駕駛員不系安全帶的情況下發(fā)出警告,它就會觸發(fā)駕駛員的“系安全帶”這一個道德行為。在這個意義上來講,技術(shù)人工物具有道德主體地位。
3.道德主體從人工物到智能人工物的轉(zhuǎn)變。機(jī)器是否具有道德主體地位涉及到機(jī)器與人的區(qū)別問題,2006年約翰遜( Deborah G.Johnson)在《計(jì)算機(jī)系統(tǒng):道德實(shí)體非道德主體》〔2〕一文中圍繞意向性展開對于道德主體的討論。意向性是人區(qū)別于機(jī)器的根本特征之一,即使機(jī)器與人具有同樣的行為,但機(jī)器不具有意向性,人具有意向性。如果智能機(jī)器不具有意向性,那么人工系統(tǒng)能否成為道德主體呢? 1978 年,斯洛曼( Aaron Sloman)在《哲學(xué)中的計(jì)算機(jī)革命———哲學(xué)、科學(xué)與心靈模式》〔3〕一書中論述了“未來機(jī)器人能夠思考和具有感知力”的可能性場景,因此,應(yīng)該把機(jī)器納入道德主體的范疇,關(guān)注機(jī)器的倫理地位。丹尼爾森( Pe-ter Denielson) 在其著作《人工道德:虛擬游戲的道德機(jī)器人》〔4〕和霍爾(Josh Storrs hall) 在其著作《超越AI:讓機(jī)器產(chǎn)生良知》〔5〕都承認(rèn)智能機(jī)器具有道德主體地位,關(guān)注設(shè)計(jì)道德機(jī)器??屏帧ぐ瑐? ColinAllen)、瓦納( Gary Varner)與澤欣爾( Jason Zinser)在文章《未來的人工道德主體原型》〔6〕引入“人工道德主體( Artificial Moral agents,簡稱 AMAs)”這個術(shù)語,直接承認(rèn)了技術(shù)人工物的道德主體地位。機(jī)器與人對比是獨(dú)立的道德主體,機(jī)器能夠自我推理與自我決策,能夠觸犯人類的利益,就如同一個人可以觸犯到另外一個人利益一樣。因此,可以把機(jī)器作為道德主體來看待。人工智能專家福斯特( Heinz von Foerster)認(rèn)為現(xiàn)有的機(jī)器人不僅僅是倫理規(guī)則的被動中轉(zhuǎn)者,還在現(xiàn)有道德生態(tài)中與其他施事者互動,應(yīng)該把智能機(jī)器作為道德主體來規(guī)范。智能機(jī)器這種高度進(jìn)化的技術(shù)人工物具有自主行為和智能信息處理能力的,可以稱為之道德智能主體。按照這種觀點(diǎn),道德主體的類別除了人類之外,還包括自主機(jī)器人和軟件主體。
縱觀學(xué)者對于道德主體的研究,經(jīng)歷了從具有自由意志的人類到生命體、然后到不具有生命體征的人工物最后到智能人工物的研究范疇的轉(zhuǎn)變過程。
二、智能機(jī)器的道德主體標(biāo)準(zhǔn)分析
按照博施特羅姆( Nick Bostrom) 和尤德科夫斯基( Eliezer Yudkowsky) 的觀點(diǎn):“制造會思考的機(jī)器的可能性可能引發(fā)一系列的倫理問題,這些問題既與確保機(jī)器不傷害人類有關(guān),也與其他道德上關(guān)聯(lián)的存在者有關(guān),也與機(jī)器本身的道德地位有關(guān)?!?〕”機(jī)器是不是具有道德主體地位,這涉及到對于道德主體標(biāo)準(zhǔn)的界定。
瓦拉赫( Wendell Wallach)與科林·艾倫在《道德機(jī)器:如何讓機(jī)器人明辨是非》〔8〕一書中專門花一章的筆墨討論機(jī)器的道德主體地位問題,他們認(rèn)為應(yīng)該對道德主體進(jìn)行不同層次的劃分,他們提出三種不同類型的道德主體:操作性道德( operational morality)、功能性道德( functional morality)與完全道德主體( full moral agency)。所謂操作性道德指的是工程師意識到自身的價值觀對于設(shè)計(jì)的影響以及他們對他人價值的敏感度。就像裝有防止兒童使用的安全設(shè)置的槍支,這種機(jī)器雖然缺乏自主性與敏感性,但在設(shè)計(jì)中包含了美國國家專業(yè)工程師學(xué)會( National Society of Professional Engineers,簡稱NSPE) 道德準(zhǔn)則以及其他的行業(yè)規(guī)范所包含的價值理念。功能性道德指的是能夠評估自身行為的道德意義的智能系統(tǒng),這種機(jī)器是具有倫理敏感性的機(jī)器。完全道德主體指的是具有自主決策系統(tǒng)及其情感交互能力的機(jī)器系統(tǒng)。
在笛卡爾看來,機(jī)器智能的想法在形而上學(xué)上是荒謬的,因?yàn)樾撵`與身體是不同的物質(zhì),機(jī)器是實(shí)物,是人類身體的延伸,在空間與時間上有廣延性,心靈則是有意識的精神原子。具有實(shí)物的機(jī)器不能具有心靈的智能特征。按照人工智能先驅(qū)鈕厄爾( Allen Newell)與西蒙( Herbert Simon)的觀點(diǎn),計(jì)算機(jī)程序是一系列的形式化符號,人工智能的符號進(jìn)路趨向于把機(jī)器學(xué)習(xí)當(dāng)成是對一套預(yù)先確定的概念重新組合的過程,除非工程師有意去設(shè)計(jì)系統(tǒng),否則,計(jì)算機(jī)智能就是建立在一個沒有欲望、動機(jī)與目標(biāo)的邏輯平臺上,不可能具有操作性道德和功能性道德,更不可能具有完全的道德主體地位,這種觀點(diǎn)遭到機(jī)器倫理學(xué)家的反對。例如,阿薩羅( Peter Asaro) 在智能機(jī)器倫理中提到三點(diǎn):“首先,如何設(shè)計(jì)機(jī)器人的行為倫理;其次,人類如何在人工智能倫理中承擔(dān)責(zé)任;再次,從理論上講,機(jī)器人能成為完全的道德主體嗎?”〔9〕阿薩羅的第三點(diǎn)涉及到對于機(jī)器的道德主體地位的思考。如果技術(shù)人工物想成為道德主體,需要滿足以下兩個條件:首先,技術(shù)人工物必須具有道德身份;第二,技術(shù)人工物具有道德判斷,具有道德選擇、行為以及承擔(dān)責(zé)任的能力。按照阿薩羅的觀點(diǎn),理性人具有道德主體地位,人工物只是具有道德調(diào)節(jié)作用,還不具有完全的道德主體地位。泰勒( Paul Tailor)認(rèn)為道德主體的必備條件要滿足以下五點(diǎn):“第一,判斷道德上正確或錯誤的能力;第二,權(quán)衡贊成和反對某些選擇的道德理據(jù)的能力;第三,依據(jù)這種權(quán)衡的結(jié)果做出決定的能力;第四,擁有實(shí)現(xiàn)這些決定所需的意志和能力;第五,為自己那些未能履行義務(wù)的行為做出解釋的能力等等。”〔10〕按照泰勒對于道德主體的界定,機(jī)器不具有道德主體地位。塞爾( John Searle)設(shè)計(jì)著名的“中文屋( Chinese Room)”思想實(shí)驗(yàn),顯示計(jì)算機(jī)可以在沒有理解與智能的情況下通過“圖靈測試”。荷蘭特溫特理工大學(xué)的布瑞( Philip Brey)提出“準(zhǔn)道德主體( quasi - moral a-gents)”概念,他認(rèn)為智能機(jī)器是準(zhǔn)道德主體,作為道德主體應(yīng)該符合以下三個特征:“有能力根據(jù)對與錯進(jìn)行推理、判斷和行動的生物;對自己的行為應(yīng)當(dāng)遵守道德規(guī)范;對自己的行為負(fù)責(zé),對自己的后果負(fù)責(zé)?!薄?1〕這三個特征共同構(gòu)成了道德主體的界定標(biāo)準(zhǔn)。只有理性的人才有能力進(jìn)行道德推理,只有理性的人才有道德行為,只有理性的人才有道德責(zé)任感。不能分辨是非的成年人通常不被認(rèn)為具有道德主體能力,智能機(jī)器可能具有道德決策能力,但大多數(shù)智能主體不具備道德思考的能力,因此,智能機(jī)器只能算“準(zhǔn)道德主體”,不具有完全道德主體地位。塞拉斯( John Sullins)提出人工道德主體的必要條件是機(jī)器具有自主性、意向性與責(zé)任。如果機(jī)器具有人類一樣的自主性、意向性,并且能夠像人類一樣承擔(dān)責(zé)任,就具有道德主體地位。
從上述道德主體的界定標(biāo)準(zhǔn)來看,只有具有理性思維決策能力、能夠獨(dú)立的承擔(dān)責(zé)任的理性主體才具有道德主體地位,而現(xiàn)在人工智能的發(fā)展只處于弱人工智能階段,人類還不能設(shè)計(jì)出具有人類情感、具有獨(dú)立意識、選擇自由以及能夠獨(dú)立承擔(dān)責(zé)任的機(jī)器。所以,機(jī)器不具有道德主體地位。這種思路是以人是唯一道德主體的思路來分析的,但目前學(xué)者對于道德主體的研究已經(jīng)從人類拓展到動物甚至是技術(shù)人工物,對于道德主體應(yīng)該具有新的界定與發(fā)展。
弗洛里迪( Luciano Floridi)與桑德斯( Sanders)直接承認(rèn)智能機(jī)器的道德主體地位,進(jìn)一步給出了人工道德主體的標(biāo)準(zhǔn)。按照弗洛里迪與桑德斯的觀點(diǎn)人工道德主體應(yīng)該具有交互性( interactivity)、自主性( autonomy)與適應(yīng)性( adaptability)的特征。弗洛里迪與桑德斯提出對于所有X,X是一個道德主體,當(dāng)且僅當(dāng)X具有以下內(nèi)容屬性:“第一,X及其環(huán)境能夠相互作用(交互性)屬性;第二,X能夠在沒有與外部世界交互的刺激的情況下改變其狀態(tài)(自主性);第三X能夠改變其轉(zhuǎn)換規(guī)則(屬性)‘適應(yīng)性’;第四,X能夠起作用,例如道德上對世界的重大影響?!薄?2〕機(jī)器如果在沒有刺激的情況下具有改變狀態(tài)的能力、具有改變“轉(zhuǎn)換規(guī)則”的能力,就可能具有道德主體地位。按照這種說法,強(qiáng)人工智能機(jī)器符合這些條件,因此可以稱之為人工道德主體。弗洛里迪與桑德斯認(rèn)為道德主體的概念并不一定表現(xiàn)出人類主體的自由意志、精神狀態(tài)或責(zé)任,機(jī)器可能具有道德主體地位。
通過以上分析,關(guān)于道德主體的標(biāo)準(zhǔn)是不一致的,關(guān)于機(jī)器是否具有道德主體地位也有不同意見,考慮到機(jī)器具有自主學(xué)習(xí)能力、可能具有自我意識、自由意志、人類情感與人類智能,因此,必須在智能機(jī)器的設(shè)計(jì)之初嵌入道德,設(shè)計(jì)者不能袖手旁觀,應(yīng)該關(guān)注機(jī)器的道德模型的構(gòu)建,“賦予機(jī)器人倫理原則或者促進(jìn)機(jī)器人解決可能預(yù)見的倫理困境,在機(jī)器人自主做決定的時候,提高他們的道德考量比重?!薄?3〕
三、人工道德主體模型的構(gòu)建
瓦拉赫與艾倫提出“道德圖靈測試”,關(guān)注機(jī)器設(shè)計(jì)中的道德嵌入,他們提出“道德圖靈測試”的兩種進(jìn)路,即“自上而下進(jìn)路( top - down approach) ”與“自下而上進(jìn)路( bottom - up approach) ”,所謂自上而下進(jìn)路就是把德性論( virtue theory)、義務(wù)論(deontological theory)、功利主義( utilitarian theory)、正義論( justice as fairness theory)等倫理學(xué)理論的倫理標(biāo)準(zhǔn)、規(guī)范與原則嵌入到人工智能體的設(shè)計(jì)中,在此基礎(chǔ)上,構(gòu)建人工道德主體模型。阿西莫夫三定律是“自上而下”道德主體模型的模板,“任何討論‘自上而下’式的機(jī)器人道德設(shè)計(jì)不能不談阿西莫夫三定律?!薄?4〕“自下而上進(jìn)路”立足于創(chuàng)造一種環(huán)境能夠讓智能機(jī)器摸索自我判斷的行為模式,比如,像“電車難題”思想實(shí)驗(yàn)就是根據(jù)不同的情境做出不同的道德選擇?!白韵露线M(jìn)路”與“自上而下進(jìn)路”的道德主體模型構(gòu)建都堅(jiān)持道德上“善”的行為標(biāo)準(zhǔn),不同之處在于“自上而下進(jìn)路”關(guān)注普遍性倫理學(xué)理論基礎(chǔ)上的道德構(gòu)建,而“自下而上進(jìn)路”獲得道德的方法是把規(guī)范化的價值當(dāng)作機(jī)器隱含的內(nèi)容。
弗洛里迪與桑德斯在承認(rèn)機(jī)器的道德主體地位的基礎(chǔ)上,提出人工道德主體構(gòu)建的前提是區(qū)分道德問題與責(zé)任問題。人類能夠避免“責(zé)任+道德行為=規(guī)定行為”和“沒有責(zé)任就沒有道德行為,所以就沒有規(guī)定行為”的二分法。沒有責(zé)任,只有道德行動的能力也是道德主體,環(huán)境與動物也可以具有道德主體地位,智能機(jī)器聰明、自主、能夠獨(dú)立于人類之外執(zhí)行與道德相關(guān)的行為,因此存在“善的人工智能”與“惡的人工智能”的區(qū)別。所以道德主體構(gòu)建要區(qū)分人類、智能機(jī)器、動物以及環(huán)境,這種道德主體的構(gòu)建方式稱之為人工智能的“分布式道德( distributed morality)”。
美國計(jì)算機(jī)學(xué)家邁克爾·安德森( Michael An-derson)、哲學(xué)家蘇珊·安德森(Susan Anderson)夫婦與克里斯·阿爾曼(Chris Arman)從經(jīng)典倫理學(xué)理論提出道德主體構(gòu)建模型,他們認(rèn)為機(jī)器倫理不同于計(jì)算機(jī)倫理,機(jī)器倫理關(guān)注的是機(jī)器對人類用戶及其他機(jī)器的行為,因此,必須為機(jī)器添加道德維度,為了給機(jī)器增加道德維度,需要可操作的道德理論與道德原則,在此基礎(chǔ)上,他們給出兩個道德主體模型:基于邊沁(Bentham)的功利主義的倫理主體模型和基于羅斯(Ross)義務(wù)論直覺主義倫理學(xué)的倫理主體模型。行為功利主義道德主體模型基于邊沁的道德算術(shù)構(gòu)建比人類規(guī)范的模型,把倫理原則編程為算術(shù),讓機(jī)器像人一樣遵循行為功利主義理論。直覺主義者羅斯?jié)M足于將決策權(quán)交給決策者的直覺,但羅斯的理論強(qiáng)調(diào)表面責(zé)任,他認(rèn)為沒有義務(wù)是絕對的,也沒有給出義務(wù)的明確等級,因此,在羅斯的理論下,如何做出道德決策是不清楚的。安德森夫婦與阿爾曼立足于為機(jī)器倫理奠定理論基礎(chǔ),他們基于行動的道德理論開發(fā)計(jì)算機(jī)系統(tǒng),他們結(jié)合行為功利主義與義務(wù)論直覺主義的理論構(gòu)建機(jī)器學(xué)習(xí)決策程序,他們的計(jì)算機(jī)模型克服了羅斯模型的不確定性,使用一種學(xué)習(xí)算法來調(diào)整對責(zé)任的判斷,既考慮了表面責(zé)任,也考慮了過去對涉及這些責(zé)任的類似或不相似案例的直覺。
為了構(gòu)建人工智能的道德主體模型,哲學(xué)家與倫理學(xué)家積極嘗試,致力于在機(jī)器中嵌入人類“善”的道德。不同于悲觀主義者認(rèn)為人工智能將不可避免地制造出擁有巨大力量、行為不道德的機(jī)器人的觀點(diǎn)。樂觀主義者堅(jiān)持用倫理學(xué)方法來排除惡意機(jī)器人的產(chǎn)生以及發(fā)揮作用。例如,鮑爾斯( Thomas Powers)在《康德機(jī)器的前景》〔15〕中意欲制造出康德式機(jī)器( Kantian machine)確保機(jī)器人行為符合道德規(guī)范;阿寇達(dá)斯( Konstantine Arkoudas)和布林斯喬德( Selmer Bringsjord)在《機(jī)械化道義邏輯向倫理機(jī)器人邁進(jìn)〔16〕中論證了道義邏輯應(yīng)用于制造道德機(jī)器的可能性;格勞( Christopher Grau)在論文《“機(jī)器人”中沒有“我”:機(jī)器人功利主義者和功利主義機(jī)器人》〔17〕中討論了功利主義模式下的機(jī)器人,格勞運(yùn)用邏輯學(xué)理論或者倫理學(xué)理論在人工智能的設(shè)計(jì)之初嵌入人類道德。“理性機(jī)器嵌入了道德元素,如程序規(guī)則的行為,可能構(gòu)成人工道德主體所需的理性?!薄?8〕智能機(jī)器設(shè)計(jì)者應(yīng)該在設(shè)計(jì)之初保持設(shè)計(jì)理性,對所設(shè)計(jì)的智能機(jī)器可能存在的倫理問題提前預(yù)判與評估,雖然有的學(xué)者反對智能機(jī)器具有意向性或者具有道德主體地位但均未否認(rèn)技術(shù)物具有道德調(diào)節(jié)作用,也不否認(rèn)技術(shù)可以通過設(shè)計(jì)改變?nèi)祟惖牡赖滦袨椤?/span>
總之,智能機(jī)器具有不確定性,不管智能機(jī)器是否具有人類的道德主體地位,都應(yīng)該對人工智能可能帶來的危害做出防范,人類在智能機(jī)器設(shè)計(jì)之初把“善”的理念嵌入到人工智能中,使得人工智能操作系統(tǒng)不僅要遵守法律,還要遵守社會的道德規(guī)范,減少智能機(jī)器危害人類的可能性,發(fā)揮其對人類進(jìn)步以及社會發(fā)展的作用。