新冠疫情擾亂了世界各地的生活,人類對(duì)自身的生存風(fēng)險(xiǎn)充滿擔(dān)憂。今天,我們該如何正確認(rèn)識(shí)人類面對(duì)的種種危機(jī)?近日,麻省理工學(xué)院經(jīng)濟(jì)學(xué)教授達(dá)隆·阿齊默魯(Daron Acemoglu)在《評(píng)論匯編》刊發(fā)文章《擔(dān)憂的正確方式》(The Right Way to Worry)討論了牛津大學(xué)高級(jí)研究員托比·奧爾德(Toby Ord)2020年的新書《懸崖:生存危機(jī)和人類的未來》,阿齊默魯認(rèn)為簡單地承認(rèn)人類面臨的生存威脅只是認(rèn)識(shí)過程的開始,真正的挑戰(zhàn)在于如何理性區(qū)分這些危機(jī)的輕重緩急。
原文 :《如何理性認(rèn)識(shí)人類面臨的危機(jī)》
編譯 | 李彥文
圖片 | 網(wǎng)絡(luò)
6500萬年前,一顆小行星撞擊了現(xiàn)在的墨西哥??颂K魯伯鎮(zhèn),恐龍的時(shí)代結(jié)束了。盡管這塊隕石不是特別大,直徑約10公里,但它撞擊地球的速度超過每小時(shí)6萬公里,產(chǎn)生的爆炸威力是落在廣島原子彈的數(shù)十億倍,殺死了1000公里內(nèi)的所有生命。更不幸的是,這次爆炸將一團(tuán)巨大的煙塵和灰燼送入更高的大氣層,在接下來的幾年里擋住了太陽,阻止了光合作用并導(dǎo)致溫度急劇下降,科學(xué)家們認(rèn)為正是這種大氣塵埃和硫酸鹽氣溶膠最終殺死了恐龍和許多其他物種。
如果今天有一顆類似的小行星或彗星撞擊地球,那將引發(fā)另一場大規(guī)模滅絕事件,摧毀我們所知的大多數(shù)物種和人類文明。這種可能性看似遙遠(yuǎn),卻是人類生存危機(jī)在大自然中的一種體現(xiàn),即非人類導(dǎo)致的物種滅絕或接近滅絕。但同時(shí)我們也必須注意到人為的生存危機(jī)。牛津大學(xué)高級(jí)研究員、哲學(xué)家托比·奧爾德(Toby Ord)在2020年出版了新書《懸崖:生存危機(jī)與人類的未來》(The Precipice: Existential Risk and the Future of Humanity),振聾發(fā)聵地指出,現(xiàn)在和未來的世紀(jì)我們最應(yīng)該關(guān)注的正是這類風(fēng)險(xiǎn)和危機(jī)。
生存危機(jī):技術(shù)警醒和樂觀愿景
奧爾德認(rèn)識(shí)到科學(xué)和技術(shù)是人類解決問題和實(shí)現(xiàn)繁榮的最有力工具,但他提醒我們,這種能力總是伴隨著危險(xiǎn),特別是當(dāng)置于壞人之手或在不考慮長期和意外后果情況下使用時(shí)。更重要的是,奧爾德認(rèn)為,人為的生存風(fēng)險(xiǎn)已經(jīng)高得令人震驚,因?yàn)槲覀円呀?jīng)開發(fā)出能夠摧毀人類的工具,卻沒有相匹配的智慧來識(shí)別我們所處的危險(xiǎn)。他指出,20世紀(jì)著名的天文學(xué)家卡爾·薩根(Carl Sagan)在他1994年的著作《暗淡藍(lán)點(diǎn)》(Pale Blue Dot)中發(fā)出了類似的警告:“我們面臨的許多危險(xiǎn)確實(shí)來自科學(xué)和技術(shù),但更根本的是因?yàn)槲覀冏兊脧?qiáng)大但沒有變得同等睿智。技術(shù)賦予我們改變世界的力量,而現(xiàn)在這種力量需要反思和前瞻,這是我們以前從未考慮過的?!?/p>
對(duì)于奧爾德來說,這種力量與智慧之間的鴻溝可以決定人類的未來。一方面,人類可能完全消失,或者遭受疫苗、抗生素、文學(xué)、藝術(shù)等主要人類文明特征的毀滅。但是,另一方面,奧爾德看到了人類在宇宙范圍內(nèi)長期繁榮的潛力:憑借智慧和技術(shù)獨(dú)創(chuàng)性,人類很可能比這個(gè)星球存活得更久,并在太空中創(chuàng)建新的文明?;谶@種推理,奧爾德的哲學(xué)立場采用了類似笛卡爾乘積的完全排列組合,得出的結(jié)論是,人類首要擔(dān)憂的應(yīng)該是盡量減少生存風(fēng)險(xiǎn),無論付出什么代價(jià),都要規(guī)避未來的人類生存危機(jī)。無論其他標(biāo)準(zhǔn)和因素如何,只要人類能夠?qū)崿F(xiàn)未來生存風(fēng)險(xiǎn)最小化,就勝過任何沒有風(fēng)險(xiǎn)最小化的未來。在建立了這個(gè)基本的優(yōu)先選項(xiàng)之后,奧爾德接著對(duì)不同類型的人為生存風(fēng)險(xiǎn)進(jìn)行了分析,得出的結(jié)論是,最大的威脅因素來自已經(jīng)超出我們控制范圍的人工超級(jí)智能。
技術(shù)濫用:缺席的規(guī)范與智慧
科學(xué)驅(qū)動(dòng)的人類生存風(fēng)險(xiǎn)至少可以追溯到核反應(yīng)產(chǎn)生的核武器。但人類社會(huì)的智慧自這一致命性的創(chuàng)造產(chǎn)生以來并沒有進(jìn)步,早期對(duì)廣島和長崎的轟炸已是人類對(duì)此危機(jī)認(rèn)知的頂峰。奧爾德的說法很可能是對(duì)的。雖然我們已經(jīng)建立了一些制度、規(guī)范、監(jiān)管工具和其他內(nèi)化機(jī)制來確保我們不會(huì)濫用科學(xué),但誰也不敢說這些就足夠了。奧爾德認(rèn)為,今天不完善的制度框架可以只是一種暫時(shí)現(xiàn)象,只要人類能在下個(gè)世紀(jì)左右存活下來,就可以在適當(dāng)?shù)臅r(shí)候解決這些問題。他寫道:“因?yàn)槲覀冋幱谌祟愇锓N歷史的關(guān)鍵時(shí)刻”,奧爾德“渴望縮小人類智慧和力量的差距,讓人類清楚地看到利害關(guān)系,以便我們做出必要的選擇,來保護(hù)我們的未來。”
但到目前為止,我們還沒有看到任何證據(jù)表明奧爾德的愿景確實(shí)可行,也沒有任何跡象表明我們的社會(huì)和領(lǐng)導(dǎo)人在控制技術(shù)破壞力方面表現(xiàn)出任何智慧。誠然,人們可以根據(jù)德國社會(huì)學(xué)家諾貝特·埃利亞斯(Norbert Elias)著名的“文明過程論”來論證奧爾德的樂觀期待。根據(jù)埃利亞斯的說法,自中世紀(jì)以來,隨著經(jīng)濟(jì)的發(fā)展和國家機(jī)構(gòu)的出現(xiàn),解決沖突和控制暴力的手段增強(qiáng)了,在公共生活中人們越來越多地采用有利于大眾社會(huì)共存的行為方式。埃利亞斯用放大鏡辨別出發(fā)達(dá)經(jīng)濟(jì)體的公民變得不那么暴力和更加寬容,這一點(diǎn)由于哈佛大學(xué)認(rèn)知心理學(xué)家和語言學(xué)家史蒂芬·平克(Steven Pinker)的最新的暢銷書《人性中的善良天使:史上暴力的衰落及其原因》(The Better Angels of Our Nature: The Decline of Violence in History and Its Causes)而變得更廣為人知。
姑且不論埃利亞斯的論斷只適用于一些細(xì)分案例,即使這樣的文明進(jìn)程更廣泛地影響了個(gè)人行為規(guī)范和社會(huì)交往模式,似乎也沒有影響到眾多政治領(lǐng)導(dǎo)人、科學(xué)家和技術(shù)人員。20世紀(jì)上半葉,諾貝爾化學(xué)獎(jiǎng)得主弗里茨·哈伯(Fritz Haber)孜孜不倦地利用他的科學(xué)知識(shí)發(fā)明了化學(xué)武器,并在第一次世界大戰(zhàn)中向德國軍隊(duì)大肆兜售。在二戰(zhàn)后熱切接受核武器的政治領(lǐng)導(dǎo)人也沒表現(xiàn)出受文明進(jìn)程影響的有力佐證。有人可能會(huì)說,過去 75 年來人類沒有重演一戰(zhàn)或二戰(zhàn)悲劇,這就是希望。但他們忽視了這期間許多未遂危機(jī)事件,如奧爾德書中開篇章節(jié)提到的1962年古巴導(dǎo)彈危機(jī)。我們可以找出更多與人類變得更加“文明”相矛盾的例子,更不用說人類是否能夠更好地控制人為風(fēng)險(xiǎn)或培養(yǎng)集體智慧了。人類必須承認(rèn),控制自身不良行為、適應(yīng)科學(xué)發(fā)現(xiàn)和技術(shù)創(chuàng)新帶來的不斷變化仍將是一場持續(xù)的斗爭。
當(dāng)下問題:失業(yè)危機(jī)與社會(huì)操控
從這個(gè)層面思考,奧爾德的論點(diǎn)是有問題的。為什么要把努力消除未來的人類生存危機(jī)作為重中之重?眼下人類的選擇已經(jīng)正在引發(fā)當(dāng)下和近期各種弊病和苦難,為什么要將未來風(fēng)險(xiǎn)置于當(dāng)前行為之上?這就好比說,假設(shè)在未來幾世紀(jì)內(nèi),人類通過奴役大多數(shù)人可以顯著降低自身滅絕的可能性,那么我們將必須選擇這個(gè)選項(xiàng),因?yàn)樗畲笙薅鹊販p少了人類生存危機(jī)。
奧爾德關(guān)注的主要生存危機(jī)是:人工智能存在被濫用的可能。他委婉地將所認(rèn)定的邪惡的超級(jí)智能稱為“不規(guī)矩的人工智能”,認(rèn)為在未來100年內(nèi)人類有10%的機(jī)會(huì)成為此邪惡物的犧牲品。相比之下,他估算氣候變化對(duì)人類造成的生存風(fēng)險(xiǎn)為千分之一,小行星或彗星撞地球的風(fēng)險(xiǎn)則為百萬分之一。確實(shí)有許多專家和奧爾德一樣對(duì)人工智能的長期后果表示擔(dān)憂,這種擔(dān)憂在眾多技術(shù)精英中很普遍。但奧爾德忽略了大多數(shù)與人工智能相關(guān)的非生存風(fēng)險(xiǎn)。如果人類承認(rèn)自身認(rèn)知范圍的有限性,那么這種對(duì)優(yōu)先級(jí)的權(quán)衡是有問題的,超級(jí)智能很快出現(xiàn)的可能性很低,邪惡的超級(jí)智能摧毀文明的風(fēng)險(xiǎn)更低。大眾憂慮的焦點(diǎn)應(yīng)該是人工智能對(duì)人類已經(jīng)造成的問題,而不是關(guān)注謎之未來。
當(dāng)前人工智能的設(shè)計(jì)和發(fā)展路徑已經(jīng)將人類引入歧途,導(dǎo)致了一系列并不引人注意但卻迫在眉睫的問題。人工智能發(fā)展的軌道并沒有展示出技術(shù)發(fā)展的內(nèi)在邏輯,而是反映了大型科技公司做出并強(qiáng)加給人類的選擇,特別是這些公司內(nèi)部的一小撮高管、科學(xué)家和技術(shù)人員。人工智能引發(fā)的最突出問題就是不斷的自動(dòng)化正在取代工人的勞動(dòng),這加劇了人口的不平等,并加大了未來大量勞動(dòng)力失業(yè)的可能性。更糟糕的是,對(duì)自動(dòng)化的癡迷是以生產(chǎn)力發(fā)展為代價(jià)的,因?yàn)檫@讓高管和科學(xué)家為追求自動(dòng)化而自動(dòng)化,從而忽視了有些創(chuàng)新技術(shù)可以更富有成效地用于人類勞動(dòng)的補(bǔ)充。我們更需要正視的是,新的人工智能技術(shù)賦予政府和公司監(jiān)控和操縱數(shù)十億人行為的能力,卻并沒有激發(fā)人類道德進(jìn)步的希望。
文章為社會(huì)科學(xué)報(bào)“思想工坊”融媒體原創(chuàng)出品,原載于社會(huì)科學(xué)報(bào)第1767期第7版
聯(lián)系客服