史蒂芬·霍金又來了,說在接下來的幾千年里,人類必將觸發(fā)毀滅自己的災(zāi)難。這并不是這位世界知名的物理學(xué)家第一次宣傳“人類離世界末日不遠(yuǎn)”。讓我們來看看霍金以前說過什么,以及他為何應(yīng)該改變言論。
在參與BBC的瑞思系列演講(Reith Lecture)演講之前,霍金接受采訪,聲稱科學(xué)與技術(shù)的發(fā)展創(chuàng)造了“新的出事的方式”。這位科學(xué)家將矛頭指向了核戰(zhàn)爭、全球變暖、基因改造病毒等威脅:
聽起來似乎有那么一點問題。是的,他自稱他相信人類能夠找出新的防范危險的辦法。但在提出這些我們未來可能遇到的不詳?shù)?、可怕的事情時,他顯得很輕松。指出這些風(fēng)險并沒有錯——但他并沒有給出詳細(xì)和透明的應(yīng)對方式,似乎想給我們帶來一切在劫難逃的感覺。
他在10年前就開始對人類做出警告。在2006年,他在網(wǎng)上公開發(fā)問:
一石激起千層浪,超過25000位網(wǎng)友發(fā)表了自己的看法。許多人對如此聰明的霍金都無法回答自己提出的問題感到十分遺憾?;艚鸷髞韺懙??!拔也恢来鸢?,所以我提出這個問題?!?/p>
接下去的2007年,他在香港的一個記者招待會上告訴聽眾:“我們正處在日益嚴(yán)峻的危險之中,突然爆發(fā)的核戰(zhàn)爭、基因被改造過的病毒、或是其它尚未遇見的危險都能將生命從地球上抹去。”
霍金也對人工智能感到十分擔(dān)憂。他說過AI可能成為“人類歷史上最大的錯誤”[1]。2014年
霍金與物理學(xué)家Max Tegmark和Frank Wilczek一起,宣稱:
去年,霍金曾號召人類對AI進(jìn)行監(jiān)管[2],并聯(lián)名簽發(fā)了公開信[3], 提出要嚴(yán)格禁止開發(fā)“不完全受人類控制的攻擊性自主化武器”。
不是所有的威脅都來源于自家。除了小行星和彗星[4],霍金還講過我們需要為外星人的侵略感到擔(dān)憂[5]。在2010年 《Sunday Times》的采訪和2015年《El País》的采訪中,霍金將這段話各說了一遍[6]:
在這些語錄中,霍金很明顯地對人類持著沮喪的態(tài)度。在傳記《Stephen Hawking: His Life and Work》中,他表示電腦病毒應(yīng)被認(rèn)作一種生命形式:“人類只創(chuàng)造過這么一種生命形式,而它所做的一切就是在進(jìn)行摧毀。這或許揭示了人類的本性,因為人類照著自己的形象創(chuàng)造了它?!?/p>
照霍金那么說的,我們要早點離開這艘即將沉默的船。他多次強調(diào),為了保障自己的未來,我們需要離開這顆行星,開始殖民其它的世界?!?a target="_blank" >如果不邁進(jìn)太空,我們就沒有未來。”
確實,霍金是當(dāng)今世界最著名的科學(xué)家,他的任何言論都會得到各國媒體的特殊待遇。他的想法也不是“無中生有”(或“黑洞中生有”)。在過去15年里,越來越多的歐洲科學(xué)家們開始關(guān)注所謂的“生存風(fēng)險”(existential risks)。曾經(jīng)是危言聳聽的言論,如今正在滲透進(jìn)教育機構(gòu)和學(xué)術(shù)界。
牛津大學(xué)的哲學(xué)家Nick Bostrom在2002年發(fā)表了極具影響力的論文《生存的風(fēng)險:分析人類滅絕的情景》(Existential Risks: Analyzing Human Extinction Scenarios),激起了此類研究的熱度。Bostrom認(rèn)為科技進(jìn)步的加速將人類推向了一個新的時期,其中的危險或許無法避免。不斷涌現(xiàn)的新的威脅將讓地球文明無法向宇宙?zhèn)鞑ァ?/p>
馬丁·里斯爵士的TED Talk: 我們能阻止世界末日嗎?
德高望重的皇家天體物理學(xué)家馬丁·里斯爵士(Sir Martin Rees)于2003年出版的 《我們最后的時光》(Our Final Hour),以及2008年Nick Bostrom和Milan M. Cirkovic共同編著的《全球災(zāi)難風(fēng)險》(Global Catastrophic Risks)都是對這個題材影響深遠(yuǎn)的書籍。
研究這方面問題的哲學(xué)家,科學(xué)家和未來學(xué)家們,則集中在英國的牛津未來人類學(xué)院(Future of Humanity Institute)和劍橋生存風(fēng)險研究中心(Centre for the Study of Existential Risk)。并未得到其他國家的重視。在美國也僅有倫理學(xué)和最新技術(shù)研究所(Institute for Ethics and Emerging Technologies)在進(jìn)行關(guān)注。
霍金不是一個人在戰(zhàn)斗,但他所處的地位如此之高,以至于他對未來的警告會對我們大家都產(chǎn)生影響。問題在于,我們讓這位德隆望尊的人物持續(xù)地在不提供解決方案的情況下,發(fā)表這些沉重的聲明。這樣下去,他最終留下的將會是一個失敗主義者,甚至是厭惡人類者的姿態(tài)。
當(dāng)然,在趁還來得及的時候把話說出來是必要的。但霍金不應(yīng)該只停留在宣揚壞消息的地步上。從今往后,讓我們希望他能動用他的大腦,講出一些積極有用的東西。
相關(guān)鏈接:
[1]煎蛋,2014:《霍金:上帝粒子會葬送地球乃至整個宇宙》
[2]煎蛋,2015:《霍金:人工智能百年內(nèi)超過人類》
[3]煎蛋,2015:《霍金等學(xué)者呼吁警惕人工智能軍備競賽》
[4]煎蛋,2010:《霍金再次預(yù)測地球滅亡》
[5]煎蛋,2010:《霍金說:外星人存在且具危險》
[6]煎蛋,2015:《面對外星人,霍金也拿不定主意》