你會相信,人類離滅亡最近的時刻,是下一個百年嗎?信不信由你,至少霍金信了。
在 BBC 近期的采訪中,史蒂芬·霍金警告道:由于科學(xué)和技術(shù)的快速發(fā)展,在未來的一百年里,人類將時刻處在自我毀滅的危險之中。
作為著名物理學(xué)家霍金認為,迅猛發(fā)展的科技在為我們帶來各種福利的同時,也創(chuàng)造了“新的出問題的方式”,這帶來的高風(fēng)險是人類很難控制的。他尤其強調(diào)核戰(zhàn)爭、全球氣候變暖和基因工程病毒的危險性,表示這三者很可能就是我們自創(chuàng)末日的預(yù)兆。
這并非是霍金第一次提到世界末日。早在 2014 年,霍金就曾提醒我們注意人工智能的威脅。他認為一旦人工智能跨過了與人類智慧相同的“奇點”( Singular Point ),我們可能會面臨“智慧爆炸”(intelligence explosion),屆時,人工智能在智慧上超越我們,而且將比人類超過蝸牛的程度還大。這對人類產(chǎn)生的影響,要么就是最好的,要么就是最糟糕的。它既可能讓人類永生,也可能讓人類毀滅。
不過,霍金還在采訪中表示,他是一個徹底的樂觀主義者。他相信人類終有辦法克服面臨的問題。對此霍金給出的建議是:殖民火星。他覺得這個方法可以保證在最壞的情況降臨時,還能有一部分人類在其他星球的“避風(fēng)港”中繼續(xù)生存下去。
但是,在接下來的一個世紀,這恐怕很難成為現(xiàn)實。而霍金認為,盡管現(xiàn)在發(fā)生全球性災(zāi)難的幾率很低,但它會隨著時間的推移增加,并在接下來的一千年到一萬年之間變成 100%。而人類正在沒有安全網(wǎng)的情況下飛速地前進著,這讓下個世紀變成了“最危險的 100年”。所以霍金說:“未來的 100 年生死攸關(guān),所以我們必須非常小心?!?/p>
題圖來自:Flickr@Lwp Kommunikáció