国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
霍金:煩人簡史
zzjeff @ 2016.01.20 , 11:10


(Jim Cooke / AP)

史蒂芬·霍金又來了,說在接下來的幾千年里,人類必將觸發(fā)毀滅自己的災(zāi)難。這并不是這位世界知名的物理學(xué)家第一次宣傳“人類離世界末日不遠(yuǎn)”。讓我們來看看霍金以前說過什么,以及他為何應(yīng)該改變言論。

在參與BBC的瑞思系列演講(Reith Lecture)演講之前,霍金接受采訪,聲稱科學(xué)與技術(shù)的發(fā)展創(chuàng)造了“新的出事的方式”。這位科學(xué)家將矛頭指向了核戰(zhàn)爭、全球變暖、基因改造病毒等威脅

盡管地球在某一年內(nèi)遭受滅頂之災(zāi)的可能性很低,但可能性將在未來幾千或幾萬年不斷堆積,災(zāi)難或無法避免。那時,我們應(yīng)該已經(jīng)進(jìn)入太空、住到其他星球上。所以人類還不會終結(jié)。但我們無法在接下來的幾百年內(nèi)建立起可持續(xù)運作的太空,所以我們現(xiàn)在還必須十分小心。

聽起來似乎有那么一點問題。是的,他自稱他相信人類能夠找出新的防范危險的辦法。但在提出這些我們未來可能遇到的不詳?shù)?、可怕的事情時,他顯得很輕松。指出這些風(fēng)險并沒有錯——但他并沒有給出詳細(xì)和透明的應(yīng)對方式,似乎想給我們帶來一切在劫難逃的感覺。


(Lwp Kommunikáció / Flickr)

他在10年前就開始對人類做出警告。在2006年,他在網(wǎng)上公開發(fā)問

在一個政治、社會、環(huán)境都很混亂的世界,人類如何走過下一個100年?

一石激起千層浪,超過25000位網(wǎng)友發(fā)表了自己的看法。許多人對如此聰明的霍金都無法回答自己提出的問題感到十分遺憾?;艚鸷髞韺懙??!拔也恢来鸢?,所以我提出這個問題?!?/p>

接下去的2007年,他在香港的一個記者招待會上告訴聽眾:“我們正處在日益嚴(yán)峻的危險之中,突然爆發(fā)的核戰(zhàn)爭、基因被改造過的病毒、或是其它尚未遇見的危險都能將生命從地球上抹去。”

霍金也對人工智能感到十分擔(dān)憂。他說過AI可能成為“人類歷史上最大的錯誤[1]。2014年
霍金與物理學(xué)家Max Tegmark和Frank Wilczek一起,宣稱

“人工智能可以比金融市場更懂得經(jīng)濟(jì),比人類研究者發(fā)明更多東西,比人類領(lǐng)導(dǎo)人更懂得操縱,還能開發(fā)我們所不能理解的武器。人工智能的短期影響取決于由誰來控制它,而長期影響則取決于它是否能夠被控制?!?/h4>

去年,霍金曾號召人類對AI進(jìn)行監(jiān)管[2],并聯(lián)名簽發(fā)了公開信[3], 提出要嚴(yán)格禁止開發(fā)“不完全受人類控制的攻擊性自主化武器”。


(Age of Ultron (2015))

不是所有的威脅都來源于自家。除了小行星和彗星[4],霍金還講過我們需要為外星人的侵略感到擔(dān)憂[5]。在2010年 《Sunday Times》的采訪和2015年《El País》的采訪中,霍金將這段話各說了一遍[6]

看看自己,我們就能知道智慧生命會發(fā)展到多么恐怖的地步。在我的想象里,他們居住在巨大的飛船里,消耗光了自己星球上所有的資源。那些先進(jìn)的外星人很有可能變成游牧者,到處征服和殖民任何可疑觸及的行星……如果外星人造訪地球,那么結(jié)果可能像哥倫布登陸美洲大陸一樣——對于美洲原住民而言可不是一件好事。

在這些語錄中,霍金很明顯地對人類持著沮喪的態(tài)度。在傳記《Stephen Hawking: His Life and Work》中,他表示電腦病毒應(yīng)被認(rèn)作一種生命形式:“人類只創(chuàng)造過這么一種生命形式,而它所做的一切就是在進(jìn)行摧毀。這或許揭示了人類的本性,因為人類照著自己的形象創(chuàng)造了它?!?/p>


(Independence Day (1996))

照霍金那么說的,我們要早點離開這艘即將沉默的船。他多次強調(diào),為了保障自己的未來,我們需要離開這顆行星,開始殖民其它的世界?!?a target="_blank" >如果不邁進(jìn)太空,我們就沒有未來。”

確實,霍金是當(dāng)今世界最著名的科學(xué)家,他的任何言論都會得到各國媒體的特殊待遇。他的想法也不是“無中生有”(或“黑洞中生有”)。在過去15年里,越來越多的歐洲科學(xué)家們開始關(guān)注所謂的“生存風(fēng)險”(existential risks)。曾經(jīng)是危言聳聽的言論,如今正在滲透進(jìn)教育機構(gòu)和學(xué)術(shù)界。

牛津大學(xué)的哲學(xué)家Nick Bostrom在2002年發(fā)表了極具影響力的論文《生存的風(fēng)險:分析人類滅絕的情景(Existential Risks: Analyzing Human Extinction Scenarios),激起了此類研究的熱度。Bostrom認(rèn)為科技進(jìn)步的加速將人類推向了一個新的時期,其中的危險或許無法避免。不斷涌現(xiàn)的新的威脅將讓地球文明無法向宇宙?zhèn)鞑ァ?/p>


馬丁·里斯爵士的TED Talk: 我們能阻止世界末日嗎?

德高望重的皇家天體物理學(xué)家馬丁·里斯爵士(Sir Martin Rees)于2003年出版的 《我們最后的時光(Our Final Hour),以及2008年Nick Bostrom和Milan M. Cirkovic共同編著的《全球災(zāi)難風(fēng)險(Global Catastrophic Risks)都是對這個題材影響深遠(yuǎn)的書籍。

研究這方面問題的哲學(xué)家,科學(xué)家和未來學(xué)家們,則集中在英國的牛津未來人類學(xué)院(Future of Humanity Institute)和劍橋生存風(fēng)險研究中心(Centre for the Study of Existential Risk)。并未得到其他國家的重視。在美國也僅有倫理學(xué)和最新技術(shù)研究所(Institute for Ethics and Emerging Technologies)在進(jìn)行關(guān)注。

霍金不是一個人在戰(zhàn)斗,但他所處的地位如此之高,以至于他對未來的警告會對我們大家都產(chǎn)生影響。問題在于,我們讓這位德隆望尊的人物持續(xù)地在不提供解決方案的情況下,發(fā)表這些沉重的聲明。這樣下去,他最終留下的將會是一個失敗主義者,甚至是厭惡人類者的姿態(tài)。

當(dāng)然,在趁還來得及的時候把話說出來是必要的。但霍金不應(yīng)該只停留在宣揚壞消息的地步上。從今往后,讓我們希望他能動用他的大腦,講出一些積極有用的東西。

相關(guān)鏈接:
[1]煎蛋,2014:《霍金:上帝粒子會葬送地球乃至整個宇宙》
[2]煎蛋,2015:《霍金:人工智能百年內(nèi)超過人類》
[3]煎蛋,2015:《霍金等學(xué)者呼吁警惕人工智能軍備競賽》
[4]煎蛋,2010:《霍金再次預(yù)測地球滅亡》
[5]煎蛋,2010:《霍金說:外星人存在且具危險》
[6]煎蛋,2015:《面對外星人,霍金也拿不定主意》

[zzjeff via gizmodo]

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
霍金究竟知道什么?警告我們?nèi)祟惒灰屯庑侨寺?lián)系
頭條|霍金再嗆聲人工智能,稱人類應(yīng)成立“世界政府”應(yīng)對機器人起義
世界末日真的要來了?不要和外星人接觸?霍金再爆驚人言論!
都說他是“世界末日論代言人”,霍金的言論可信嗎?
霍金為什么知道那么多 難道和外星人有一腿?
霍金預(yù)言:2045年人類將永生不死
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服