国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
霍金預測:未來百年內(nèi)人工智能將接替人類
來源:鳳凰科技 2015年05月15日 10:07
[導讀] 霍金教授表示我們需要擔心的不是誰控制著人工智能,而是人工智能是否可以被控制。他在倫敦召開的Zeitgeist2015會議上發(fā)表了這一言論,隨后他表示人工智能可能意味著人類的終結(jié)。
鳳凰科技訊 北京時間5月15日消息,據(jù)英國每日郵報報道,著名物理學家史蒂芬·霍金(Stephen Hawking)教授預測,下個世紀人類將面臨比人類更聰明智能的人工智能機器人的崛起。霍金教授表示我們需要擔心的不是誰控制著人工智能,而是人工智能是否可以被控制。他在倫敦召開的Zeitgeist2015會議上發(fā)表了這一言論,隨后他表示人工智能可能意味著人類的終結(jié)。
“在未來100年內(nèi),人工智能計算機將接替人類。如果這一情形的確發(fā)生了,那么我們必須確保計算機的目標與我們的相一致。我們的未來是科技日益發(fā)展與我們睿智的使用科技之間的競賽?!?div style="height:15px;">
今年早期,霍金和Space-X和特斯拉公司CEO企業(yè)家埃隆·馬斯克(Elon Musk)共同簽署了一份公開信,聲稱人工智能的發(fā)展不應(yīng)該任由其不可控制的發(fā)展下去。這份文件表示如果智能機器沒有任何保護措施,那么人類的未來將一片黑暗。
特斯拉公司CEO企業(yè)家埃隆·馬斯克
這份公開信是由非營利組織生命未來研究起草的,它警惕科學家們要注意那些可能毀滅人類的風險。作者表示“廣泛的普查”表明人工智能研究目前一切順利,它將會對社會產(chǎn)生日益增多的影響?!皾撛诘囊嫣幨蔷薮蟮?,因為文明所提供的一切都是人工智能的產(chǎn)品;我們無法預測當人工智能所能提供的工具將這種智能無限放大時,我們可能面臨的結(jié)果是什么,但疾病和貧窮的根除并非深不可測,”作者這樣寫道。
但這也提出了Stark警示,研究不應(yīng)該只關(guān)注于人工智能所能帶來的益處,還要調(diào)查如何避免它可能帶來的潛在損害。例如,從短期來看,人工智能可能導致上萬人失業(yè)。從長期來看,它可能變成小說里虛構(gòu)的那種糟透了的社會,比人類更聰明的機器開始反抗它們的編制程序?!拔覀兊娜斯ぶ悄芟到y(tǒng)必須做我們希望它們做的事,”這份公開信這樣寫道。這也回應(yīng)了霍金今年早期發(fā)表的言論,他認為成功的創(chuàng)造人工智能“將是人類歷史上最大的事件,但不幸的是,這也可能是最后一件事。”
霍金教授表示我們需要擔心的是人工智能是否可以被控制
馬斯克警告稱由于具有人工智能的機器的發(fā)展,人類將面臨某件異常危險的事
去年11月,馬斯克警告稱最快在未來五年,由于具有人工智能的機器的發(fā)展,人類將面臨“某件異常危險的事即將發(fā)生”的風險。在此之前,馬斯克將自主思考機器的發(fā)展與“召喚惡魔”相聯(lián)系。
去年十月在美國麻省理工學院AeroAstro百年學術(shù)研討會上,馬斯克將人工智能描述為我們面臨的“目前存在的最大威脅”。他表示:“我認為我們必須小心翼翼的處理人工智能。如果非要我猜測目前人類面臨的現(xiàn)有最大威脅是什么,我認為很可能是人工智能。因此我們必須時刻保持警惕。我越來越傾向于認為一些管理監(jiān)督是非常有必要的,可以從國家或者國際層面上,目的是確保我們沒有做出什么愚蠢的行為?!?
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
霍金等呼吁提防人工智能副作用
霍金去世,霍金生前著名四大預言你知道多少?
霍金再發(fā)警告 人工智能將統(tǒng)治地球真實版終結(jié)者即將上演
霍金驚人言論:人類真的可以建造時間機器
Nature社論:人工智能威脅論絕非聳人聽聞
專家要求全面禁止“殺手機器人”
更多類似文章 >>
生活服務(wù)
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服