国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
我們對人工智能的10大誤解


選文:涼亮 

翻譯:丁一,孫強(qiáng),王婧,肥毛毛蟲,Mona,焦劍,汪霞

摘自:http://gizmodo.com

自從20年前深藍(lán)(Deep Blue)在國際象棋中擊敗卡斯帕羅夫(Garry Kasparov),該事件就被人們譽(yù)為機(jī)器智能最權(quán)威的證明。谷歌的AlphaGo已經(jīng)在圍棋比賽中以四勝一負(fù)(譯者注:原文是三場中獲勝兩局)贏得了韓國棋手李世石,更表明了這些年來人工智能的迅猛進(jìn)步。機(jī)器終會比人類更聰明的預(yù)言即將到來,但我們似乎并沒有真正理解這個(gè)具有劃時(shí)代意義的事件的影響。

事實(shí)上,我們執(zhí)著于對人工智能的一些嚴(yán)重的、甚至是危險(xiǎn)的誤解。去年年底,SpaceX公司的聯(lián)合創(chuàng)始人伊隆·馬斯克(Elon Musk)警告說,人工智能會統(tǒng)治世界。此話一出,引發(fā)了對人工智能或譴責(zé)或支持的激烈爭論。對于這樣一個(gè)重大的未來事件,關(guān)于它是否會發(fā)生,或是以何種形式發(fā)生,各方持巨大的分歧。而當(dāng)我們考慮到人工智能會帶來巨大的利益的同時(shí),也可能出現(xiàn)風(fēng)險(xiǎn),這一點(diǎn)尤其令人擔(dān)憂。不同于其他任何的人類發(fā)明,人工智能具有重塑人類的潛力,但它也可能摧毀我們。

很難知道該相信什么。但借助于計(jì)算科學(xué)家,神經(jīng)科學(xué)家,和人工智能理論家的創(chuàng)舉,我們可以逐漸了解關(guān)于人工智能更清晰的圖景。下面是關(guān)于人工智能最常見的誤解和虛傳。

◆ ◆ ◆

誤解一:“我們永遠(yuǎn)不會創(chuàng)造出類似人類智慧的人工智能?!?/p>


現(xiàn)實(shí):我們已經(jīng)在一些游戲領(lǐng)域,如象棋與圍棋、股市交易和談話等創(chuàng)造出可以與人類智慧匹敵、甚至超過人類的計(jì)算機(jī)。 而背后驅(qū)動(dòng)的計(jì)算機(jī)和算法只會越來越好;因此,計(jì)算機(jī)趕超其他人類活動(dòng),將只是個(gè)時(shí)間問題。

紐約大學(xué)的心理學(xué)家加里·馬庫斯(Gary Marcus)說,在人工智能領(lǐng)域工作的“幾乎每個(gè)人”都認(rèn)為,機(jī)器將最終會替代我們自己。支持者和懷疑論者之間的唯一真正的區(qū)別只是時(shí)間框架問題。像Ray Kurzweil等未來學(xué)家認(rèn)為機(jī)器替代人類可能會在幾十年發(fā)生,也有人說,它可能需要幾個(gè)世紀(jì)。

當(dāng)懷疑論者說這是一個(gè)無法解決的技術(shù)問題,或是生物大腦有一些內(nèi)在的獨(dú)特之處時(shí),是不能令人信服的。我們的大腦是生物機(jī)器,但歸根到底它們?nèi)匀皇菣C(jī)器;他們在現(xiàn)實(shí)世界中存在,按照物理學(xué)的基本規(guī)律運(yùn)行。沒有什么是不可知的。

◆ ◆ ◆

誤解二:“人工智能將有自覺意識”


現(xiàn)實(shí):關(guān)于機(jī)器智能的一個(gè)共同的假設(shè)是,它是自覺的有意識的,也就是說,它會像人類一樣思考。更重要的是,像微軟聯(lián)合創(chuàng)始人保羅·艾倫的批評者認(rèn)為,我們還沒有實(shí)現(xiàn)人工普遍智能(Artificial General Intelligence, AGI),即能夠執(zhí)行任何一項(xiàng)人類能夠進(jìn)行的智能任務(wù),因?yàn)槲覀內(nèi)狈﹃P(guān)于意識的完整科學(xué)理論知識體系。但倫敦帝國大學(xué)認(rèn)知機(jī)器人專家默里·沙納漢(Murray Shanahan)指出,我們應(yīng)該避免混淆這兩個(gè)概念。

意識無疑是一個(gè)有趣和重要的主題,但我不相信意識是匹敵人類水平的人工智能必要的部分,”他告訴Gizmodo。 “或者,更準(zhǔn)確地說,我們用意識這個(gè)詞,是為了表明一些心理和認(rèn)知的屬性,而這在人類中是緊密相連互有重合的”。

我們完全可以想像一個(gè)非常聰明的機(jī)器,缺乏一個(gè)或多個(gè)這種屬性。最后,我們可以建立一個(gè)非常聰明的,但沒有自我意識的,不能主觀或有意識地體驗(yàn)世界的人工智能。沙納漢說,將智慧和意識同時(shí)融合在一臺機(jī)器里也是有可能的,但是,我們不應(yīng)該忽視這樣一個(gè)事實(shí),即智慧和意識是兩個(gè)不同的概念。

只是因?yàn)橐慌_機(jī)器通過圖靈測試從而證實(shí)計(jì)算機(jī)和人類在智能上無區(qū)別,并不意味著它是有意識的。對我們來說,先進(jìn)的人工智能可能會導(dǎo)致機(jī)器看起來是意識的假象,但是在自我自覺方面,它并不比一塊巖石或計(jì)算器更能感知自我意識。

◆ ◆ ◆

誤解三:'我們不應(yīng)該害怕人工智能?!?/strong>

事實(shí):今年一月,facebook創(chuàng)始人Mark Zuckerberg說我們不應(yīng)害怕人工智能,他說這將會為世界創(chuàng)造很多令人驚異的好東西。他只對了一半。我們安然享受人工智能所能創(chuàng)造的巨大的好處:從無人駕駛汽車到新藥的制造, 然而我們卻無法保證所有通過人工智能所實(shí)現(xiàn)的將會是良性的。

一個(gè)高度智慧的系統(tǒng)也許能了解完成一個(gè)特定任務(wù)所需要的所有知識,例如解決一個(gè)讓人頭痛的財(cái)務(wù)問題,或者侵入一個(gè)敵人的系統(tǒng)。但除開這些它所專長的特定的領(lǐng)域外,它很可能非常無知和愚昧。Google的DeepMind系統(tǒng)精通于圍棋,然而除了圍棋,它對于其他領(lǐng)域卻沒有任何推理和邏輯能力。

許多類似的系統(tǒng)也可能缺乏深入的安全考慮。一個(gè)很好的例子就是由美國和以色列軍方共同開發(fā)的一份非常強(qiáng)大而復(fù)雜的武器級病毒系統(tǒng)Stuxnet Virus,其原本的作用是為了潛入和攻擊伊朗核武器動(dòng)力裝置。此病毒系統(tǒng)卻不慎(至于是有人故意而為之還是純屬意外則不得而知)感染了俄羅斯核武器動(dòng)力裝置。


攻擊網(wǎng)絡(luò)間諜的Flame病毒

類似的例子還有在中東用于攻擊網(wǎng)絡(luò)間諜的程序:Flame。可以想象,未來類似Stuxnet或者Flame這樣的系統(tǒng)如若廣泛散布,可能對一些含有有敏感信息的基礎(chǔ)設(shè)施產(chǎn)生一系列不可估量的破壞。(作者注:在此澄清,這些病毒并非人工智能,但在將來他們可以輕易加入人工智能,因此也將會帶來以上的一些顧慮。)

◆ ◆ ◆

誤解四:“人工智能由于其極高智能,將不會犯任何錯(cuò)誤。”


電影《The Invisible Boy》中的超級計(jì)算機(jī)

事實(shí):Surfing Samurai機(jī)器人人工智能研究者和開發(fā)者,Richard Loosemore認(rèn)為大多數(shù)假設(shè)的人工智能將毀滅世界的情景都非常不符合邏輯。大多數(shù)類似的假設(shè)總是認(rèn)為人工智能將會說:“我知道毀滅人類文明是由于設(shè)計(jì)引起的故障,但無論如何我還是很想去做?!盠oosemore指出如果人工智能在打算毀滅人類時(shí),其思路是如此自相矛盾的話,它將在其一生中面臨無數(shù)自相矛盾的邏輯推理,也因此會干擾了其認(rèn)知從而變得非常愚蠢,而同時(shí)根本不足以對我們造成傷害。他同時(shí)也斷言,那些認(rèn)為“人工智能只會做程序設(shè)定的任務(wù)”的人,將會像在電腦剛剛發(fā)明時(shí)那些說電腦將永遠(yuǎn)不會具備應(yīng)變能力的謬論的人一樣。

牛津大學(xué)人類未來研究所(Future of Humanity Institute)的Peter Mcintyre和Stuart Armstrong對此有不同看法。他們認(rèn)為人工智能將很大程度上依賴其程序鎖定。他們不相信人工智能不會犯錯(cuò)誤,或者反過來他們沒有聰明到可以理解我們希望他們能做什么。

McIntyre告訴作者:“從定義上講,人工智能就是一個(gè)在方方面面都比最聰明的人腦要更為聰明的智慧載體”?!八鼘耆牢覀冊O(shè)計(jì)他們來做什么”。McIntyre和Armstrong相信人工智能將只會做其程序編寫的任務(wù),但如果它足夠聰明的話,它會最終理解法律的精髓和人文的意義。

McIntyre將人類將來可能面臨的困境和老鼠所面臨的困境做了比較。老鼠將會不停尋求食物和住所,但它們的目標(biāo)跟人類不想與老鼠共棲一室的目標(biāo)始終是相互沖突的。他說“正如我們完全能理解老鼠為什么要鉆進(jìn)我們的屋子里、但仍然不能忍受與老鼠一起生活一樣,即使人工智能系統(tǒng)理解我們的目標(biāo)和我們想要什么,他們?nèi)匀粫X得我們的目標(biāo)無關(guān)緊要”。

◆ ◆ ◆

誤解五:“一個(gè)簡單的修補(bǔ)程序?qū)⒔鉀Q人工智能的控制問題?!?/strong>


正如電影《機(jī)械姬》所描述,比我們聰明的機(jī)器人并不是那么簡單就能控制的

現(xiàn)實(shí):假設(shè)我們創(chuàng)造出強(qiáng)于人類的人工智能,我們將要面對一個(gè)嚴(yán)重的“控制問題”。未來主義者和人工智能理論家完全不知如何限制和制約一個(gè)ASI(超強(qiáng)人工智能),一旦它被創(chuàng)造出來,也不知道如何保證它將對人類友好。最近,佐治亞理工的研究人員天真地認(rèn)為人工智能可以通過閱讀簡單的故事和社會習(xí)俗來學(xué)習(xí)人類價(jià)值觀。而問題很可能會遠(yuǎn)遠(yuǎn)比這復(fù)雜。

“人們已經(jīng)提出很多簡單的技巧來解決整個(gè)人工智能的控制問題,”阿姆斯特朗說。具體例子包括將ASI程序編輯成讓它希望取悅?cè)祟?,或者僅僅作為人類的工具。換個(gè)角度說,我們可以集成一個(gè)概念,比如愛和尊重,把這些寫入它的源代碼。并且為了防止它采用超簡單的、單色的觀點(diǎn)來認(rèn)識世界,它可以被編程來欣賞知識、文化和社會多樣性。


Isaac Asimov的“機(jī)器人控制三定律”只能是科幻元素,要解決人工智能控制問題,我們不能只靠理論或幻想。

但是,這些解決方案要么太簡單,(比如嘗試將人類喜好的整個(gè)的復(fù)雜性用精巧的語言來定義),要么包羅人類所有的復(fù)雜到簡單的單詞、詞組或思想。舉個(gè)例子來說,試圖給出一個(gè)連貫的、可操作的定義“尊重”一次,是非常困難的。

“這并不是說,這種簡單的技巧是無用的,許多此類建議揭示了好的研究途徑,而且有助于解決最終的問題,”阿姆斯特朗說。 “但是,在沒有大量工作來發(fā)展和探索這些技巧之前,我們不能完全信賴它們?!?/p>

◆ ◆ ◆

誤解六:'我們將被超人工智能毀滅。'


現(xiàn)實(shí):現(xiàn)在還沒有證據(jù)保證人工智能會毀滅我們,或者我們將來一定沒有辦法來控制它。正如人工智能理論家Eliezer Yudkowsky所說:“人工智能不恨你,也不愛你,但你是由可以用做別的東西的原子組成的”。

他的書《超級智能》中寫道:路徑,危險(xiǎn),策略,牛津大學(xué)哲學(xué)家Nick Bostrom寫道,真正的超級智能人工一旦實(shí)現(xiàn),可能會造成比以往人類任何發(fā)明更大的風(fēng)險(xiǎn)。著名思想家Elon Musk,比爾·蓋茨和斯蒂芬·霍金(霍金警告說,人工智能可能是我們“歷史上最嚴(yán)重的錯(cuò)誤”)也同樣警告這一點(diǎn)。

Mclntyre說,對于超級人工智能可以實(shí)現(xiàn)的大多數(shù)目標(biāo),有很好的理由讓人類退出這些過程。

“一個(gè)人工智能或許能夠非常準(zhǔn)確地預(yù)測,我們不希望犧牲消費(fèi)者、環(huán)境和非人類動(dòng)物的利益為代價(jià),來給某個(gè)公司帶來最大化的利潤,”McIntyre說。 “因此,它會有強(qiáng)烈的動(dòng)機(jī)以確保自己不被中斷或干擾,包括被關(guān)閉,或其目標(biāo)被改變,因?yàn)檫@樣這些目標(biāo)將無法實(shí)現(xiàn)?!?/p>

除非ASI的目標(biāo)精確地反映我們自己的目標(biāo),McIntyre表示,它將有很好的理由不讓我們停止它的操作。并且由于它的智力水平大大超過了我們自己的,我們并不能做些什么(來阻止它)。

但萬事無絕對,也沒有人可以肯定人工智能會采取何種形式,以及它如何可能危及人類。Musk指出,人工智能實(shí)際上可以用于控制、調(diào)節(jié)和監(jiān)控其他人工智能?;蛘撸赡鼙还噍斎祟悆r(jià)值,以及強(qiáng)制要求友好對待人類。

◆ ◆ ◆

誤解七:“超人工智能會很友好?!?/strong>


現(xiàn)實(shí):哲學(xué)家Immanuel Kant相信智能與道德密切相關(guān)。神經(jīng)學(xué)家David Chalmers也在他自己的論文“The Singularity: A Philosophical Analysis(奇點(diǎn):從哲學(xué)角度分析)”中采用了Kant這一著名的觀點(diǎn),并將其用在了解釋超人工智能的崛起之中。

如果這是正確的,那我們可以預(yù)測“智能爆炸”將會同時(shí)引發(fā)一場“道德爆炸”。我們還可以預(yù)測由此產(chǎn)生的超人工智能系統(tǒng)將會在超智能的同時(shí)也是超道德的,因此我們大概可以推測這是良性的。

但是認(rèn)為先進(jìn)的人工智能會是開明并且天生就好的觀點(diǎn)是站不住腳的。正如Armstrong所指出的,有許多戰(zhàn)犯都是很聰明的。智力與道德之間的聯(lián)系好像并不存在于人類身上,因此他對這一聯(lián)系存在于其他智能形式的假設(shè)提出了質(zhì)疑。

他說:“行為不道德的聰明人可能會給他愚蠢的同胞們帶來更大規(guī)模的傷害。智力恰好賦予了他們更聰明地做壞事的能力,而并不會使他們變好?!?/p>

正如McIntyre所解釋的,一個(gè)代理達(dá)成目標(biāo)的能力并不取決于這個(gè)目標(biāo)一開始是否聰明。他說:“如果我們的人工智能具有獨(dú)一無二的在變聰明的同時(shí)會變得更加道德的能力,那我們是非常幸運(yùn)的。但是,單純依靠運(yùn)氣面對某些可能會決定我們未來的東西,并不是很好的策略?!?/p>

◆ ◆ ◆

誤解八:“來自人工智能的危險(xiǎn)和機(jī)器人是一回事。”


現(xiàn)實(shí):這是一個(gè)特別常見的錯(cuò)誤,一個(gè)被不加批判的媒體和《終結(jié)者》這類好萊塢電影延續(xù)的錯(cuò)誤。

如果像天網(wǎng)(Skynet)那樣的超級人工智能真的想毀滅人類,它不會使用揮舞機(jī)關(guān)槍的機(jī)器人。它會使用更有效的手段,比如:釋放生物瘟疫,或發(fā)動(dòng)基于納米技術(shù)的灰蠱災(zāi)難?;蛘?,它可以直接破壞掉大氣層。人工智能是潛在的危險(xiǎn),并不因?yàn)樗馕吨鴻C(jī)器人的未來,而是它將如何對世界展現(xiàn)它的存在。

◆ ◆ ◆

誤解九:“科幻小說是對未來人工智能的精神描述。”


人類思想如此豐富,所以各種科幻中的人工智能也是多種多樣的

現(xiàn)實(shí):當(dāng)然,很多年以來作家和未來學(xué)家都利用科幻來作夢幻般的預(yù)言,而是由ASI帶來的視界是一個(gè)不同顏色的馬。更重要的是,人工智能是非常“不人道的”,因此我們很難了解和預(yù)測其準(zhǔn)確性質(zhì)和形式。

要想讓科幻來娛樂弱小而可憐的人類,我們需要將“人工智能”描述成類似我們自己?!叭祟惖乃枷胍彩乔Р钊f別的;即使在人類內(nèi)部,你可能和你的鄰居完全不同,而這種差別和所有可能存在的頭腦相比是微不足道的?!胞溄鹛珷?McIntyre)說。

大多數(shù)科幻是為了講述一個(gè)引人入勝的故事,并不需要在科學(xué)上準(zhǔn)確無誤。因此,在科幻中即使是對等的實(shí)體之間也往往存在沖突。 “想象一下,的是,”阿姆斯特朗說,“如果人工智能沒有意識、喜悅、愛恨,根除了一切人類的痕跡,以實(shí)現(xiàn)一個(gè)無趣的目標(biāo),那將是一個(gè)多么無聊的故事?!?/p>

◆ ◆ ◆

誤解十:“人工智能將接手我們所有的工作,這太可怕了?!?/strong>


現(xiàn)實(shí):人工智能自動(dòng)完成人類工作的能力與它摧毀人類的潛能是兩回事。但《機(jī)器人的崛起》一書的作者馬丁 · 福特卻認(rèn)為:技術(shù)的進(jìn)步和未來的失業(yè)往往是密不可分的。思考人工智能在未來可能扮演的角色無可厚非,但是我們更應(yīng)該關(guān)注的是后面幾十年的問題。人工智能主要完成的還是大規(guī)模自動(dòng)化的工作。

毫無疑問,人工智能將徹底接管包括從工廠做工到上層的白領(lǐng)工作在內(nèi)的許多現(xiàn)有的工作崗位。有專家預(yù)測,在美國有一半的工作崗位可能在不久的將來實(shí)現(xiàn)自動(dòng)化。

但這并不意味著我們不能適應(yīng)這種巨變。通過人工智能將自己從紛雜的體力和腦力勞動(dòng)中解放出來,不也是人類的美好愿景嗎?

“在接下來的幾十年中,人工智能會摧毀許多工作,但是這是一件好事,”米勒告訴Gizmodo。例如,自動(dòng)駕駛汽車可以取代卡車司機(jī),這將減少運(yùn)輸成本,從而降低它的商品購買價(jià)格。 “如果你是一名卡車司機(jī),那你可能輸了,但其他人會得到有效加薪,他們的薪水可以買更多的東西,”米勒說。 “而這些人將錢節(jié)省下來可以購買其他商品和服務(wù),因而會創(chuàng)造新的工作。”

所以最終的結(jié)果可能是,人工智能會產(chǎn)生創(chuàng)造財(cái)富的新途徑,而人類可以騰出來做其他事情。而在人工智能的進(jìn)步將帶動(dòng)其他領(lǐng)域,尤其是制造業(yè)的發(fā)展。在未來,滿足人類需求會變得更加容易,而不是更難。

往期精彩文章推薦,點(diǎn)擊圖片可閱讀

大師告訴你,學(xué)習(xí)數(shù)學(xué)有什么用

微軟資深副總裁洪小文:人工智能十年預(yù)測(演講全文、61PPT)


◆ ◆ ◆

作者簡介






本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服