国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
通往人工智能未來的三路競賽:量子vs.神經(jīng)形態(tài)vs.高性能計算


作者|Bill Vorhies
譯者|馬卓奇
編輯|Emily
有三種技術(shù)正在相競為人工智能帶來更快、更簡單、更廉價以及更聰明的未來。如今,高性能計算機已經(jīng)是很容易得到的資源,不過量子計算機和模仿神經(jīng)狀態(tài)的脈沖神經(jīng)網(wǎng)絡(luò)的新商業(yè)版也是如此。這兩個新的進入者將從現(xiàn)在開始徹底改變?nèi)斯ぶ悄芎蜕疃葘W(xué)習(xí)。

更多干貨文章請關(guān)注公眾號“AI 前線”,ID:ai-front
人工智能和深度學(xué)習(xí)目前存在的三個問題


時間: 訓(xùn)練一個像卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)這樣的深度網(wǎng)絡(luò)所需要的時間可以達到數(shù)周。這還不包括定義問題,以及在深度網(wǎng)絡(luò)達到所需性能閾值之前,對其進行編程的過程中不斷的成功和失敗所耗費的時間。

花費: 在上百臺 GPU 上進行連續(xù)數(shù)周的計算是十分昂貴的。從亞馬遜的云計算服務(wù)租賃 800 臺 GPU 使用一周的時間,訂價就要大概 12 萬美金。這還沒開始計算人力成本。啟動一個 AI 項目可能意味著要聘用成本最高的人才幾個月或一年或更多的時間。

數(shù)據(jù): 在許多情況下,無法獲得足夠數(shù)量的有標(biāo)記數(shù)據(jù),會導(dǎo)致項目無法開始。有許多好點子都由于無法負擔(dān)訓(xùn)練數(shù)據(jù)的價格,而失去了探索的機會。

所以,我們主要在涉及圖像處理、文本和語音識別的商業(yè)領(lǐng)域取得了良好進展,然而這些初創(chuàng)公司往往利用了谷歌、IBM、微軟和其他大公司的工作,這些大公司提供了許多訓(xùn)練好的圖像和語音模型,可以通過 API 使用。


人工智能未來的三路競賽


如果你一直在跟進該領(lǐng)域的進展,你會發(fā)現(xiàn)我們使用 CNN 和 RNN 已經(jīng)向前沖出了一段,但是超越這些應(yīng)用的進展現(xiàn)在才剛剛出現(xiàn)。下一波進步浪潮將來自于生成對抗網(wǎng)絡(luò)(GAN)以及增強學(xué)習(xí)(Reinforcement Learning),以及一些像 IBM Waston 那樣的認知計算系統(tǒng)的助力。我們最近的文章《人工智能的三個時代——我們現(xiàn)在在哪里》中對此進行了總結(jié)。

以下是關(guān)于我們該如何前進的最常見的愿景。用我們所知道的;從我們現(xiàn)在常用的 CNN 和 RNN 中將演化出越來越復(fù)雜的具有不同結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò)。我們只需要讓它們運行的更快。

事實上,盡管未來可能完全不同。我們看到的是在人工智能的未來,基于完全不同技術(shù)的三方競賽正在逐漸成形。它們分別是:

  1. 高性能計算(HPC)

  2. 神經(jīng)形態(tài)計算(NC)

  3. 量子計算(QC)

其中之一,高性能計算是我們今天所看到的主要焦點。芯片制造商之間正在激烈競爭,還有一些諸如谷歌這樣的不太像芯片廠家的非硬件用戶,也在為了加速深度學(xué)習(xí)而開發(fā)芯片。而另外兩個,神經(jīng)形態(tài),也稱作脈沖神經(jīng)網(wǎng)絡(luò),以及量子計算,聽起來似乎是很遙遠的事情。然而事實是,如今已經(jīng)有商用的神經(jīng)形態(tài)芯片和量子計算機在可操作的機器學(xué)習(xí)中投入使用。

這可以是冰山一角,也可以是帳篷下的駱駝鼻子,取決于你喜歡哪個比喻了。無論是熱的還是冷的說法,這兩種新技術(shù)都會顛覆人工智能的一條看似筆直的道路,但是是以一種良性的方式顛覆了它。


高性能計算(HPC)


大家一直最關(guān)注的方向是高性能計算。它專注于已知的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),致力于讓它們運行地更快并且更容易訪問。

基本上這意味著兩點:更好的通用環(huán)境,例如 TensorFlow,以及在越來越大的數(shù)據(jù)中心對 GPU 和 FPGA 更有效的利用,并且更專業(yè)的芯片有望出現(xiàn)在不遠的將來。

人工智能領(lǐng)域中,新的商業(yè)模式是“開源”。在 2016 年頭六個月,也就在 12 個月前,幾乎人工智能領(lǐng)域的每一個主要參與者都開源了他們的人工智能平臺。他們都是競爭對手,擁有在數(shù)據(jù)中心、云服務(wù)和智能 IP 的巨大投資。開源背后的策略很簡單,擁有最多用戶(平臺采用人數(shù))的平臺獲勝。

當(dāng)英特爾、NVIDIA 等傳統(tǒng)芯片廠商紛紛從 GPU 的新需求中盈利時,其他公司,例如谷歌和微軟,正在探索全新的領(lǐng)域,他們自主開發(fā)專有芯片,使他們自己的深度學(xué)習(xí)平臺更快或更受歡迎一些。

谷歌用 TensorFlow 作為其功能強大的、通用的解決方案,與最新公布的專用芯片 TPU(張量處理單元)相結(jié)合打出了漂亮的一拳。

微軟一直在大力宣揚其使用的是非專有的 FPGA,并且他們剛剛發(fā)布微軟認知工具包(CNTK)的專業(yè) 2.0 升級。CNTK 提供了一個 java API,可將 Spark 直接集成進來。它支持 Keras 框架下完成的代碼,Keras 是 TensorFlow 的主要競爭對手,基本上是 TensorFlow 的一個前端,便于用戶從谷歌遷移過來。據(jù)報道,CNTK 要比 TensorFlow 更快,并且更準(zhǔn)確,而且也提供了 Python API。

Spark 集成將繼續(xù)成為一個重要的驅(qū)動力。雅虎已經(jīng)把 TensorFlow 集成到 Spark 平臺。Spark 的主要商業(yè)服務(wù)提供商 Databricks 現(xiàn)在已經(jīng)有自己的開源軟件包,將深度學(xué)習(xí)和 Spark 集成起來。

問題在于,就像摩爾定律的限制,這些進步能將我們帶去多遠的未來。他們現(xiàn)如今已經(jīng)十分普遍,但他們將繼續(xù)前進。他們足以讓我們進入 GAN 和強化學(xué)習(xí)的階段嗎?也許是的,至少我們現(xiàn)在知道如何使用這些深度學(xué)習(xí)架構(gòu)。


模擬神經(jīng)形態(tài)計算(NC)或神經(jīng)脈沖網(wǎng)絡(luò)(SNN)


模擬神經(jīng)形態(tài)計算或神經(jīng)脈沖網(wǎng)絡(luò)正處在通往強人工智能的道路上,它們基于對大腦實際工作方式的一些觀察來對網(wǎng)絡(luò)進行設(shè)計。這種方式與我們目前所設(shè)計的深度神經(jīng)網(wǎng)絡(luò)工作的方式明顯不同。

首先,研究人員觀察到,大腦中并不是所有的神經(jīng)元每一次都會響應(yīng)。神經(jīng)元發(fā)出選擇性信號沿網(wǎng)路下傳,數(shù)據(jù)實際上是在信號的電位峰值中以某種方式編碼的。其實這些信號由一系列峰值組成,所以目前主要研究信息是否在振幅、頻率編碼,或峰值之間的延遲中編碼,或者三者皆有。

在我們現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)中,所有神經(jīng)元每次都按照相對簡單的激活函數(shù),Sigmoid 或者 ReLU 進行響應(yīng)。

由于不是所有的“神經(jīng)元”每次都要響應(yīng),一個簡單的脈沖神經(jīng)網(wǎng)絡(luò)神經(jīng)元可以取代傳統(tǒng)的深度網(wǎng)絡(luò)中上百個神經(jīng)元,從而在網(wǎng)絡(luò)的能力和大小上都得到更高的效率。

早期的例子表明,它們可以從環(huán)境中只使用無監(jiān)督技術(shù)(沒有標(biāo)注樣例)進行學(xué)習(xí),樣例越少,學(xué)的越快。

它們可以泛化它們的環(huán)境,從一個環(huán)境中學(xué)習(xí)并將其應(yīng)用到另一個。它們能記憶并泛化,這是一個真正的能力突破。

它們的能量效率更高,為網(wǎng)絡(luò)模型小型化開辟了一條道路。

因此,改變這種基本架構(gòu)可以解決今天深度學(xué)習(xí)所面臨的所有三個基本問題。

最重要的是,現(xiàn)在就已經(jīng)可以購買并使用模擬神經(jīng)形態(tài)的脈沖神經(jīng)網(wǎng)絡(luò)系統(tǒng)了,它不是一項未來的技術(shù)。

BrainChip 控股公司(加利福尼亞州,Aliso Viejo 區(qū))已經(jīng)在拉斯維加斯最大的賭場之一推出了商業(yè)安全監(jiān)控系統(tǒng),并且宣布了將要交付的其他應(yīng)用程序。在拉斯維加斯,它的功能是通過監(jiān)視標(biāo)準(zhǔn)監(jiān)控攝像機的視頻流來直觀地、自動地檢測發(fā)牌員的錯誤。它完全通過觀察來學(xué)習(xí)游戲規(guī)則。

BrainChip 是一個在澳大利亞證券交易所(ASX:BRN)上市的公司,為他們所研發(fā)的脈沖網(wǎng)絡(luò)技術(shù)申請了知識產(chǎn)權(quán)專利保護。它正在推出一系列自己的賭博監(jiān)控產(chǎn)品,同時在為其知識產(chǎn)權(quán)尋求許可協(xié)議。

是的,這項技術(shù)還需要許多改進,但對于目前的人工智能開發(fā)來說,脈沖神經(jīng)網(wǎng)絡(luò)已經(jīng)成為一個商業(yè)現(xiàn)實和選擇。


量子計算


關(guān)于量子計算的一些你可能沒有意識到的事:

  • 如今,量子計算已經(jīng)可供人們使用,并且自從 2010 年起,Lockheed Martin 一直將其投入商業(yè)使用。其他幾家公司正在推出的商業(yè)應(yīng)用都是基于 D-Wave 量子計算機的,這是第一個商業(yè)市場。D-Wave 近期每年都將它的量子計算機的規(guī)模擴大一倍,并且有望繼續(xù)這樣做。

  • 五月份,IBM 宣布其量子計算機 IBM Q 的商業(yè)可用性。這是一個基于云的訂閱服務(wù),這無疑在引導(dǎo)著行業(yè)向簡化訪問其他昂貴或復(fù)雜機器的方向發(fā)展。IBM 表示,到目前為止,用戶已經(jīng)在他們的機器上運行了 300000 個實驗。

  • 在接下來的兩到三年里,谷歌和微軟將在市面上發(fā)行他們自己的量子計算機,作為個人或?qū)W術(shù)機構(gòu)的一套完整的服務(wù)器。

  • 由 D-Wave 和一些獨立的研究人員引入的開源編程語言可以使這些設(shè)備的編程更容易。

  • 量子計算機擅長各類優(yōu)化問題,包括基于隨機梯度下降方法的所有算法。他們可以輕易模仿受限玻爾茲曼機,你可以將其視為深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)之一,并且它們目前正在深度學(xué)習(xí)配置中使用,像卷積神經(jīng)網(wǎng)絡(luò)(CNN)一樣進行圖像分類的任務(wù)。由于一些結(jié)構(gòu)差異,我們需要區(qū)分這類網(wǎng)絡(luò)為量子神經(jīng)網(wǎng)絡(luò)(QNN)。

  • 據(jù) 2015 年由谷歌對 D-Wave 的量子計算機與傳統(tǒng)計算機的基準(zhǔn)實驗研究報告表明,量子計算機的性能優(yōu)于傳統(tǒng)的臺式計算機 108 倍,速度上快了一億倍。Hartmut Nevan 是谷歌的工程總監(jiān),在一個新聞發(fā)布會上宣布了基準(zhǔn)實驗結(jié)果。他介紹說,“D-Wave 一秒鐘完成的工作需要花費傳統(tǒng)的計算機一萬年的時間。”

因此,量子仍然代表了第三條通往強人工智能的道路,并且克服了速度和成本問題。


如何擺脫這些問題?


事實上,神經(jīng)形態(tài)計算和量子計算正在鋪設(shè)通往深度學(xué)習(xí),甚至是更快或者更簡單的新版本人工智能的競爭路線。

  1. 首先,時間線。高性能計算今天已經(jīng)成為現(xiàn)實,并且基于新研發(fā)的芯片,在接下來的幾年可能會繼續(xù)提高其性能。然而,對其新工廠和數(shù)據(jù)中心的巨額投資可能會由于量子計算和神經(jīng)形態(tài)計算的飛速進展而很快中斷。

  2. 深度學(xué)習(xí)平臺。以谷歌的 TensorFlow 和微軟的 Cognitive Toolkit(CNTK)為例,如今它們已經(jīng)被廣泛使用,但毫無疑問,其他競爭對手也將努力爭取最多的用戶。隨著量子計算和神經(jīng)形態(tài)計算功能的普及,這一點也將適用于他們。

  3. 模擬神經(jīng)形態(tài)的脈沖神經(jīng)網(wǎng)絡(luò)(SNN)和量子計算才剛剛用于商業(yè)。每一個都將為人工智能提供非凡的新能力。

  4. 脈沖神經(jīng)網(wǎng)絡(luò)有望成為強大的自學(xué)習(xí)者,通過較小的未標(biāo)注的訓(xùn)練集和從一個域到另一個的知識轉(zhuǎn)移能力,開啟了超高效學(xué)習(xí)的大門。

  5. 量子計算機將完全消除時間障礙,并且最終成本壁壘也會將得到解決方案的時間從幾個月降低到幾分鐘。重要的是,目前正在使用的學(xué)習(xí)風(fēng)格被稱為增強量子計算,因為它是基于我們目前的深度學(xué)習(xí)算法,并且提高它們的性能。然而基于這些機器完全不同能力的全新的機器學(xué)習(xí)類型尚未到來。

我個人感覺,對于量子計算和神經(jīng)形態(tài)計算,我們目前所在的時間點就像 2007 年,那年谷歌的大計劃是開源的 Hadoop。起初我們并不知道該怎么用它,但三年后,Hadoop 在很大程度上接管了數(shù)據(jù)科學(xué)的進步。我想從現(xiàn)在開始,未來三年也將會有令人吃驚的發(fā)展。

查看英文原文:

https://www.datasciencecentral.com/profiles/blogs/the-three-way-race-to-the-future-of-ai-quantum-vs-neuromorphic-vs


關(guān)于作者


Bill Vorhies 是數(shù)據(jù)科學(xué)中心的編輯部主任,自 2001 起成為數(shù)據(jù)科學(xué)家和商業(yè)預(yù)測建模師。

聯(lián)系作者:Bill@DataScienceCentral.com 

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
解讀神經(jīng)擬態(tài)計算:讓機器像大腦一樣“思考”
(2820)人工智能繼續(xù)迭代 類腦計算悄然走紅
英特爾AI產(chǎn)品事業(yè)部CTO專訪:谷歌TPU表明純GPU不是最佳架構(gòu)
什么是深度學(xué)習(xí)?什么是類腦計算?
誰將主導(dǎo)“類腦計算”的未來趨勢?
改變AI發(fā)展格局 神經(jīng)擬態(tài)計算還差關(guān)鍵一步
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服