讓電腦能夠看見你我看見的世界?若單純就只是看見,那并不難,相機拿起來卡嚓一下就搞定。但是要讓電腦能夠理解自己看到了什么,那就有點意思了。
這群來自
哈佛以及
麻省理工學(xué)院( MIT )共同組成研究團隊,打算用電腦來仿真大腦的功能,透過運算將電腦看見的影像轉(zhuǎn)換成有用的信息,進而可以辨識物品、
認人、甚至理解一連串的動作所代表的意思,就和人腦一樣。
為了加快研究速度,研究人員借用分子生物學(xué)的篩選技術(shù):同時對上千種候選辨識模塊進行一連串的實驗,淘汰掉不適用的模塊,最后保留下最棒的模塊。這過程簡單來說就是八個字:「物競天擇,適者生存」。
不過研究人員的另一個難題則是人腦解析信息的速度實在太快,若用傳統(tǒng)電腦得先花上一大筆錢再加上至少一整年的時間才能運算完畢。不過這個問題隨著游戲用的
GPU 擁有越來越強的運算能力而獲得解決。研究人員大量運用 GPU 的運算能力,不僅省下大筆的經(jīng)費,更將運算的時間從一年縮減到一個星期。
正如前面所說的,研究團隊希望藉由這項研究能夠創(chuàng)造出仿真大腦視覺辨識的人工智能( 好讓 iPhoto、Picasa 的人臉辨識更加準確? ),而隨著他們將軟件開發(fā)的越完善,越接近大腦辨識的結(jié)果時,我們就可以反過來更加了解大腦的運作模式。而不斷互相求進步的結(jié)果,最終我們就可以更了解大腦,同時也能讓電腦運作的更像大腦。哇!跳轉(zhuǎn)后看教授親自上場配音的說明影片。