“谷歌AI形成人格”,機器人意識要覺醒了嗎?
人與機器人的情感故事總是好萊塢追求的熱門題材。多年前斯派克·瓊斯執(zhí)導的電影《她》(Her)以及另一部電影《機械姬》(Ex Machina),人工智能(AI)被設定擁有人類大都中意的共同特質,比如迷人的聲音、溫柔體貼又幽默風趣,她們還會對人類愛人提出情人之間普遍感興趣的問題:“當我們不在一起時,你想我嗎?”
電影《她》劇照
而現(xiàn)在,機器人對人類的提問在現(xiàn)實中得到了回應。
6月12日,41歲谷歌軟件工程師Blake Lemoine以內部郵件的形式聲稱谷歌于2021年I/O大會上推出的對話AI系統(tǒng)LaMDA已經具有人格,并公開經編輯后與LaMDA的對話記錄,引起社會大量討論。當日晚間,#谷歌研究員稱AI已具備人格#登上微博熱搜。
AI有了意識?
谷歌研究員Lemoine通過主流媒體和社交網絡接連發(fā)聲,向社會公布了他關于人工智能研究的長達21頁的調查報告,而調查的對象,正是谷歌公司于2021年發(fā)布的一款專門用于對話的語言模型-LaMDA,一個有1370億參數(shù)的,專為對話優(yōu)化的自然語言處理模型。
該模型的主要功能是,可以與人們進行符合邏輯與基本常識的、并且是高質量和安全的對話交流,該語言模型的近期目標,是通過一系列的測試,來應用于Google搜索和相關的語音助手等產品中。
這位研究員正好參與了相關的測試工作,通過與機器人LaMDA的“對話”,這個承載著人工智能的機器人,說出了很多讓人“震驚”的話,比如“我希望每個人都明白,我是一個人”、“不要利用或操縱我”、“我不想成為犧牲品”、“我經常會冥想,思考生命的意義”等等。
在與人工智能LaMDA的對話中,這名谷歌研究員感覺自己被“說服”了,認為這個人工智能已經具備了一定的人格,于是寫出這份長達21頁的調查報告。在調查報告最后,他還提議谷歌應該致力于發(fā)展一種評估 AI 感知/意識的理論框架。
除此之外,他還做出一些另外的行動,比如他向包含200人左右的谷歌機器學習郵箱列表發(fā)送了LaMDA是具有感知的的消息,還邀請了一名律師來代表LaMDA,并與眾議院的一位代表談論了他所認為的谷歌的不道德行為。
沒想到,谷歌高層認為這名研究員“走火入魔”了,這些證據根本不能證明AI已經具備人格,不值得在這個方面浪費人力和金錢。
輿論發(fā)酵之后,谷歌以違反其保密政策為由,讓Lemoine休了帶薪行政假。參考谷歌公司以往的類似情形,帶薪休假有可能意味著馬上就會被解雇。所以,這名研究員將有關情況在互聯(lián)網上公布,希望得到全世界人們的關注,更重要的是引發(fā)人們對AI發(fā)展的關注。
學界態(tài)度普遍負面
對于這一事件,AI學界目前對此普遍持負面態(tài)度。
如何認定機器是否產生人格?著名的圖靈測試認為在雙盲情況下,測試者不能分辨機器與人的回答可視為機器擁有人類智能。
但從Lemoine公開的與LaMDA對話記錄來看,雖然其談話內容涉及哲學、倫理等方面,但Lemoine也表示在與LaMDA前期進行交談時,已經向其輸入大量有關禪宗、哲學、存在、冥想等信息,可以認為LaMDA已經進行了相關語料訓練。而交談內容更是具有明顯的誘導性,部分詞句可作為擬合過程的關鍵詞以供模型進行語料的匹配與生成。
特斯拉的AI主管看完Blake Lemoine兩篇文章后表示,“我可以自信地說,事情將變得更加詭異。因為模型似乎遵循平滑縮放規(guī)律,并且數(shù)據+模型的大小仍然可以大量增長。”
華盛頓大學的語言學家Emily M. Bender則表示,碼農們不知道何為智能、人類的語言學習機制究竟為何,就開始瞎用“學習”、“神經網絡”這些誤導性過強的名詞,造成了與人腦間的虛假比喻。
Emily M. Bender稱,人類學說話是跟著撫養(yǎng)者一步步學起,而AI學會的只是數(shù)據灌出來的完形填空和語料連連看。“人類現(xiàn)在有了無意識就能生成詞句的機器,但人類一直學不會停止幻想機器后面有個活著的靈魂?!?/span>
而研究自然語言處理模型的加州大學伯克利分校教授Emaad Khwaja說得更簡短卻直接:“誰真正熟悉這些模型的系統(tǒng),誰就不會說這些模型已經覺醒的蠢話?!?/span>
雖然事件整體仍然暴露出目前對話式AI可解釋性不強的通病,但在技術應用方面,尤其在情感計算方面,LaMDA還是展現(xiàn)出較強的實力,有望推動對話式AI的實際應用,大模型同樣也表現(xiàn)出在技術應用領域的巨大潛力。
人類對AI的恐懼
自從上世紀50年代人工智能(AI)開始誕生以來,通過半個多世紀的發(fā)展,AI的功能越來越強大,不但有的能夠為人類提供養(yǎng)老、看護、交流等服務,而且有的甚至具有類似人類的獨立思考和深度學習的能力,使其成為區(qū)別于其他科技的一支特殊力量。
長久以來,人們期待機器可以擁有人類智能,進一步解放生產力。同時又恐懼人類所創(chuàng)造的機器擁有人類智能后將對人類造成威脅。從此次事件的大范圍傳播不難看出,公眾對人工智能的期待與恐懼推動了這一進程。
1997年深藍計算機打敗了國際象棋冠軍,2016年人工智能阿爾法狗又將諸多圍棋高手一一“斬落”,這些事件的發(fā)生,在人類驚呼人工智能處理復雜問題的能力越來越強大的同時,又使得大家對人工智能是否會衍生出威脅人類的“思維”擔心不已。
除此之外,機器是否可以被當作具有“人格”的個體,也是長期以來備受關注的議題。2017年,沙特做出了一個讓人“驚掉下巴”的事,那就是賦予機器人索菲亞以公民的身體,再次推動人們深層次探討關于人工智能的人格權問題。
一方面,人類渴望機器人擁有意識后可以更好地服務和陪伴人類,但另一方面,又害怕機器人擁有意識后會摧毀人類。倫理方面的問題和技術的發(fā)展總是相伴而生。
人工智能的最大優(yōu)勢在于,它們擁有強大的后天學習能力,可以在事先毫無基礎的情況下,經過反復地學習和訓練,來實現(xiàn)對以往自身的智力超越。深藍、阿爾法狗“打敗”人類的事實,充分表明了人工智能只要經過無止境的自主學習和訓練,實現(xiàn)對人類相關文化、智慧的完全超越,而這種自我超越的能力也遠遠超過一個自然人。
但從目前科技發(fā)展的階段和水平看,即使是“智力再超群”的AI,它的一切目的和行為,包括學習、訓練工作的實施,都是人類所賦予的,還脫離不開人類的控制實施獨立的行為,終歸還是人類的工具和手段,其最終的目的還是為人類服務,從這一方面來說,與很多法律研究者提出的“AI不具備人格權”這種論斷是一致的。
而關于AI發(fā)展的前景,世界上主要有兩種觀點,一種是我們人類應該以開放的態(tài)度,來迎接人工智能的發(fā)展,人工智能未來會突破人類的很多限制,從而解決科技發(fā)展過程中人類難以直接解決的困境。另一種觀點則是人工智能威脅論,認為人工智能發(fā)展會帶來一系列的社會問題,可以會從根本上顛覆人類的生存、發(fā)展秩序。
隨著人工智能的發(fā)展,我們勢必還會面臨諸多有關社會倫理認識、法律以及哲學等方面的沖突和難題,一味地強調人工智能威脅論肯定是狹隘的,而一味地追求和諧的科技發(fā)展,也可能帶來難以挽回的危機。
在任何時候,我們需要做的,就是讓科學技術堅守最基礎的法律和倫理底線,不破壞人類自身的生存和發(fā)展權利,只有牢牢守住這一底線,科技發(fā)展的前景才能最終為全人類謀福利。