自從機器人第一次出現(xiàn)在科幻小說中,人類就開始擔(dān)心機器人會舉行“起義”。但是今天,專家提醒人們的是一個更不易察覺的的威脅:我們可能會過于喜歡(或依賴)與他們生活在一起。
要感受到機器人帶來的驚駭并不需要很多的硬件設(shè)備。我們不需要戴著虛擬現(xiàn)實的護目鏡或鑲嵌著許多電極的無邊便帽,也不需要大量的電纜或可植入人的大腦象頭發(fā)那樣細(xì)的納米線。僅憑機器人那雙警惕的不斷閃爍的眼睛就足以做到。
媒體實驗室(Media Lab) 該實驗室座落在馬薩諸塞州劍橋園麻省理工學(xué)院校園內(nèi),其中屬于個人機器人小組的實驗室看起來更像一個十幾歲男孩的臥室,到處是纏在一起的電纜,已放了一段時間的比薩餅盒子和不知是被拆開的玩具還是被肢解的機器人。在一堆雜物中,一個5英尺高、有三個輪子的仿人機器人啟動并開始環(huán)顧房間四周。它確實是在看,它的大大的深藍(lán)色的眼睛轉(zhuǎn)到那邊,它的白色的、玩具娃娃似的大頭就跟著轉(zhuǎn)向那邊,而且不時停下來,好象在打量著每個研究人員。它的名字叫奈克西 (Nexi),它的一雙眼睛閃爍著。對視著它就象對視著新生兒的眼睛,激發(fā)起人們本能的愛,讓人們心里忍不住想問:“你想要什么?你需要什么?”很少有人能以一種無動于衷的態(tài)度與它接觸。
“現(xiàn)在它做的動作是環(huán)顧四周,這是一個非?;镜膭幼鳌!睂嶒炇业难芯咳藛T馬特·柏林說,“我認(rèn)為它很高興,因為它有一張臉,可以觀察外面?!痹诹硗庖粋€實驗室里,另一種類型的仿人形機器人動作的目標(biāo)比較具體:從房間的一邊走到另一邊,保證不會摔倒,找到指定的彩球,并輕而快地踢它一下。而奈克西的功能更具有深遠(yuǎn)的意義,它是社交機器人。它的唯一目的是與人類互動,它的使命是被人類接受。
這是一個任何具有真正自我意識的機器人可能會拒絕的使命。為了得到廣泛的接受,可能意味著與人類幾十年形成的對機器人的恐懼和厭惡作斗爭。機器人的這種壞名聲范圍很廣,從機器人最終不可避免地對人類宣戰(zhàn)的末日預(yù)言到那種認(rèn)為人形機器人將永遠(yuǎn)是絕對令人不安的和不宜相處的同伴的信念。
至于奈克西,可以說是人機交互技術(shù)研究(the human–robot interaction ,HRI)領(lǐng)域中的一顆最耀眼的明星,但在出名的同時,也引起了恐懼。在YouTube上有一段奈克西的視頻,已有數(shù)千人點擊觀看。在這段視頻中,奈克西靠輪子移動進入視野,緩慢地轉(zhuǎn)向鏡頭,用令人愉快的完美的女性聲音介紹自己。如果這段視頻的目的是讓奈克西得到大家的喜歡,那就適得其反了。它的眼睛大而富有表現(xiàn)力,臉龐長得幼稚可愛,但這一切都有點不正常,就象是一個玩具娃娃偽裝成一個巨型的小孩。或者,對于存在主義者來說,更令人深感不安的是:一個具有真正情感的機器人,它能夠愛你,也同樣能夠輕視你。結(jié)果,觀眾稱它的表現(xiàn)為“毛骨悚然”。
但是機器人的辯護者反對這樣的評價。認(rèn)為人機交互技術(shù)的未來是光明的。老年人沒有辦法拒絕那些輕言細(xì)語、眼睛眨動的并與他們朝夕相處的護士機器人遞來的藥物。毫無疑問兒童會愛上日托機器人,即使機器人有時沒有安慰他們,也有時會因軟件錯誤或電池組的故障而沒法作出反應(yīng)。把今天面無表情的 Roombas機器人變成明天的積極主動的機器人伙伴,社交機器人只需要以奈克西為榜樣,開發(fā)利用強大的、甚至無法控制的人類本能。
這就是為什么奈克西的金屬手臂和雙手以小幅的、逼真的動作左右移動。這就是為什么奈克西在尋找面孔,似乎用眼睛在看你。當(dāng)它的眼睛隨著小型發(fā)動機嗡嗡的叫聲再次閃爍,你會不由自主地對它微笑。你會把它當(dāng)作與你一樣的一個具有社會性的生物。即使 奈克西沒有說一句話,你已經(jīng)想成為它的朋友。
事實證明,即使你知道使你感到驚駭?shù)氖菣C器人,并不能使你更容易對它產(chǎn)生抵制。也許這才是社交機器人真正的危險。雖然人類已經(jīng)對惡意計算機和橡膠肌肉體作出種種猜測,機器人專家可能已經(jīng)制造了一個更真實的威脅。當(dāng)面對實際機器人,人們可能變得過于依戀。就像人與人間的關(guān)系,這種依戀可能充滿著陷阱:一個老奶奶會如何想,例如,當(dāng)她的機器人同伴被送去的升級,然后回來時是一個完全陌生的機器人?
機器人曾令人感到害怕:擔(dān)心它會消滅人類 當(dāng)一臺機器人可以輕易地按下我們進化的按鈕,適時地眨動其人工眼瞼就能解除我們內(nèi)心深處的保留意見,也許這種擔(dān)心根本不是愚蠢的反應(yīng)。也許我們只是害怕這種本不該出現(xiàn)的東西。
機器人在它們存在之前就開始讓我們感到害怕。1921年,捷克的科幻劇作《羅素姆萬能機器人》(Rossum's Universal Robots)中同時首次引進“機器人”一詞和機器人大災(zāi)難的威脅。在劇中第一幕發(fā)表的宣言中,作為廉價的、可支配勞動者而制造的機器人使他們的意圖很清楚:“全世界的機器人,我們責(zé)成你要消滅人類。不要留下一個男人。不要留下一個婦女?!毙?strong>惡機器人的起源可以追溯到更遠(yuǎn),但《羅素姆萬能機器人》創(chuàng)造的那種惡魔般的機器人類型在上世紀(jì)四、五十年代的科幻小說中風(fēng)行一時,而這時對機器人的實際研究還沒有開始。事實上,《我,機器人》(I,Robot)的作者艾薩克·阿西莫夫在創(chuàng)造了 “機器人學(xué)(robotics)”一詞的同時,他開始在他的短篇小說中建立機器人的規(guī)范和道德準(zhǔn)則。
在1984年的電影《終結(jié)者》中,阿諾德·施瓦辛格扮演的人型機械人T – 800對警察局進行了大屠殺,終結(jié)者,這個機器人叛亂者,已經(jīng)成為流行文化中最根深蒂固的陳詞濫調(diào)之一。這部電影已經(jīng)成為一種特定恐懼的符號:即人工智能(AI)將成為太聰明、太沉迷于自我保護。終結(jié)者影響了我們對機器人、人工智能甚至正在發(fā)展的機器人戰(zhàn)爭的認(rèn)識。其中,美國海軍研究所正研究將來是否需要對軍事機器人制定道德規(guī)范,并在2008年一份初步研究報告中提出最凄慘的結(jié)局:“象《終結(jié)者》中的情景,機器人反過來對付我們處于劣勢的人類?!?br>
但據(jù)加州州立理工大學(xué)哲學(xué)助理教授兼美國海軍學(xué)院倫理學(xué)研究員帕特里克·林的觀點,對機器人道德規(guī)范的需要不僅限于戰(zhàn)場。“與軍事機器人相比,社會機器人對一般人可能構(gòu)成的更大威脅?!彼f?!半m然它們沒有武器,但我們會很快地與它們面對面?!?br>
這當(dāng)然也正是記者努力報道的言論。媒體向來是大肆渲染具有自我組織能力的人工智的可能的危險,以及武裝機器人射殺平民的前景。但是,機器人可能構(gòu)成的真正威脅與《終結(jié)者》的情景無關(guān),因為即使與最笨的武裝叛亂分子相比,機器人的大腦實際上也是死的。
以奈克西為例,奈克西被認(rèn)為是世界上最先進的社交機器人之一,但它僅僅能理解最基本的聲音指令?,F(xiàn)在它正處于半退休狀態(tài),它的電機已搖搖欲墜。麻省理工學(xué)院為它的另一個機器人里奧納多(Leonardo)開發(fā)了新的行為軟件。里奧納多是一個毛茸茸的、長著大耳朵的機器人,它可以向人類學(xué)習(xí),如判斷那些方塊可以拼成一幅指定的拼圖,或那些填充玩具是“好的”,哪些它應(yīng)該感到害怕。這是一種讓我們感到震動的機器人類型:這種機器人能聽懂我們說話的內(nèi)容,并知道我們告訴它應(yīng)該喜歡的或害怕的東西。奈克西已裝上與萊昂納一樣的軟件,麻省理工學(xué)院的柏林(Berlin)說:“也許不用一年,奈克西將能和你交談,雖然交談可能很乏味?!?br>
社交機器人帶來機器人的技術(shù)飛躍 如果漢森機器人(Hanson Robotics)公司的創(chuàng)始人大衛(wèi)·漢森一切進展順利,在今年年底,這家總部設(shè)在德克薩斯州的公司的最新社會機器人芝諾(Zeno)可能在說話能力上超過奈克西。這種23英寸高的機器人售價為2500美元,可以說是物超所值,不僅因為它的硬件,而是因為裝在其卡通造型的頭部里的軟件?!斑@種智能軟件可以使芝諾認(rèn)識到在一個房間里有多人?!睗h森說,“它建立了一種有關(guān)“你是誰,你喜歡什么,你說了什么”的思維模式。現(xiàn)在我們已經(jīng)達到這種程度,它可以進行一次自由回答的、不限主題的交談。”漢森計劃在2011年或2012年推出一種售價為250美元的大眾市場版的機器人,它具有與芝諾相同的臉部和聲音識別能力。他的目標(biāo)是為研究人員提供一個功能強大的試驗平臺,同時還利用人工智能算法,生產(chǎn)一種機器人玩具,可以與人實實在在的玩耍15分鐘以上。
但是就奈克西和芝諾的社交技能和艱苦仿真的情感生活來說,機器人是本能的,而不會反省。跟蹤軟件發(fā)現(xiàn),人說出一個關(guān)鍵詞,然后引發(fā)了機器人預(yù)設(shè)的反應(yīng),而當(dāng)你離開房間,他們不會想你去那里,剛才的談話是幫助還是傷害你,或者如何擺脫你的控制?!耙斯ぶ悄茏鞒鲎匀唤缫饬x上的預(yù)測是非常困難,”英國雷丁大學(xué)控制論教授凱文·沃里克(Kevin Warwick)說,“機器人能夠考慮各種可能性事件,但它甚至不能領(lǐng)先一步考慮到它作的決定會產(chǎn)生的后果?!?br>
還有,當(dāng)然,研究人員預(yù)見計算神經(jīng)科學(xué)上的快速進展將不可避免的導(dǎo)致“強大的人工智能(strong AI)”,這種人工智能不是在谷歌搜索框里完成你的句子,而是模仿人類思維。IBM公司的藍(lán)色大腦計劃(Blue Brain Project)就是其中之一,它的目標(biāo)是可能最快在2019年制造出虛擬大腦,這使災(zāi)難預(yù)言家們更喋喋不休。不過,沒有一個能描繪我們自己的預(yù)感或道德感的神經(jīng)網(wǎng)絡(luò)圖,要能夠創(chuàng)造出一個真正有權(quán)力欲或邪
惡的機器人仍是遙遙無期。考慮它們就有點象辯論缺乏管制的超距傳輸(teleportation)上的倫理隱患。沒有人建造企業(yè)(Enterprise)號太空飛船,為什么要擔(dān)心斯科蒂(Scotty,《星際旅行:企業(yè)號》中的角色)會喝醉撥號到你的家中?
機器人不會很快大批起義。奈克西不會發(fā)送電子郵件給芝諾,傳播來自于《羅素姆萬能機器人》中的 “消滅所有人類”的信息。這則信息也不會在全世界的Roombas 機器人、鐵血戰(zhàn)士和和“裝配線焊接機”中傳播的。這是一個幻想,或者充其量是下一個世紀(jì)討論的話題。就象很多機器人擔(dān)心,這有可能淹沒一個更理性產(chǎn)生于現(xiàn)實的辯論,這個現(xiàn)實就是幾乎每個機器人都是在法律和道德的縫隙中降臨的?!叭绻粋€孤獨癥患者控訴一個機器人,并試圖毀滅它,機器人應(yīng)如何應(yīng)對?”帕特里克·林問,她正計劃制定社交醫(yī)療機器人道德規(guī)范。
“難道把它關(guān)閉?這是一個昂貴的設(shè)備——它應(yīng)該擋回去?”當(dāng)機器人大規(guī)模地出現(xiàn),我們是否已準(zhǔn)備好它們同時可能造成的對人身體和心理上的損害?
當(dāng)我們的眼睛盯著一個我們認(rèn)為具有自主性的機器人——它能根據(jù)自身的意志移動、行動和工作——我們的鏡像神經(jīng)元(mirror neuron)會被激發(fā)。當(dāng)我們看到其他動物在走動時,同樣是這些神經(jīng)細(xì)胞在活動,神經(jīng)學(xué)家懷疑它們與學(xué)習(xí)有關(guān),這種學(xué)習(xí)通過模仿的方式。鏡像神經(jīng)元才不管是一個蠟像,還是一個遙控靶機。具有自主性的機器人激發(fā)這些神經(jīng)元,欺騙人的大腦把一個機械設(shè)備當(dāng)作活的東西。
然而,就像人與機器人互動的許多方面,這種全面影響尚不清楚??苹米骷铱赡芑艘粋€半世紀(jì)的從理論上說明人與機器人生活的長期影響,但科學(xué)研究只是剛剛開始。雖然人機交互技術(shù)的領(lǐng)域正在做有關(guān)的數(shù)據(jù)收集工作和探究其原則,要得出堅實的結(jié)論還是不可能的,或者至少是不負(fù)責(zé)任的。就以這些鏡像神經(jīng)元為例,神經(jīng)科學(xué)家可以看到它們的運動,但是這些神經(jīng)元的確切目仍然在爭論中。
有關(guān)大腦對機器人的神秘反應(yīng)的另一個更經(jīng)常被引用的的例子是通常被稱為“詭異谷(the uncanny valley)”的假說,換一種說法。就是“機器人令人毛骨悚然”?!霸幃惞取崩碚撌窃?970由日本著名機器人專家森政弘(Masahiro Mori)在一篇論文中提出的,“詭異谷”描繪了一個圖表,顯示人類對人形機器人感覺比較熟悉且可能比較舒適。直到這個機器人變得與人類太相像,引發(fā)與看到死亡或不健康的人時會產(chǎn)生的同樣的心理警報;在這一點,圖表直線下降,然后會再次上升,與看到一個真人的反應(yīng)一樣,或者從理論上講,一個完美的機器人。這是否是我們“戰(zhàn)斗或逃跑”本能的一種變形,或者是一種更復(fù)雜的東西,森政弘的用很重要——“詭異谷”不是赤裸裸的恐懼,而是一種混雜著熟悉和恐懼、吸引和排斥的情感。這是一個認(rèn)知失調(diào)的時刻,原因是大腦不能一時反應(yīng)不過來,就像人遇到了會說話的圣誕樹或一具發(fā)笑的尸體。
以學(xué)術(shù)標(biāo)準(zhǔn),這是令人回味、令人興奮的東西,它描述的似乎是一種普遍現(xiàn)象。奈克西令人不安的YouTube視頻,看起來就是活生生的例子,并且奈克西還有大量令人感到不安的同伴。日本制造的社交機器人CB2(Child-robot with Biomimetic Body,兒童仿生機器人)具有真實感很強的眼睛,兒童的身材比例和灰色皮膚,幾乎所有的博客和記者都認(rèn)為對它感到恐懼。而另一個日本機器人科比安(KOBIAN),具有豐富的臉部表情、突出的眉毛,一對寶石紅的完整的嘴唇。它也被立即被西方媒體打上“毛骨悚然”的標(biāo)記。這些社交機器人的設(shè)計者原本是想避免“詭異谷”效應(yīng)——亞洲實驗室堆滿了逼真的機器人,都深陷于森政弘永恒的“詭異谷”中。
但正如經(jīng)嚴(yán)格分析,《終結(jié)者》的情景并不可能出現(xiàn),“詭異谷“理論也并非完美無暇。如果僅僅憑那些YouTube上的機器人的視頻,你會以為當(dāng)你真的見到奈克西時,會讓你毛發(fā)豎起。但實際上大多數(shù)人見到奈克西,都會喜歡上它。柏林介紹說:“我們做了一些非常實際的事情,使我們的機器人不會那么可怕?!蹦慰宋鞒晒Φ拿卦E,很明顯對于其它機器人來說也不是很難做到。這個秘決在于一本書名為《迪斯尼動畫原則》的略微有點破損的精裝書,這是個人機器人小組人員的必讀書目。柏林說:“我們是創(chuàng)造現(xiàn)實中的動畫人物?!毕裨S多動畫人物,奈克西的外表和動作是對人類的進行了夸大。當(dāng)它伸手去拿一個物體時,它的手臂不是非常精確地直直地伸向目標(biāo)。它會浪費時間和資源,所先調(diào)整好其眼睛、頭部和身體,然后手慢騰騰地以弧形運動的方式伸向目標(biāo)。奈克西在物理上是低效的,但確深諳社會學(xué)。
機器人小組是如何做到這一點的?在與數(shù)百名人群互動中,包括大波士頓區(qū)三個老人中心的居民,研究人員聲稱,沒有人尖叫著逃離奈克西。恰恰相反:許多老年人試圖與這個機器人握手,或擁抱它。至少有1人還吻了它。“它以這種非常社交化的方式與人們互動,所以人們以人際交往的方式與其交往,把它視為一個社會個體,而不是把它當(dāng)作一個機械。個人機器小組的主管辛西婭·布雷西亞(Cynthia Breazeal)說?!霸谀慰宋鞯难芯恐?,我們已經(jīng)顯示,如果你讓機器人以已知的加強信任和了解的方式表現(xiàn)和移動,人們就會以同樣的方式進行反應(yīng)。你在按下同樣的按鈕?!?br>
這一原則也被證明同樣適用于CB2和科比安。這兩個項目的研究負(fù)責(zé)人稱,網(wǎng)絡(luò)和媒體上對他們機器人的擔(dān)憂在現(xiàn)實中從來沒有出現(xiàn),根據(jù)大阪大學(xué)教授溙镲∕inoru Asada)教授的說法,實際中每個人見到CB2都喜歡它,除了一位泰國公主。一家日本報社組織一群老年人訪問科比安。他們“非常高興和感動?!?早稻田大學(xué)機械工程教授高西(Atsuo Takanishi)說,“好像機器人真的有感情?!?br>
即使“詭異谷”的曲線最終變得更為平滑,這很容易通過與機器人的接觸來實現(xiàn),奈克西和其它機器人的成功提出了一個更深刻的問題:為什么我們會在本能上如此討厭機器人?
“事實證明,人類在精神上很容易產(chǎn)生依賴性。我們特別渴望交往。”麻省理工學(xué)院技術(shù)與人格研究項目主管謝里·特克爾說,“難道我們真的想對此加以利用?”特克爾對人與機器人之間能夠形成的強有力的關(guān)系進行了研究,例如帕羅(Paro),是日本研制的安撫型機器人,這是一只非??蓯鄣臋C器小海豹,它會在你的懷里耍嬌,被撫摸時會發(fā)出咕咕的叫聲,通過吮吸一個帶電線的安撫奶嘴對它充電。她還記錄了帕羅的智力甚至是情感,這些來自于與帕羅一起玩的小朋友的報告。這個安撫型機器人,充其量不過是一只電子填充動物玩具,但它對老年人的影響進一步引起了特克爾的關(guān)注?!罢埜嬖V我一下,為什么我需要一個機器人嬰兒保姆?”特克爾問道:“我們怎樣回答孩子這個問題?我們怎樣回答老年人這個問題?我們正在忙于發(fā)電子郵件而沒時間去照顧那些需要照顧的人?”
在特克爾這樣的研究人員看來,社交機器人的廣泛使用不可避免地存在風(fēng)險。當(dāng)一些分析家估計到2015年將出現(xiàn)一個150億美元的個人機器人市場,對情感機器人(expressive machines)的需求預(yù)計將更驚人。特克爾辯論的核心——本質(zhì)上是呼吁謹(jǐn)慎行事——是害怕將人類交往完全托付于機器人。更令人值得警惕的是機器人可能陪伴的對象,從人手不足的學(xué)校的兒童,到患有老年癡呆癥的老人。用大量的機器人來監(jiān)督青少年和看護老人,與雇用數(shù)千名教師和同住護工相比,可能在費用上要節(jié)省許多。但是第一代在機器人作為權(quán)威人物和朋友之下長大的青少年會怎樣處理不可預(yù)知的人際間的關(guān)系?沒有更多的數(shù)據(jù),一個本意良好的應(yīng)對人力短缺的方法就會變成用發(fā)放新的和未經(jīng)考驗的抗抑郁藥來解決倫理和法律范圍內(nèi)的問題。
一個可行的辦法是讓人重新處于主動地位,而把社交機器人作為木偶來使用。麻省理工學(xué)院個人機器人小組的另一個機器人 Huggable是一個泰迪玩具熊機器人,它的動作可以通過網(wǎng)絡(luò)瀏覽器來控制。研究人員計劃用它來安慰住院兒童,家庭成員或醫(yī)生將對它進行遙控操作。它實際上有一個泰迪玩具熊的骨架,而原來泰迪玩具熊毛茸茸的皮毛,被一個布滿壓力和觸摸感應(yīng)器的表皮取代。用一操作的電腦上有一個簡單的命令菜單,可以命令其抬起或放一手臂,或者轉(zhuǎn)動其頭部。Huggable上面的攝影機可以將周圍的情形傳送到電腦上,讓操作者進行觀察。
目前Huggable并沒有自己的個性。它是一個高科技的傳聲器,傳送操縱者的聲音,而不是一個完全的社交機器人。在最近發(fā)表的一份研究報告,描述了日本機器人玩具的“父母”模式的危險和用機器人作保姆的誘惑。英國謝菲爾德大學(xué)機器人技術(shù)和人工智能教授諾埃爾·夏基把Huggable的缺乏自主性作為其賣點?!斑@樣的機器人,沒有引起對具有自主性的機器人提供的專有的或接近專有的護理那樣的道德上的關(guān)注?!彼c合著者寫道。半自主性的機器人可能不會減少支出,但它比起社交機器人可能更為安全。
人類是否要為機器人制定道德規(guī)范 人類對機器人一直存在的恐懼感尚未消除,現(xiàn)在又增加了夏基和特克爾的悲觀論調(diào)。然而,幾乎每個研究員都同意這樣一個觀點:我們需要為機器人制定道德規(guī)范,我們現(xiàn)在就需要它們。并不是因為機器人缺乏道德指南,而是因為它們的創(chuàng)造者現(xiàn)在是在道德和法律真空中操作?!爱?dāng)一個橋梁倒下,我們有一套早已準(zhǔn)備好的大致分?jǐn)傌?zé)任的指導(dǎo)方針。”布魯金斯學(xué)會的高級研究員和《網(wǎng)絡(luò)戰(zhàn)爭》的作者P.W. 辛格說,“現(xiàn)在我們有一個等同于橋梁的東西,它可以在全世界站立、移動和運行,但當(dāng)它倒下來時,我們沒有辦法搞清楚誰應(yīng)該對此負(fù)責(zé)任。”
比起充滿了猜測和缺少試驗數(shù)據(jù)的辯論,一套高明的道德準(zhǔn)則可能更能起保險作用?!拔谊P(guān)心的并不是機器人明顯令人討厭的因素,而是如果這個機器人出錯呢?”克里斯·埃利奧特(Chris Elliott)說,他是一個系統(tǒng)工程師和審判律師,最近促成了英國皇家科學(xué)院起草一份關(guān)于自治系統(tǒng)的報告,“這是人們將會犯錯的地方?!鄙踔良词股缃粰C器人大規(guī)模的心理影響機器人結(jié)果是零,埃利奧特?fù)?dān)心一步出錯以及相應(yīng)的反彈,可能會使數(shù)年的進步反轉(zhuǎn)。想象一下近年有關(guān)的媒體報道,首次出現(xiàn)病人被一個機器人外科醫(yī)生殺死,一輛自動駕駛的汽車迎頭撞上一輛校車,及機器人有板有眼地與老年癡呆癥患者扭打的視頻。埃利奧特說:“法律是遠(yuǎn)遠(yuǎn)落后的。因為法律的不確定性,我們將達到這樣的地步,我們會害怕部署新的有益的機器人。”
這些準(zhǔn)則的確切性質(zhì)仍然是一個猜測。有一個觀點是每個機器人類或模型只限定于一個特定的任務(wù)——機器人護士可以訪問與一定年齡范圍的病人,或者老年人看護機器人可以提防危險的摔跤,但是不能私下里談話和讓人依偎。從長遠(yuǎn)來看,大衛(wèi)·漢森認(rèn)為應(yīng)明確規(guī)定智能機器人與人合作的程序,所以當(dāng)機器人能自我發(fā)展,具有他所謂的“智慧”后,能保證它們不傷害我們。辛西婭·布雷齊爾的立場更強硬:“現(xiàn)在絕對是作出決定的時候?!彼f,“在這些機器人與脆弱人群接觸前,人類應(yīng)該進行一次認(rèn)真的對話?!?br>
哲學(xué)家、倫理學(xué)家、律師和機器人專家也僅僅是開始了豐富阿西莫夫的早期機器人倫理規(guī)則的艱苦工作。同時,如果有一種方法化解我們對機器人長期的、不合理的恐懼和阻止任何勒德分子強烈反對的風(fēng)險,就可能要依靠象奈克西這樣的機器人。
來源: 大眾科學(xué)