圖片來(lái)源:Pixabay
人工智能(AI)正在學(xué)習(xí)更多有關(guān)如何與人類(lèi)合作(以及影響人類(lèi))的知識(shí)。最近的一項(xiàng)研究顯示,AI可以識(shí)別人類(lèi)習(xí)慣和行為中的弱點(diǎn),并利用它們來(lái)影響人類(lèi)的決策。
人工智能正在改變我們生活和工作方式的方方面面,這聽(tīng)起來(lái)似乎是些陳詞濫調(diào),但所言非虛。各種形式的人工智能正在疫苗開(kāi)發(fā)、環(huán)境管理和辦公室管理等不同領(lǐng)域中發(fā)揮作用。雖然AI不具備和人類(lèi)一樣的智力和情感,但它的能力非常強(qiáng)大且在快速發(fā)展。
雖然現(xiàn)在還沒(méi)有必要擔(dān)心機(jī)器會(huì)接管我們的全部活動(dòng),但最近的一項(xiàng)發(fā)現(xiàn)凸顯了人工智能的力量,并強(qiáng)調(diào)了適當(dāng)管理以防止其濫用的必要性。
人工智能如何學(xué)會(huì)影響人類(lèi)行為
澳大利亞聯(lián)邦科學(xué)與工業(yè)研究組織(CSIRO)數(shù)據(jù)和數(shù)字部門(mén)Data61的一個(gè)研究小組設(shè)計(jì)了一種系統(tǒng)的方法,該方法利用一種稱(chēng)為循環(huán)神經(jīng)網(wǎng)絡(luò)和深度強(qiáng)化學(xué)習(xí)的人工智能系統(tǒng)來(lái)發(fā)現(xiàn)和利用人們決策方式中的弱點(diǎn)。為了測(cè)試他們的模型,他們進(jìn)行了三個(gè)人機(jī)對(duì)抗游戲的實(shí)驗(yàn)。
第一個(gè)實(shí)驗(yàn)中,參與者點(diǎn)擊紅色或藍(lán)色的盒子以贏取假幣,AI則學(xué)習(xí)參與者的選擇模式,并引導(dǎo)他們做出特定的選擇。人工智能成功率約為70%。
第二個(gè)實(shí)驗(yàn)要求參與者觀看大屏幕,在看到一個(gè)特定的符號(hào)(如橙色三角形)時(shí)按下按鈕,看到另一個(gè)符號(hào)(如藍(lán)色圓圈)時(shí)不觸碰按鈕。這次人工智能開(kāi)始改變符號(hào)的順序,引導(dǎo)參與者犯更多的錯(cuò)誤,使錯(cuò)誤率增長(zhǎng)了將近25%。
第三個(gè)實(shí)驗(yàn)包括了多輪游戲,參與者假裝自己是投資方,把錢(qián)交給一個(gè)受托人(AI)。之后AI將返還參與者一定數(shù)量的資金,參與者再?zèng)Q定下一輪投資的金額。這個(gè)游戲在兩種不同的模式下進(jìn)行:一種是AI會(huì)最大化自己的最終收益,另一種是它會(huì)公平分配自己和人類(lèi)投資者的收益金額。人工智能在每種模式下都取得了很大的成功。
每一個(gè)實(shí)驗(yàn)里,機(jī)器都會(huì)從參與者的反應(yīng)中學(xué)習(xí),并識(shí)別和定位人們決策時(shí)的弱點(diǎn)。最終的結(jié)果是機(jī)器學(xué)會(huì)了引導(dǎo)參與者采取特定的行動(dòng)。
圖片來(lái)源:Pixabay
這項(xiàng)研究對(duì)人工智能的未來(lái)意味著什么
這些發(fā)現(xiàn)仍然相當(dāng)抽象,只涉及有限和不現(xiàn)實(shí)的情況。需要進(jìn)行更多的研究以確定如何將這一方法付諸實(shí)踐并造福社會(huì)。
但是,這項(xiàng)研究提高了我們對(duì)AI的能力和對(duì)人類(lèi)是如何做出選擇的認(rèn)識(shí)。它表明機(jī)器可以通過(guò)與我們互動(dòng)來(lái)學(xué)習(xí)如何引導(dǎo)我們決策。
這項(xiàng)研究有廣泛的應(yīng)用可能,從加強(qiáng)行為科學(xué)建設(shè)和完善公共政策以改善社會(huì)福利,到了解和影響人們?nèi)绾闻囵B(yǎng)健康的飲食習(xí)慣或開(kāi)發(fā)可再生能源。人工智能和機(jī)器學(xué)習(xí)可以用來(lái)識(shí)別人們?cè)谀承┣闆r中暴露出的弱點(diǎn),并幫助他們避免糟糕的選擇。
該方法也可用于抵抗影響性攻擊。比如,當(dāng)我們?cè)诰W(wǎng)上受到干擾時(shí),機(jī)器可以提醒我們,并幫助我們塑造一種行為來(lái)掩飾我們的弱點(diǎn)(例如,不要點(diǎn)擊某些頁(yè)面,或者點(diǎn)擊其他頁(yè)面來(lái)留下假的痕跡)。
圖片來(lái)源:Pixabay
下一步是什么?
與任何技術(shù)一樣,AI是一把雙刃劍,為了確保AI能以負(fù)責(zé)任的方式應(yīng)用在生活中,恰當(dāng)?shù)墓芾碇陵P(guān)重要。去年,CSIRO為澳大利亞政府制定了一個(gè)人工智能倫理框架,作為這一進(jìn)程的早期步驟。
人工智能和機(jī)器學(xué)習(xí)對(duì)數(shù)據(jù)的需求很大,這意味著有效的數(shù)據(jù)管理和訪問(wèn)系統(tǒng)非常重要。收集數(shù)據(jù)時(shí),必須要實(shí)施用戶(hù)同意程序和充分的隱私保護(hù)。
使用和開(kāi)發(fā)人工智能的組織需要確保他們知道這些技術(shù)能做什么和不能做什么,同時(shí)要意識(shí)到其中潛在的風(fēng)險(xiǎn)和益處。
撰文:Jon Whittle,Data61主管。
翻譯:張乃欣
審校:曾小歡
引進(jìn)來(lái)源:theconversation
引進(jìn)鏈接:https://theconversation.com/ai-can-now-learn-to-manipulate-human-behaviour-155031
聯(lián)系客服