The Human Black-Box:
The Illusionof Understanding Human Better Than Algorithmic Decision-Making
在茫茫的大數(shù)據(jù)海洋里,你發(fā)現(xiàn)了這篇推送。
——這篇推送是來(lái)自微信的“個(gè)性推薦”嗎?
在互聯(lián)網(wǎng)世界的每個(gè)角落,在那些永遠(yuǎn)拉不到底的文字流、圖像流音頻流、視頻流的背后,“個(gè)性推薦”的算法永不歇止、無(wú)處不在。
你有沒(méi)有好奇過(guò),“個(gè)性推薦”的算法如何找到你的偏好?
你有沒(méi)有懷疑過(guò),“個(gè)性推薦”是否準(zhǔn)確?那些被“精準(zhǔn)投送”的內(nèi)容,真的是我們想看到的嗎?如果有關(guān)領(lǐng)域的人類專家和大數(shù)據(jù)算法分別為你尋找一篇“今日最匹配的推送”,你更了解誰(shuí)的選擇方式?你更愿意相信誰(shuí)的選擇方式?
你有沒(méi)有思考過(guò),“個(gè)性推薦”的算法是那樣模糊的、說(shuō)不清道不明的存在,我們可能一生都要稀里糊涂地活在這種算法里,并且成為它所學(xué)習(xí)的數(shù)據(jù)的一部分...
“我只是“以為自己很懂人類”
社交媒體上常見(jiàn)的“個(gè)性推薦”只是算法決策的一個(gè)例子。在當(dāng)代社會(huì)生活中,算法決策已經(jīng)被廣泛應(yīng)用于諸多領(lǐng)域,甚至成為了某些重要決策的關(guān)鍵參考依據(jù)(例如招聘、疾病診斷、司法判決...)。
與此同時(shí),算法的迅速發(fā)展也帶來(lái)了相應(yīng)的的問(wèn)題。算法具有“黑箱”性質(zhì),其決策的原理難以得到足夠清晰和充分的解釋,因而不被許多人所理解。對(duì)此,各國(guó)政府以及相關(guān)領(lǐng)域的專家正在進(jìn)行持久的討論:是否有必要向用戶公開(kāi)解釋算法的工作原理?對(duì)于算法決策的過(guò)程,人們是否有保持知情同意的權(quán)利?
“算法”決策的透明度得到了廣泛的探討,而我們卻忽略了其他決策者——人類的存在。我們對(duì)人類決策透明度的要求似乎遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)到對(duì)算法的高度。例如,我們通常不會(huì)要求醫(yī)生對(duì)作出診斷的過(guò)程進(jìn)行外顯的解釋,或者在企業(yè)招聘時(shí)要求面試官明確地說(shuō)出自己作出錄用決定的心路歷程...是什么讓人們覺(jué)得應(yīng)該“區(qū)別對(duì)待”算法和人類呢?
2022年2月發(fā)表在《實(shí)驗(yàn)心理學(xué):總論》(Journal of Experimental Psychology: General)上的一項(xiàng)研究指出了這一現(xiàn)象。研究者解釋道,這種“區(qū)別對(duì)待”可能是出于一種解釋性深度錯(cuò)覺(jué) (the illusion of explanatory depth, IOED)——誤以為自己已經(jīng)理解了事物的原理,“但實(shí)際上根本沒(méi)懂”。
研究者指出,對(duì)于人腦還是算法的決策過(guò)程,都有可能存在IOED效應(yīng)。當(dāng)決策者是人類而不是算法時(shí),人們對(duì)決策過(guò)程的IOED更強(qiáng),這是由于投射的作用。
“投射 帶來(lái)的錯(cuò)覺(jué)
廣泛的研究證據(jù)表明,我們總是不知不覺(jué)地陷入一種“自服偏差”,把自己的想法投射給他人,認(rèn)為他人和自己的想法是一致的。事實(shí)上,“其他人類的大腦“對(duì)我們來(lái)說(shuō)也是不可洞察的黑箱,他人未必和我們持有一致的想法。
人們更傾向于把自己對(duì)決策的理解投射到其他人類而非算法上。研究者認(rèn)為,原因之一就是投射者(“我”)和投射目標(biāo)(決策者)的相似性。由于我們和專家有著共同的“人類”身份,而算法則是相對(duì)陌生的存在,因而人們更容易把自己的想法投射給和自己更加相似的專家,從而形成了“懂人類>懂算法”的錯(cuò)覺(jué)。
| 研究設(shè)計(jì)
研究1A-C的目的是在三個(gè)算法決策的應(yīng)用領(lǐng)域當(dāng)中,驗(yàn)證是否普遍存在“懂人類>懂算法”的錯(cuò)覺(jué);研究2-4則探索投射是否是造成這種錯(cuò)覺(jué)的原因;進(jìn)一步地,研究4探討了“懂人類>懂算法”的錯(cuò)覺(jué)對(duì)于決策信任度的影響。
01
“懂人類>懂算法”的錯(cuò)覺(jué)存在嗎?
研究1(A-C)采用被試間設(shè)計(jì),參與者接受2(人類決策組/算法決策組)x2(解釋組/不解釋組)隨機(jī)分配,閱讀對(duì)應(yīng)的決策情境。實(shí)驗(yàn)1A、1B、1C的情境分別是決策者(人類專家/算法)對(duì)“庭審被告再犯風(fēng)險(xiǎn)、視頻面試選擇求職者、基于MRI圖像診斷疾病”的決策評(píng)估。
讓參與者對(duì)決策過(guò)程做出解釋,能夠讓他們更好地意識(shí)到自己對(duì)決策的理解不如自己所想的那樣充分,因?yàn)樗麄冇袡C(jī)會(huì)發(fā)現(xiàn)自己仍然存在解釋不清的地方。解釋組的參與者被要求先用文字來(lái)解釋決策者(人類專家/算法)做出決策的過(guò)程,再為對(duì)人類專家/算法決策的理解程度打分;不解釋組的參與者則先為對(duì)決策的理解程度打分,再進(jìn)行解釋,故不解釋組的理解分?jǐn)?shù)不受到解釋的影響。
圖1 研究1A-C的ANOVA結(jié)果均表明,解釋 x 決策者 交互效應(yīng)顯著。(誤差棒代表1個(gè)標(biāo)準(zhǔn)差)。
在研究1A-C的三種決策情境當(dāng)中,都發(fā)現(xiàn)了預(yù)測(cè)的“懂人類>懂算法”的錯(cuò)覺(jué)。人們認(rèn)為自己對(duì)人類決策的理解程度大于算法決策,而二者理解分?jǐn)?shù)的差異在解釋組更小,在不解釋組更大。解釋的操縱減弱了參與者“懂人類>懂算法”的評(píng)價(jià),這說(shuō)明這種評(píng)價(jià)差異是一種錯(cuò)覺(jué)。
02
投射使人產(chǎn)生錯(cuò)覺(jué)嗎?
研究2操縱參與者的自我理解,進(jìn)而驗(yàn)證投射是否在這一錯(cuò)覺(jué)中起到作用。
參與者接受2(人類決策組/算法決策組)x2(解釋前/解釋后)x2(高自我理解組/低自我理解組)隨機(jī)分配,其中解釋前/解釋后是被試內(nèi)設(shè)計(jì),其余為被試間設(shè)計(jì)。決策情境同研究1A——由人類法官/算法評(píng)估被告的再犯風(fēng)險(xiǎn)。
1
自我理解操縱
高自我理解組的參與者被告知“評(píng)價(jià)被告再犯的風(fēng)險(xiǎn)對(duì)于普通人來(lái)說(shuō)是件非常容易的事情”;相反,低自我理解組則被告知“評(píng)價(jià)被告再犯的風(fēng)險(xiǎn)對(duì)于普通人來(lái)說(shuō)是件非常困難的事情”。隨后,參與者對(duì)自我理解(“我有多理解自己做出決策的過(guò)程”)進(jìn)行評(píng)分。
2
解釋前
參與者第一次對(duì)法官/算法決策的理解程度打分。根據(jù)投射假設(shè),上述兩種高低水平的自我理解應(yīng)該被更多地投射到人類決策者,而非算法上;也就是說(shuō),人們對(duì)法官?zèng)Q策的理解比算法決策更接近于被操縱的自我理解水平。
3
解釋后
所有參與者都被要求文字解釋人類/算法的決策過(guò)程,解釋結(jié)束后第二次對(duì)人類/算法決策的理解程度打分。
圖2 研究2的ANOVA結(jié)果表明,解釋 x 決策者 x 自我理解 交互效應(yīng)顯著。(誤差棒代表1個(gè)標(biāo)準(zhǔn)差)
差異檢驗(yàn)的結(jié)果驗(yàn)證了研究假設(shè),高自我理解組比低自我理解組表現(xiàn)出更強(qiáng)的“懂人類>懂算法”的錯(cuò)覺(jué)。
進(jìn)一步分析表明,參與者自我理解與他們解釋前對(duì)人類決策的理解程度呈正相關(guān)(r=.760),高于與對(duì)算法決策的理解程度的正相關(guān)(r=.478)。這進(jìn)一步驗(yàn)證了投射在錯(cuò)覺(jué)形成中的作用。
03
基于相似性的投射錯(cuò)覺(jué)
研究3通過(guò)操縱參與者與目標(biāo)的相似度,進(jìn)一步探索投射的作用方式。如果人們被告知自己和專家并不相像,這可能會(huì)減少自我投射的影響,進(jìn)而減弱“懂人類>懂算法”的錯(cuò)覺(jué)。
參與者接受2(人類決策組/算法決策組)x2(解釋前/解釋后)x2(控制組/不相似組)隨機(jī)分配,其中解釋前/解釋后是被試內(nèi)設(shè)計(jì),其余為被試間設(shè)計(jì)。決策情境同研究1C——由人類放射學(xué)家/算法根據(jù)MRI圖像診斷疾病。
不相似組被要求想象自己和人類放射學(xué)家/算法的差異,隨后對(duì)放射學(xué)家/算法決策的理解程度打分;控制組直接對(duì)放射學(xué)家/算法決策的理解程度打分。
圖3 研究3的ANOVA結(jié)果表明,解釋 x 決策者 x 相似性 交互效應(yīng)顯著。(誤差棒代表1個(gè)標(biāo)準(zhǔn)差)
與不相似組相比,控制組表現(xiàn)出“懂人類>懂算法”的錯(cuò)覺(jué)更強(qiáng)。這證實(shí)了人們所感知的自己與人類決策者之間的相似性對(duì)于錯(cuò)覺(jué)形成的作用。
研究4作為補(bǔ)充實(shí)驗(yàn),證實(shí)了“懂人類>懂算法”這一錯(cuò)覺(jué)的后效——這一錯(cuò)覺(jué)使人們更信任人類而非算法所做的決策。
“那些 研究者想說(shuō)的
人們之所以不愿意相信算法,可能不僅僅因?yàn)槿藗儾涣私?strong>算法的工作機(jī)制,而且因?yàn)槿藗儗?duì)于其他人類的工作機(jī)制產(chǎn)生了理解的錯(cuò)覺(jué)。這種“理解人類”的錯(cuò)覺(jué)未必是全然正面的,也有可能帶著對(duì)人類的刻板印象或偏見(jiàn),比如人們可能會(huì)認(rèn)為“人類比機(jī)器更有可能做出任人唯親的選擇”。
研究者指出,該研究的探索范圍僅僅局限在參與者對(duì)決策過(guò)程缺乏已知信息的情況下。盡管在大多數(shù)時(shí)候,人們的確對(duì)這些決策應(yīng)用領(lǐng)域所知甚少;但更多關(guān)于決策者的客觀信息可能會(huì)對(duì)“懂人類>懂算法”的錯(cuò)覺(jué)產(chǎn)生不同的影響,進(jìn)而影響公眾對(duì)于算法決策的接受程度。
編譯|家養(yǎng)蛋糕
參考文獻(xiàn)
Bonezzi, Ostinelli, M., & Melzner, J. (2022). The human black-box: The illusion of understanding human better than algorithmic decision-making. Journal of Experimental Psychology. General. https://doi.org/10.1037/xge0001181
Young, E. (2022, March 23). Decisions made by human experts can be as inscrutable as those made by algorithms — but we don’t realise it. BPS Research Digest.
https://digest.bps.org.uk/2022/03/23/decisions-made-by-human-experts-can-be-as-inscrutable-as-those-made-by-algorithms-but-we-dont-realise-it/
聯(lián)系客服