即使AI系統(tǒng)并非完全可解釋,我們也可以利用AI系統(tǒng)來提高決策的透明度。對(duì)人類決策的解釋,也許不能準(zhǔn)確反映出影響人類決策的因素或無意識(shí)偏見。實(shí)際上,即使 AI 系統(tǒng)所做出的決策并不能被完全解釋,但相比理解人類如何做出類似決策,我們也可以更好地理解AI系統(tǒng)在整體上是如何做出決策的。而且,AI的最大價(jià)值在于可以在復(fù)雜情形中發(fā)現(xiàn)、識(shí)別超出人類理解的模式( pattern ),因此根據(jù)定義,這樣的AI系統(tǒng)不會(huì)以人類可以理解的方式具有完全的可解釋性。就像取得駕照,相信汽車可以安全駕駛,并不需要人人都成為專業(yè)的汽車工程師一樣,當(dāng)使用AI系統(tǒng)時(shí),解釋并不總是必須的。長(zhǎng)遠(yuǎn)來看,政府、社會(huì)、企業(yè)、行業(yè)、科研機(jī)構(gòu)、用戶等主體需要共同探索科學(xué)合理的可解釋AI落地方案及相關(guān)的保障與防護(hù)機(jī)制,推動(dòng)科技問雪。
聯(lián)系客服