国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
國(guó)內(nèi)首份可解釋AI報(bào)告!值得收藏!
紅包:2022攜手共進(jìn)

打開一個(gè)黑盒子,黑盒子變成了白盒子,但是白盒子中又出現(xiàn)了更多的黑盒子,探索可解釋AI是一條長(zhǎng)遠(yuǎn)的道路。
作者 | 王曄
編輯 | 陳彩嫻
在剛剛過去的2021年,人工智能領(lǐng)域最熱門的新興話題之一,就是「可信AI」。
2021年6月,螞蟻集團(tuán)在全球人工智能大會(huì)上首次公布「可信AI」技術(shù)架構(gòu)體系;7月,京東探索研究院又在世界人工智能大會(huì)上發(fā)布中國(guó)首個(gè)《可信人工智能白皮書》,且兩家企業(yè)都將隱私保護(hù)、魯棒性/穩(wěn)定性、可解釋性、公平性作為「可信AI」的四大基本原則。
從工業(yè)界到學(xué)術(shù)界,「可信AI」的身影頻頻出現(xiàn)。比如,此前 AI 科技評(píng)論也曾報(bào)道過哥倫比亞大學(xué)數(shù)據(jù)科學(xué)研究院主任周以真教授在《ACM通訊》上發(fā)表的「可信AI」一文,其中探討了從「可信計(jì)算」到「可信人工智能」的歷程與問題,也引發(fā)不少關(guān)注。
在國(guó)內(nèi),人工智能應(yīng)用落地的相關(guān)議題,已有風(fēng)起云涌之勢(shì)。越來越多的科技企業(yè)開始注重對(duì)人工智能的「約束」,從倫理層面、組織結(jié)構(gòu)層面,如商湯設(shè)立倫理委員會(huì)。但總的來說,當(dāng)前人工智能算法的缺陷,主要攻關(guān)難度還是在于技術(shù)層面,即常說的「魯棒性/穩(wěn)健性」與「可解釋性」。
不久前,1 月 11 日,騰訊也于線上舉辦的科技向善創(chuàng)新周「透明可解釋 AI 論壇」上正式發(fā)布了《可解釋 AI 發(fā)展報(bào)告 2022——打開算法黑箱的理念與實(shí)踐》。這一報(bào)告由騰訊研究院、騰訊天衍實(shí)驗(yàn)室、騰訊優(yōu)圖、Tencent AI Lab 等機(jī)構(gòu)聯(lián)合完成,一經(jīng)發(fā)布,再次引發(fā)人們對(duì)可解釋AI的劇烈討論。
1
人們?yōu)槭裁搓P(guān)注「可解釋AI」?
可解釋人工智能 (XAI) 是一套流程和方法,可使人類用戶能夠理解和信任機(jī)器學(xué)習(xí)算法所產(chǎn)生的結(jié)果和輸出。
AI 技術(shù)的「不可信」逐漸成為AI大規(guī)模落地的一大阻礙。在將 AI 模型投入生產(chǎn)時(shí),可解釋 AI 對(duì)于組織建立信任和信心至關(guān)重要。AI可解釋性也有助于組織采用負(fù)責(zé)任的方法進(jìn)行 AI 開發(fā)。近幾年,互聯(lián)網(wǎng)科技大廠對(duì)可解釋性AI的討論熱度居高不下。
值得一提的是,對(duì)可解釋 AI 的研究也逐漸蔓延到了學(xué)術(shù)界。隨著社會(huì)各界對(duì)人工智能可信度的不斷關(guān)注,安全可信的人工智能技術(shù)已成為研究領(lǐng)域的熱點(diǎn)。可解釋性是研究的焦點(diǎn)主要之一,其它焦點(diǎn)還包括人工智能系統(tǒng)穩(wěn)定性、隱私保護(hù)、公平性等。
隨著AI越來越先進(jìn),人們?cè)郊雨P(guān)注算法究竟是如何得出結(jié)果的,計(jì)算過程變成了無法解釋的「黑盒子」。這些黑盒子模型在數(shù)據(jù)的基礎(chǔ)上直接創(chuàng)建而來,AI算法是如何得出特定結(jié)果的?創(chuàng)建算法的工程師或數(shù)據(jù)科學(xué)家對(duì)此也非常困惑。
「黑盒子」這一概念最早由西方學(xué)者提出,是指從用戶的觀點(diǎn)來看一個(gè)器件或產(chǎn)品時(shí),并不關(guān)心其內(nèi)部構(gòu)造和原理,而只關(guān)心它的功能及如何使用這些功能。
其實(shí),不僅是AI系統(tǒng)中經(jīng)常出現(xiàn)「黑盒子」算法,對(duì)這種思路的運(yùn)用由來已久。中國(guó)文化中沒有「黑盒子」這個(gè)術(shù)語,但中華民族傳統(tǒng)醫(yī)學(xué)中醫(yī)的理論是名副其實(shí)的「黑盒子」理論。
最早沒有醫(yī)學(xué)影像等技術(shù),人體就相當(dāng)于一個(gè)不可拆分的黑盒子,而中醫(yī)從外入手,運(yùn)用「望聞問切」的方法,間接地探出病因,再對(duì)癥下藥,逐漸調(diào)理,使病人的內(nèi)部實(shí)現(xiàn)平衡統(tǒng)一,得以治病。
同樣是在醫(yī)學(xué)場(chǎng)景的運(yùn)用,使用人工智能卻不同于使用中醫(yī),人工智能的使用需要建立在數(shù)據(jù)之上,這就需要大量的病人診斷資料。但即使有了數(shù)據(jù),哪怕是同一種疾病,由于每個(gè)人的情況不同,AI也可能做出錯(cuò)誤判斷。因此,對(duì)AI「黑盒子」的破解更為急迫。
自動(dòng)駕駛汽車失控悲劇頻頻發(fā)生;使用AI面部識(shí)別技術(shù)檢測(cè)馬路上的行人,監(jiān)測(cè)亂穿馬路現(xiàn)象,卻誤將廣告牌上的人物圖片識(shí)別為行人……人工智能的這些負(fù)面影響,使人們不得不對(duì)其提高警惕。
AI 作為一項(xiàng)技術(shù),在給人們帶來諸多便利,給社會(huì)帶來效益的同時(shí),難免成為一把雙刃劍。
2
騰訊發(fā)布國(guó)內(nèi)首份可解釋 AI 報(bào)告
許多科技公司,像谷歌、微軟、IBM、京東、螞蟻集團(tuán)、美團(tuán)等紛紛推出相應(yīng)舉措。
騰訊剛發(fā)布不久的《可解釋AI發(fā)展報(bào)告 2022——打開算法黑箱的理念與實(shí)踐》,正應(yīng)驗(yàn)了大廠治理 AI 的迫切性。
報(bào)告鏈接:https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu
報(bào)告總共分為五部分,主要內(nèi)容分別為可解釋 AI 的概述、發(fā)展趨勢(shì)、行業(yè)實(shí)踐、對(duì)未來發(fā)展的看法以及最后總結(jié)。
  • 可解釋 AI 的概述部分,主要概述了機(jī)器學(xué)習(xí)模型所面臨的可解釋性挑戰(zhàn),可解釋 AI 的意義,可解釋 AI 與透明度、問責(zé)制,以及可解釋 AI 局部和全局可解釋的兩個(gè)維度。
  • 可解釋 AI 發(fā)展趨勢(shì)部分,主要解釋了AI的透明性和可解釋性逐漸成為立法和監(jiān)管關(guān)注的焦點(diǎn),對(duì)政府公共部門使用的 AI 系統(tǒng)提出較高的透明度與可解釋性要求,對(duì)商業(yè)領(lǐng)域的AI系統(tǒng)在可解釋性方面避免作“一刀切”要求,行業(yè)積極探索可解釋AI的技術(shù)解決方案。
  • 在可解釋 AI 的行業(yè)實(shí)踐部分,主要介紹了谷歌模型卡片(Model Cards)機(jī)制,IBM 的 AI 事實(shí)清單(AI Fact Sheets)機(jī)制,微軟的數(shù)據(jù)集數(shù)據(jù)清單(datasheets for datasets)機(jī)制,其他可解釋性AI工具以及可解釋AI的騰訊實(shí)踐。
  • 在第四部分,主要講述了對(duì)可解釋AI未來發(fā)展的幾點(diǎn)看法,包括立法和監(jiān)督宜遵循基于風(fēng)險(xiǎn)的分級(jí)分類分場(chǎng)景治理思路;探索建立合理適度的、適應(yīng)不同行業(yè)與應(yīng)用場(chǎng)景的AI可解釋性標(biāo)準(zhǔn);探索可解釋的替代性機(jī)制,形成對(duì)AI算法的有效約束;引導(dǎo)、支持行業(yè)加強(qiáng)可解釋AI研究與落地,確??萍枷蛏?;增強(qiáng)社會(huì)公眾的算法素養(yǎng),探索人機(jī)協(xié)同的智能范式。
作為業(yè)內(nèi)首份AI報(bào)告,獲得學(xué)界和業(yè)界專家普遍一致好評(píng)。
在數(shù)據(jù)隱私保護(hù)一塊頗有耕耘的微眾銀行首席人工智能官楊強(qiáng)評(píng)價(jià):
「可解釋 AI 是一個(gè)龐雜的領(lǐng)域,這份報(bào)告起了一個(gè)非常好的頭,在這個(gè)基礎(chǔ)上需要開展長(zhǎng)期的研究?,F(xiàn)在的各種算法還無法在效率和可解釋性兩方面都達(dá)到很高的要求,需要根據(jù)不同需要進(jìn)行取舍。而且 AI 的可解釋性是一個(gè)長(zhǎng)期的問題,不會(huì)很快有一個(gè)通用的可解釋框架,可以在一些比較重要的領(lǐng)域先行探索解決方法,指明未來的發(fā)展方向?!?/span>
楊強(qiáng)教授十分關(guān)注數(shù)據(jù)隱私保護(hù)的內(nèi)容,近年來在國(guó)內(nèi)大力推舉強(qiáng)調(diào)具有「數(shù)據(jù)可用不可見」特征的聯(lián)邦學(xué)習(xí)技術(shù)的研究與應(yīng)用,促進(jìn)聯(lián)邦學(xué)習(xí)框架的開源與研究。去年3月,由微眾銀行發(fā)起制定的國(guó)內(nèi)首個(gè)聯(lián)邦學(xué)習(xí)標(biāo)準(zhǔn)正式通過 IEEE 認(rèn)證,構(gòu)成了國(guó)內(nèi)研究者對(duì)數(shù)據(jù)保護(hù)所做的諸多努力中的一環(huán)。
除了楊強(qiáng),時(shí)任南方科技大學(xué)計(jì)算機(jī)科學(xué)與工程系系主任、歷史上首位獲得神經(jīng)網(wǎng)絡(luò)最高獎(jiǎng)「IEEE Frank Rosenblatt Award」的華人學(xué)者姚新教授也對(duì)該報(bào)告進(jìn)行了附議。他談道:
「對(duì) AI 系統(tǒng)落地來說,透明性和可解釋性是必不可少的,研究前景非常好;但 AI 的透明性、可解釋性和性能之間存在固有的矛盾,一個(gè)可能的方向是根據(jù)不同的場(chǎng)景、可解釋的目的,尋找不同的折中方案,以此促進(jìn) AI 技術(shù)的落地?!?/span>
什么是「可信AI」?在去年的一次對(duì)話中,姚新教授也曾向 AI 科技評(píng)論分享過自己的看法。其中,他提出,檢驗(yàn)人工智能是否可信、可落地的一個(gè)最直接的方法,就是「研究人員敢不敢用」。比如 AI 制藥,如果負(fù)責(zé)項(xiàng)目的科研人員敢用,那用戶對(duì) AI 的信任度也會(huì)提高。但事實(shí)是如今的許多 AI 產(chǎn)品由于未充分完善,科研人員也是不敢用的。
由此可見,盡管各大廠開始重視 AI 的治理與落地安全性,但要從技術(shù)層面解決當(dāng)前人工智能模型可解釋性差、不夠穩(wěn)定的缺點(diǎn),還是需要做好打長(zhǎng)久戰(zhàn)役的準(zhǔn)備。
正如這份報(bào)告所指出:
即使AI系統(tǒng)并非完全可解釋,我們也可以利用AI系統(tǒng)來提高決策的透明度。對(duì)人類決策的解釋,也許不能準(zhǔn)確反映出影響人類決策的因素或無意識(shí)偏見。實(shí)際上,即使 AI 系統(tǒng)所做出的決策并不能被完全解釋,但相比理解人類如何做出類似決策,我們也可以更好地理解AI系統(tǒng)在整體上是如何做出決策的。而且,AI的最大價(jià)值在于可以在復(fù)雜情形中發(fā)現(xiàn)、識(shí)別超出人類理解的模式( pattern ),因此根據(jù)定義,這樣的AI系統(tǒng)不會(huì)以人類可以理解的方式具有完全的可解釋性。就像取得駕照,相信汽車可以安全駕駛,并不需要人人都成為專業(yè)的汽車工程師一樣,當(dāng)使用AI系統(tǒng)時(shí),解釋并不總是必須的。長(zhǎng)遠(yuǎn)來看,政府、社會(huì)、企業(yè)、行業(yè)、科研機(jī)構(gòu)、用戶等主體需要共同探索科學(xué)合理的可解釋AI落地方案及相關(guān)的保障與防護(hù)機(jī)制,推動(dòng)科技問雪。
只有各界共同正確審視人工智能研究出現(xiàn)的問題,并做出合理的解決方案,才能推動(dòng)AI技術(shù)持久穩(wěn)定的發(fā)展,可解釋AI未來發(fā)展如何,讓我們拭目以待!
參考鏈接:
1.https://mp.weixin.qq.com/s/6PpV1SD0L-cySfh4xIvx8Q
2.https://mp.weixin.qq.com/s/lUCBn5serDFyvIsllCm-vw
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
打開AI的黑盒子:模型可解釋性的現(xiàn)狀、應(yīng)用前景與挑戰(zhàn)
集大成者!可解釋人工智能(XAI)研究最新進(jìn)展萬字綜述論文: 概念體系機(jī)遇和挑戰(zhàn)—構(gòu)建負(fù)責(zé)任的人工智...
打開人工智能“黑盒” 華夏基金首席數(shù)據(jù)官參與撰寫書籍上市
鎖死 AI 基礎(chǔ)研究的兩個(gè)「智子」是什么?
算法“黑箱”下AI信任存疑,可解釋性AI迎來發(fā)展“元年”
CellPress | 醫(yī)學(xué)上人工智能的缺失
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服