国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
怎樣應對人工智能帶來的倫理問題
人工智能的持續(xù)進步和廣泛應用帶來的好處將是巨大的。但是,為了讓人工智能真正有益于人類社會,我們也不能忽視人工智能背后的倫理問題。現(xiàn)在的人工智能界更多是工程師在參與,缺乏哲學、倫理學、法學等其他社會學科的參與,未來跨學科的人工智能倫理測試需要加強研究。

  人工智能時代加速到來,算法決策興起

  第三次AI(人工智能,以下簡稱AI)浪潮已經(jīng)開啟。在技術層面,有算法的進步。當1956年人工智能開始起步的時候,人們更多是在說人工智能;在第二次浪潮期間,機器學習成為主流;這一次則是深度學習,是能夠自我學習、自我編程的學習算法,可以用來解決更復雜的任務。此外,計算能力的提升,包括現(xiàn)在的量子計算機,以及越來越普遍的大數(shù)據(jù),對人工智能的作用和價值也非常大,使得更復雜的算法成為可能。在應用層面,從語音識別、機器翻譯到醫(yī)療診斷、自動駕駛,AI應用在不斷加深、不斷成熟,甚至已經(jīng)開始超越人類,引發(fā)人們關于失業(yè)的擔憂。同時也讓人們開始期待具有通用智能的終極算法。在商業(yè)層面,面對可預期的好處和利益,國內(nèi)外主流的互聯(lián)網(wǎng)公司如騰訊、谷歌等都開始向AI看齊,AI領域的創(chuàng)業(yè)和投資在如火如荼地進行著。全球已經(jīng)有超過1000家AI公司,市場規(guī)模增長空間是非常大的,未來八年內(nèi)將超過350億美元。

  在此背景下,各種互聯(lián)網(wǎng)服務中越來越多地看到人工智能的影子,人們?nèi)找嫔钤谒惴ㄖ?,算法決策開始介入甚至主導越來越多的人類社會事務。比如,人們在互聯(lián)網(wǎng)上獲取的內(nèi)容,諸如新聞、音樂、視頻、廣告等等,以及購買的商品,很多都是推薦引擎?zhèn)€性化推薦給用戶的,而不是有人在背后決策。再比如,在金融領域,算法可以決定是否給某個用戶發(fā)放貸款,以及具體的貸款額度。此外,一家美國投資公司早在幾年前就開始研發(fā)管理公司的AI系統(tǒng),招聘、投資、重大決策等公司事務都由這個AI系統(tǒng)來管理并決策。也許在未來,一家公司的成功不再主要依賴于擁有像喬布斯那樣偉大的CEO,而是一個足夠智能足夠強大的AI系統(tǒng)。更有甚者,英國、歐盟等都在大力推動人工智能技術在政務和民生方面的更深應用,政府服務不僅是數(shù)字化,而且是智能化。

  人工智能倫理問題日益凸顯

  人工智能的持續(xù)進步和廣泛應用帶來的好處將是巨大的。但是,為了讓AI真正有益于人類社會,我們也不能忽視AI背后的倫理問題。

  第一個是算法歧視??赡苋藗儠f,算法是一種數(shù)學表達,是很客觀的,不像人類那樣有各種偏見、情緒,容易受外部因素影響,怎么會產(chǎn)生歧視呢?之前的一些研究表明,法官在餓著肚子的時候,傾向于對犯罪人比較嚴厲,判刑也比較重,所以人們常說,正義取決于法官有沒有吃早餐。算法也正在帶來類似的歧視問題。比如,一些圖像識別軟件之前還將黑人錯誤地標記為“黑猩猩”或者“猿猴”。此外,2016年3月,微軟公司在美國的Twitter上上線的聊天機器人Tay在與網(wǎng)民互動過程中,成為了一個集性別歧視、種族歧視等于一身的“不良少女”。隨著算法決策越來越多,類似的歧視也會越來越多。而且,算法歧視會帶來危害。一方面,如果將算法應用在犯罪評估、信用貸款、雇傭評估等關切人身利益的場合,一旦產(chǎn)生歧視,必然危害個人權益。另一方面,深度學習是一個典型的“黑箱”算法,連設計者可能都不知道算法如何決策,要在系統(tǒng)中發(fā)現(xiàn)有沒有存在歧視和歧視根源,在技術上是比較困難的。

  為什么算法并不客觀,可能暗藏歧視?算法決策在很多時候其實就是一種預測,用過去的數(shù)據(jù)預測未來的趨勢。算法模型和數(shù)據(jù)輸入決定著預測的結果。因此,這兩個要素也就成為算法歧視的主要來源。一方面,算法在本質上是“以數(shù)學方式或者計算機代碼表達的意見”,包括其設計、目的、成功標準、數(shù)據(jù)使用等等都是設計者、開發(fā)者的主觀選擇,設計者和開發(fā)者可能將自己所懷抱的偏見嵌入算法系統(tǒng)。另一方面,數(shù)據(jù)的有效性、準確性,也會影響整個算法決策和預測的準確性。比如,數(shù)據(jù)是社會現(xiàn)實的反映,訓練數(shù)據(jù)本身可能是歧視性的,用這樣的數(shù)據(jù)訓練出來的AI系統(tǒng)自然也會帶上歧視的影子;再比如,數(shù)據(jù)可能是不正確、不完整或者過時的,帶來所謂的“垃圾進,垃圾出”的現(xiàn)象;更進一步,如果一個AI系統(tǒng)依賴多數(shù)學習,自然不能兼容少數(shù)族裔的利益。此外,算法歧視可能是具有自我學習和適應能力的算法在交互過程中習得的,AI系統(tǒng)在與現(xiàn)實世界交互過程中,可能沒法區(qū)別什么是歧視,什么不是歧視。

  更進一步,算法傾向于將歧視固化或者放大,使歧視自我長存于整個算法里面。算法決策是在用過去預測未來,而過去的歧視可能會在算法中得到鞏固并在未來得到加強,因為錯誤的輸入形成的錯誤輸出作為反饋,進一步加深了錯誤。最終,算法決策不僅僅會將過去的歧視做法代碼化,而且會創(chuàng)造自己的現(xiàn)實,形成一個“自我實現(xiàn)的歧視性反饋循環(huán)”。包括預測性警務、犯罪風險評估、信用評估等都存在類似問題。歸根到底,算法決策其實缺乏對未來的想象力,而人類社會的進步需要這樣的想象力。

  第二個是隱私憂慮。很多AI系統(tǒng),包括深度學習,都是大數(shù)據(jù)學習,需要大量的數(shù)據(jù)來訓練學習算法。數(shù)據(jù)已經(jīng)成了AI時代的“新石油”。這帶來新的隱私憂慮。一方面,如果在深度學習過程中使用大量的敏感數(shù)據(jù),這些數(shù)據(jù)可能會在后續(xù)被披露出去,對個人的隱私會產(chǎn)生影響。所以國外的AI研究人員已經(jīng)在提倡如何在深度學習過程中保護個人隱私。另一方面,考慮到各種服務之間大量交易數(shù)據(jù),數(shù)據(jù)流動不斷頻繁,數(shù)據(jù)成為新的流通物,可能削弱個人對其個人數(shù)據(jù)的控制和管理。當然,現(xiàn)在已經(jīng)有一些可以利用的工具來在AI時代加強隱私保護,諸如經(jīng)規(guī)劃的隱私、默認的隱私、個人數(shù)據(jù)管理工具、匿名化、假名化、差別化隱私、決策矩陣等等都是在不斷發(fā)展和完善的一些標準,值得在深度學習和AI產(chǎn)品設計中提倡。

  第三個是責任與安全?;艚?、施密特等之前都警惕強人工智能或者超人工智能可能威脅人類生存。但在具體層面,AI安全包括行為安全和人類控制。從阿西莫夫提出的機器人三定律到2017年阿西洛馬會議提出的23條人工智能原則,AI安全始終是人們關注的一個重點,美國、英國、歐盟等都在著力推進對自動駕駛汽車、智能機器人的安全監(jiān)管。此外,安全往往與責任相伴。如果自動駕駛汽車、智能機器人造成人身、財產(chǎn)損害,誰來承擔責任?如果按照現(xiàn)有的法律責任規(guī)則,因為系統(tǒng)是自主性很強的,它的開發(fā)者是難以預測的,包括黑箱的存在,很難解釋事故的原因,未來可能會產(chǎn)生責任鴻溝

  第四個是機器人權利,即如何界定AI的人道主義待遇。隨著自主智能機器人越來越強大,那么它們在人類社會到底應該扮演什么樣的角色呢?自主智能機器人到底在法律上是什么?自然人?法人?動物?物?我們可以虐待、折磨或者殺死機器人嗎?歐盟已經(jīng)在考慮要不要賦予智能機器人“電子人”的法律人格,具有權利義務并對其行為負責。這個問題未來值得更多探討。此外,越來越多的教育類、護理類、服務類的機器人在看護孩子、老人和病人,這些交互會對人的行為產(chǎn)生什么樣的影響,需要得到進一步研究。

  構建算法治理的內(nèi)外部約束機制

  一是合倫理的AI設計,即要將人類社會的法律、道德等規(guī)范和價值嵌入AI系統(tǒng)。這主要是電氣和電子工程師協(xié)會、英國等在提倡??梢苑秩絹韺崿F(xiàn)。第一步是發(fā)現(xiàn)需要嵌入AI系統(tǒng)的規(guī)范和價值,存在道德過載和價值位階的問題,即哪些價值優(yōu)先,哪些價值在后。第二步是將所發(fā)現(xiàn)的規(guī)范和價值加入AI系統(tǒng),需要方法論,有自上而下和自下而上兩種路徑。第三步是對已經(jīng)嵌入AI系統(tǒng)的規(guī)范和價值進行評估,看其是否和人類社會的相一致。一方面是使用者評估,需要建立對AI的信任,比如當AI系統(tǒng)的行為超出預期時,要向用戶解釋為什么這么做。另一方面是主管部門、行業(yè)組織等第三方評估,需要界定價值一致性和相符性標準,以及AI可信賴標準。

  但是需要解決兩個困境。其一是倫理困境。比如,在來不及剎車的情況下,如果自動駕駛汽車往前開就會把三個闖紅燈的人撞死,但如果轉向就會碰到障礙物使車上的五個人死亡。此時,車輛應當如何選擇?在面對類似電車困境的問題時,功利主義和絕對主義會給出不同的道德選擇,這種沖突在人類社會都是沒有解決的,在自動化的場景下也會遇到這樣的問題

  其二是價值對接的問題。現(xiàn)在的很多機器人都是單一目的的,掃地機器人就會一心一意地掃地,服務機器人就會一心一意給你去拿咖啡,諸如此類。但機器人的行為真的是我們?nèi)祟愊胍膯??這就產(chǎn)生了價值對接問題。就像Midas國王想要點石成金的技術,結果當他擁有這個法寶的時候,他碰到的所有東西包括食物都會變成金子,最后卻被活活餓死。為什么呢?因為這個法寶并沒有理解Midas國王的真正意圖,那么機器人會不會給我們?nèi)祟悗眍愃频那闆r呢?這個問題值得深思。所以有人提出來兼容人類的AI,包括三項原則,一是利他主義,即機器人的唯一目標是最大化人類價值的實現(xiàn);二是不確定性,即機器人一開始不確定人類價值是什么;三是考慮人類,即人類行為提供了關于人類價值的信息,從而幫助機器人確定什么是人類所希望的價值。

  二是在AI研發(fā)中貫徹倫理原則。一方面,針對AI研發(fā)活動,AI研發(fā)人員需要遵守一些基本的倫理準則,包括有益性、不作惡、包容性的設計、多樣性、透明性,以及隱私的保護,等等。另一方面,需要建立AI倫理審查制度,倫理審查應當是跨學科的,多樣性的,對AI技術和產(chǎn)品的倫理影響進行評估并提出建議。

  三是對算法進行必要的監(jiān)管,避免算法作惡?,F(xiàn)在的算法確實是越來越復雜,包括決策的影響都是越來越重大,未來可能需要對算法進行監(jiān)管。可能的監(jiān)管措施包括標準制定,涉及分類、性能標準、設計標準、責任標準等等;透明性方面,包括算法自身的代碼透明性,以及算法決策透明性,國外現(xiàn)在已經(jīng)有OpenAI等一些人工智能開源運動。此外,還有審批制度,比如對于自動駕駛汽車、智能機器人等采用的算法,未來可能需要監(jiān)管部門進行事先審批,如果沒有經(jīng)過審批就不能向市場推出。

  四是針對算法決策和歧視,以及造成的人身財產(chǎn)損害,需要提供法律救濟。對于算法決策,一方面需要確保透明性,如果用自動化的手段進行決策決定,則需要告知用戶,用戶有知情權,并且在必要時需要向用戶提供一定的解釋;另一方面需要提供申訴的機制。對于機器人造成的人身財產(chǎn)損害,一方面,無辜的受害人應該得到救助;另一方面,對于自動駕駛汽車、智能機器人等帶來的責任挑戰(zhàn),嚴格責任、差別化責任、強制保險和賠償基金、智能機器人法律人格等都是可以考慮的救濟措施。

  在今天這個人工智能快速發(fā)展,人類在諸如圍棋、圖像識別、語音識別等等領域開始落后于人工智能的時代,對人工智能進行倫理測試同樣重要,包括道德代碼、隱私、正義、有益性、安全、責任等等,都是十分重要的。現(xiàn)在的AI界更多是工程師在參與,缺乏哲學、倫理學、法學等其他社會學科的參與,未來這樣跨學科的AI倫理測試需要加強研究。因為在某種意義上我們已經(jīng)不是在制造一個被動的簡單工具,而是在設計像人一樣具有感知、認知、決策等能力的事物,你可以稱其為“更復雜的工具”,但不可否認,我們需要確保這樣的復雜工具進入人類社會以后和人類的價值規(guī)范及需求相一致。
本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
怎樣提升人工智能的“道德水平”
當年輕人開始談論AI倫理
全球人工智能發(fā)展趨勢及挑戰(zhàn)
在自動駕駛設計中考慮倫理道德
丑話說在前:2018我們可能要忍受的人工智能陰暗面
深度學習不是AI的未來
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服