雷鋒網(wǎng)AI 科技評(píng)論按:2018 年 4 月 14 日-15 日,中國(guó)圖象圖形學(xué)學(xué)會(huì)圍繞「生物特征識(shí)別」這一主題,在中科院自動(dòng)化所舉辦第四期「CSIG 圖像圖形學(xué)科前沿講習(xí)班」。
生物特征識(shí)別(BIOMETRICS)技術(shù),是指通過(guò)計(jì)算機(jī)利用人體所固有的生理特征(指紋、虹膜、面相、DNA等)或行為特征(步態(tài)、擊鍵習(xí)慣等)來(lái)進(jìn)行個(gè)人身份鑒定的技術(shù)。
本期講習(xí)班邀請(qǐng)曠視科技首席科學(xué)家孫劍,中科院自動(dòng)化所研究員孫哲南、王亮、赫然,中科院計(jì)算所研究員山世光、清華大學(xué)副教授馮建江、徐明星,中山大學(xué)教授鄭偉詩(shī)等八位學(xué)者分別就人臉、虹膜、指紋、步態(tài)、音紋等人體特征的研究現(xiàn)狀做了詳細(xì)報(bào)告。雷鋒網(wǎng) AI 科技評(píng)論作為合作媒體針對(duì)會(huì)議進(jìn)行報(bào)道。會(huì)議整體內(nèi)容請(qǐng)參考雷鋒網(wǎng)報(bào)道:
CSIG 圖像圖形學(xué)科前沿講習(xí)班,曠視和中科院帶來(lái)生物特征識(shí)別精彩報(bào)告(一)
CSIG 圖像圖形學(xué)科前沿講習(xí)班,山世光等四位學(xué)者帶來(lái)生物特征識(shí)別精彩報(bào)告(二)
本篇文章為講習(xí)班報(bào)告第三篇,由中科院自動(dòng)化所研究員赫然講解,報(bào)告題目為:大規(guī)模人臉圖像編輯理論、方法及應(yīng)用。
赫然:2009年畢業(yè)于中科院自動(dòng)化所,獲博士學(xué)位。中國(guó)科學(xué)院自動(dòng)化研究所模式識(shí)別國(guó)家重點(diǎn)實(shí)驗(yàn)室研究員,中國(guó)科學(xué)院腦科學(xué)與模式技術(shù)卓越創(chuàng)新中心年輕骨干。2017年至今,擔(dān)任中國(guó)科學(xué)院大學(xué)人工智能技術(shù)學(xué)院模式識(shí)別教研室副主任。從事模式識(shí)別應(yīng)用基礎(chǔ)理論研究,并應(yīng)用到生物特征識(shí)別和智能視頻監(jiān)控,在智慧城市監(jiān)管需求的平臺(tái)上取得成功應(yīng)用,取得一定經(jīng)濟(jì)效益。近期主要聚焦在生成式深度學(xué)習(xí)及大規(guī)模圖像編輯中遇到的瓶頸問(wèn)題,展開(kāi)圖像模式分析基礎(chǔ)理論研究。出版信息理論學(xué)習(xí)專(zhuān)著1部,在IEEE TPAMI、TIP、TIFS、TNNLS、TKDE等權(quán)威國(guó)際期刊以及NIPS、ICCV、CVPR、IJCAI、AAAI、SIGIR、ACM MM等權(quán)威會(huì)議發(fā)表論文120篇,研究工作獲得國(guó)家自然科學(xué)基金優(yōu)秀青年科學(xué)基金資助。
赫然:
大家下午好,我叫赫然。今天的主題是「大規(guī)模人臉圖像編輯」。這里有兩個(gè)要點(diǎn),一是大規(guī)模,二是對(duì)人臉圖像進(jìn)行編輯。所謂人臉圖像編輯,即對(duì)輸入的人臉圖像進(jìn)行一系列操作處理,在內(nèi)容和表觀上對(duì)圖像進(jìn)行重組和編輯,進(jìn)而創(chuàng)造出完全不同的人臉圖像。我們希望機(jī)器能夠?qū)ΜF(xiàn)有的圖像進(jìn)行自動(dòng)處理,并且得到一些新的圖像,而這些新圖像則需要同時(shí)符合人的認(rèn)知和特定的需求。該問(wèn)題是當(dāng)前機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺(jué)重要的研究?jī)?nèi)容之一,并且在交互娛樂(lè)、衛(wèi)生醫(yī)療、公共安全等領(lǐng)域有著廣泛的應(yīng)用場(chǎng)景。今天介紹的內(nèi)容分為兩個(gè)部分:第一部分介紹圖像編輯涉及的理論基礎(chǔ),第二部分介紹它的方法和應(yīng)用。
在計(jì)算機(jī)處理圖像的過(guò)程中,涉及一個(gè)基本的概念就是全光函數(shù)。它是決定空間中光線呈現(xiàn)形式的因素組成的一個(gè)函數(shù),包括光譜信息、時(shí)間信息、空間信息、深度信息、亮度信息和方向信息等。如果波長(zhǎng)固定,那就是灰度圖像,如果有多個(gè)波長(zhǎng),那就是彩色圖像;如果是時(shí)間有變化那么就是視頻;空間信息自然不用說(shuō)了;如果考慮深度信息就是深度成像,在成像時(shí)會(huì)測(cè)量圖像的深度信息;如果考慮亮度信息就是高動(dòng)態(tài)圖像;如果考慮光線方向,就是光場(chǎng)相機(jī)。所有這些組成了全光函數(shù),在人臉識(shí)別中我們需要對(duì)這個(gè)函數(shù)有所了解,從而得到比較符合真實(shí)世界的圖像。目前,我們智能感知與計(jì)算研究中心依托國(guó)家自然科學(xué)基金委重大儀器專(zhuān)項(xiàng)[1]和華為公司合作項(xiàng)目[4][5],已設(shè)計(jì)和搭建全光人臉采集系統(tǒng)和深度數(shù)碼變焦圖像分析設(shè)備。這部分工作主要由中心的張堃博和胡坦浩完成。
圖像編輯的基本研究目標(biāo)是希望生成/合成的圖像是符合人的視覺(jué)認(rèn)知的,通俗而言就是讓觀察者判斷不出這個(gè)圖像是真實(shí)的還是計(jì)算機(jī)生成的?;谶@些考慮,中科院的陳霖院士提出了視覺(jué)拓?fù)鋬?yōu)先的概念,他認(rèn)為人在識(shí)別人臉時(shí)對(duì)拓?fù)湫畔⒌淖兓母兄獌?yōu)先于其它信息。實(shí)際上,對(duì)于拓?fù)浣Y(jié)構(gòu)變化的敏感性是生物感知系統(tǒng)中的基本特性,例如蜜蜂對(duì)空心圓和實(shí)心圓的拓?fù)浣Y(jié)構(gòu)變化非常敏感。相關(guān)成果發(fā)表在《科學(xué)》雜志上。視覺(jué)拓?fù)鋬?yōu)先機(jī)制的數(shù)學(xué)建模問(wèn)題一直是一個(gè)困難問(wèn)題,我們中心在國(guó)家自然基金委重點(diǎn)基金項(xiàng)目[3]的支持下,深入研究了視覺(jué)拓?fù)鋬?yōu)先的多種數(shù)學(xué)表達(dá)形式,例如全局和局部結(jié)構(gòu)、小波分解、heatmap和人臉解析圖等。根據(jù)拓?fù)渥儞Q的性質(zhì),相關(guān)的人臉圖像編輯任務(wù)可以分為拓?fù)洳蛔內(nèi)蝿?wù)和拓?fù)渥儞Q任務(wù)。
這里涉及到最常用的模型是生成模型,即學(xué)習(xí)聯(lián)合概率密度分布,它可以從統(tǒng)計(jì)的角度表示數(shù)據(jù)的分布情況,能夠反映同類(lèi)數(shù)據(jù)本身的相似度。生成模型的主要功能有兩個(gè):一是進(jìn)行密度估計(jì),二是生成樣本。生成/合成人臉時(shí),所要的就是生成/合成的人臉和真實(shí)人臉相似。生成模型中大家比較熟悉的就是GAN,即生成對(duì)抗網(wǎng)絡(luò)。大家都比較熟悉,我在這里就不再詳細(xì)介紹了。此外,我們也結(jié)合變分自編碼機(jī)和膠囊模型來(lái)研究新的生成式模型。
每個(gè)人都有自己的身份信息。人臉生成/合成任務(wù)自然希望能夠保持這個(gè)身份信息。在身份保持方面,我們的研究借鑒視覺(jué)認(rèn)知中最基本的概念,即,定序測(cè)量(Ordinal Measures,OM)。這是一個(gè)基本的度量方式。人類(lèi)所采用的度量方式主要包含以下四種。
生活中,定序測(cè)量的思想隨處可見(jiàn)。比如我們只需要知道籃球比足球重,至于重多少克則大多數(shù)情況下是沒(méi)有必要知道的。根據(jù) OM 概念,中科院的譚鐵牛院士提出一個(gè)既簡(jiǎn)單又好用的方法,即,通過(guò)簡(jiǎn)單的比較大小,實(shí)現(xiàn)計(jì)算機(jī)視覺(jué)的復(fù)雜特征提取。最初這個(gè)研究工作應(yīng)用到虹膜識(shí)別,判斷虹膜是否屬于同一個(gè)人?;舅悸肪褪峭ㄟ^(guò)比較大小得到一個(gè)特征編碼,通過(guò)這個(gè)特征編碼便可以進(jìn)行分類(lèi)。目前這種思想已經(jīng)被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)中。
我們把這種定序測(cè)量的方式引入到卷積神經(jīng)網(wǎng)絡(luò)的激活函數(shù)中。常用的激活函數(shù)有兩種:ReLU 和Maxout。通常認(rèn)為,由于 Maxout 需要使用兩條直線才能近似 ReLU,因此,Maxout 網(wǎng)絡(luò)通常是 ReLU 網(wǎng)絡(luò)大小的兩倍以上。而我們這個(gè)方法采用的定序測(cè)量非常簡(jiǎn)單,就是比數(shù)值大小,誰(shuí)的值小誰(shuí)就被抑制掉,因此可以得到一個(gè)比較小的卷積神經(jīng)網(wǎng)絡(luò)。
不同于以前的方法,我們借鑒神經(jīng)學(xué)中一個(gè)基本的概念:側(cè)向抑制。這是神經(jīng)元的激活機(jī)制,即通過(guò)對(duì)比機(jī)制來(lái)減少臨近神經(jīng)元的激活,同時(shí)神經(jīng)元能夠抑制一些神經(jīng)信號(hào)傳播,這種方式能夠增加神經(jīng)信號(hào)的清晰度。借用這種概念,我們?cè)诰W(wǎng)絡(luò)中添加了側(cè)向抑制的機(jī)制,以眉毛區(qū)域?yàn)槔?,其相鄰水平位置激活,相鄰豎直位置就會(huì)被抑制。引入上述概念后,依托于國(guó)家自然科學(xué)基金委重點(diǎn)項(xiàng)目[2],我們中心的吳翔等設(shè)計(jì)了一個(gè)輕量級(jí)的神經(jīng)網(wǎng)絡(luò) Light CNN [6],該網(wǎng)絡(luò)具有提煉度高,空間占用小的特點(diǎn)。它在人臉識(shí)別以及車(chē)輛識(shí)別問(wèn)題上都已經(jīng)取得了較好的效果。這個(gè)網(wǎng)絡(luò)所具有的結(jié)構(gòu)小而分辨率高的特點(diǎn)能夠輔助我們?cè)谌四槇D像編輯過(guò)程中進(jìn)行身份判別。該工作發(fā)表在 IEEE TIFS, 2018 上。目前,該研究工作受到國(guó)內(nèi)外研究者的較大關(guān)注,相關(guān)代碼已經(jīng)在 github 上公布,依據(jù)網(wǎng)絡(luò)層數(shù)不同,分為 LightCNN9 和 LightCNN29 兩個(gè)版本。
以上四個(gè)部分就是我們?cè)谘芯咳四槇D像的過(guò)程中遇到的基礎(chǔ)問(wèn)題。首先,需要對(duì)光的結(jié)構(gòu)比較了解,只有了解了光的信息才有比較好的成像效果;其次,因?yàn)閳D像是給人看的,因此生成的圖像要符合人的認(rèn)知;另外,介紹了一種基本的網(wǎng)絡(luò)結(jié)構(gòu),即生成對(duì)抗網(wǎng)絡(luò),來(lái)指導(dǎo)人臉圖像的編輯;最后是身份保持損失,目的是希望合成后的人臉圖像保持原有的身份信息。這四個(gè)部分構(gòu)成了圖像編輯的主要基礎(chǔ)部分,當(dāng)然還有一些其它部分。
接下來(lái)介紹一下我們中心近期做的一些相關(guān)研究?jī)?nèi)容,由于時(shí)間關(guān)系,主要包括七個(gè)主要部分。每個(gè)部分在計(jì)算機(jī)視覺(jué)中都是獨(dú)立的分支,在金融民生或公共安全領(lǐng)域也都有很重要的應(yīng)用。
第一個(gè)是圖像超分辨率,即在給定低分辨率(LR)輸入的情況下估計(jì)出高分辨率(HR)圖像的問(wèn)題。例如攝像頭采集的圖像一般分辨率比較低,如何對(duì)它進(jìn)行超分,得到一張清晰的圖像并保持其身份信息,就是我們所研究的內(nèi)容。
超分算法一般可以分為兩大類(lèi),一類(lèi)屬于通用的超分算法,例如基于插值的方法、基于圖像統(tǒng)計(jì)的方法或者基于字典學(xué)習(xí)等的方法,這類(lèi)算法適用于所有的圖像超分問(wèn)題。另一類(lèi)屬于特定領(lǐng)域的超分算法,例如基于先驗(yàn)統(tǒng)計(jì)的方法,現(xiàn)在也有基于生成模型的方法以及感知損失函數(shù)的方法。
我們中心的黃懷波等提出在超分的過(guò)程中使用小波分解技術(shù)[13]。假設(shè)超分圖像的每個(gè)位置在超分時(shí)都依賴(lài)于原始的圖像對(duì)應(yīng)的地方,這樣我們的超分算法不會(huì)破壞全局信息。通常,超分問(wèn)題被建模為一個(gè)概率問(wèn)題。在這種模型中,給定輸入的圖像,直接預(yù)測(cè)完整的圖像,這個(gè)預(yù)測(cè)過(guò)程不能保證是不變的。不同于此,我們?cè)谟?xùn)練時(shí)輸入一張高清的圖像,然后進(jìn)行小波分解,對(duì)分解后的圖像分別預(yù)測(cè),之后再合成完整高清圖像,這樣得到的結(jié)果就可以盡量避免出現(xiàn)偏差。
另外一個(gè)比較重要、也是現(xiàn)在各大公司比較關(guān)注的人臉視角旋轉(zhuǎn)應(yīng)用,即將歸一化的人臉旋轉(zhuǎn)到任意姿態(tài)。例如從一張正臉圖像生成側(cè)臉圖像;或反之,從采集到的一張側(cè)臉恢復(fù)其正臉圖像,公安領(lǐng)域常有此需求。
視角旋轉(zhuǎn)有 x、y、z 三個(gè)方向,我們目前只考慮左右偏轉(zhuǎn)。如果從單張圖像進(jìn)行旋轉(zhuǎn)的話,這需要「無(wú)中生有」,因?yàn)橛行┬畔⑹菦](méi)有的,所以旋轉(zhuǎn)時(shí)結(jié)果存在偏差。人臉旋轉(zhuǎn)有兩部分研究?jī)?nèi)容,一部分是 2D 模型,一部分是 3D 模型。
既然圖像合成比較難,又不能直接預(yù)測(cè),因此,我們引入幾個(gè)局部通路專(zhuān)門(mén)負(fù)責(zé)人臉局部信息的合成,該工作發(fā)表在 ICCV 2017 [15]。根據(jù)人臉五官,我們引入四個(gè)局部通路,再加上一個(gè)全局的通路,同時(shí)保持全局和局部的拓?fù)浔3植蛔?。局部四個(gè)部分進(jìn)行分別合成,最后再與全局進(jìn)行融合,得到一個(gè)正臉。我們中心在該問(wèn)題上的后續(xù)工作成果[9]發(fā)表在 CVPR2018 上。
另外一個(gè)做的比較多的就是上妝去妝。「上妝」自然是希望在拍攝后把人臉進(jìn)行妝顏美化,去妝則是去除掉圖像中的妝容從而變?yōu)樗仡仭?/strong>作為一個(gè)單獨(dú)的研究問(wèn)題,上妝去妝從 2009 年開(kāi)始陸續(xù)得到研究者的關(guān)注。2018 年,我們中心的李祎等提出利用生成網(wǎng)絡(luò)來(lái)完成去妝[11],并在 AAAI2018 上發(fā)表。我們主要希望針對(duì)手機(jī)用戶(hù),使得去妝之后能夠得到比較好的視覺(jué)結(jié)果。跟前面的方法類(lèi)似,這里仍需要保持拓?fù)浣Y(jié)構(gòu),同時(shí)我們提出兩層對(duì)抗網(wǎng)絡(luò),采用兩個(gè)判別器,一個(gè)是進(jìn)行身份信息判別,另外一個(gè)對(duì)是否為真實(shí)圖像進(jìn)行判別。
最新的自動(dòng)上妝工作是2018年美國(guó) Adobe 公司提出的模型。該方法以 cycleGAN 模型為基礎(chǔ),對(duì)眼部、唇部和其他面部皮膚分別上妝,之后再把分塊上妝結(jié)果反貼回原臉。由于該方法在合成全臉化妝效果時(shí)使用的是 image warping 方法,因此該方法實(shí)際上采用的是一種半生成模型。
表情編輯涉及到兩個(gè)問(wèn)題,一個(gè)是表情合成,一個(gè)是表情去除。2018 年,我們中心的宋凌霄等提出一個(gè)新的表情合成/去除的算法[14],包括一下幾個(gè)基本部分:一、拓?fù)浣Y(jié)構(gòu)變化,因?yàn)檎Q鄣臅r(shí)候拓?fù)浣Y(jié)構(gòu)發(fā)生變化,因此希望用這個(gè)信息指導(dǎo)表情的變化;二、身份保持,我們不希望添加了表情后變成了另外一個(gè)人。我們的工作有兩個(gè)特點(diǎn),一個(gè)特點(diǎn)是能夠得到一個(gè)真實(shí)圖像,另外一個(gè)是能夠識(shí)別身份信息。
下面是我們方法得到的合成效果。
從娛樂(lè)領(lǐng)域而言,預(yù)測(cè)臉部年齡的變化是一個(gè)重要的應(yīng)用,其基本任務(wù)就是如何使人臉圖像老化/年輕化。
年齡變換在電影中應(yīng)用比較廣泛,例如年輕的演員在電影中變老,或年老的演員需要扮演年輕人等。在公安領(lǐng)域也有應(yīng)用,比如尋找丟失多年的兒童;當(dāng)然在隱私防范或生活?yuàn)蕵?lè)中也有很多應(yīng)用。
年齡合成作為計(jì)算機(jī)視覺(jué)的一個(gè)分支問(wèn)題,其研究始于 1994 年。我們中心的李佩佩等在 2018 年提出了一種基于全局和局部的生成方法[12]。做年齡合成時(shí),我們知道一般額頭、眼睛以及嘴角變化比較大。因此除了做一個(gè)全局通道外,我們還在模型匯總另外添加了三個(gè)局部通道,隨后將這三個(gè)局部通道合起來(lái)后再與全局通道融合在一起。同時(shí),我們也使用多個(gè)判別器來(lái)保證合成結(jié)果的視覺(jué)效果。這是我們得到的實(shí)驗(yàn)結(jié)果:
接下來(lái)的工作是人臉補(bǔ)充,即把遮擋了的人臉補(bǔ)全,這在圖像編輯中也有很重要作用?,F(xiàn)有方法可以歸納為三類(lèi):早期是使用基于補(bǔ)丁的方法,即通過(guò)觀察缺失內(nèi)容的上下文信息,從相同圖像或外部圖像數(shù)據(jù)庫(kù)中搜索相似的補(bǔ)??;其次是基于擴(kuò)散方程的方法,即利用擴(kuò)散方程迭代地沿著邊界將低級(jí)特征從上下文區(qū)域傳播到缺失區(qū)域;第三種則是基于稀疏表示的方法,即如果缺了某塊兒區(qū)域,便通過(guò)編碼或者解碼,把原始的圖像補(bǔ)充上去[8]。2017 年,國(guó)外學(xué)者進(jìn)一步研究了基于生成模型的人臉補(bǔ)充,其目的是希望生成的拓?fù)浣Y(jié)構(gòu)和真實(shí)的拓?fù)浣Y(jié)構(gòu)保持一致。
在圖像感知的時(shí)候,拓?fù)浣Y(jié)構(gòu)先于其它結(jié)構(gòu),所以我們考慮把拓?fù)浣Y(jié)構(gòu)作為先驗(yàn)條件?;谶@種考慮,我們中心的宋林森等提出一種新的方法(Geometry-Aware Face Completion and Editing),先預(yù)測(cè)缺失的地方,隨后再把這個(gè)拓?fù)浣Y(jié)構(gòu)跟原圖一起輸入,來(lái)生成真實(shí)的圖像。
所謂跨光譜合成,指根據(jù)某種光譜/模態(tài)下的人臉圖像,直接合成其他光譜/模態(tài)人臉 圖像的技術(shù)。這個(gè)技術(shù)廣泛應(yīng)用于異質(zhì)人臉識(shí)別,例如下圖的可見(jiàn)光圖像和近紅外圖像間的人臉識(shí)別。這個(gè)問(wèn)題的挑戰(zhàn)和光線有關(guān),一方面不同的圖像之間光線差別比較大,而另一方面可用于跨光譜訓(xùn)練的圖像數(shù)據(jù)集也比較小。不過(guò)這個(gè)領(lǐng)域的研究也比較多,包括基于字典學(xué)習(xí)的方法、基于補(bǔ)丁映射的方法和基于生成模型的方法等。
我們的工作[10]是基于生成模型的方法,發(fā)表在 AAAI 2018 上,這應(yīng)該是第一篇使用GAN模型的跨光譜合成方法。我們構(gòu)建了生成對(duì)抗異質(zhì)人臉識(shí)別模型(AD-HFR),并使用了全局和局部的結(jié)構(gòu),除了對(duì)整個(gè)臉部進(jìn)行生成外,還對(duì)眼睛部分進(jìn)行了專(zhuān)門(mén)處理,并且包含了身份保持函數(shù)。
本次報(bào)告主要介紹了人臉圖像編輯涉及的基礎(chǔ)理論和應(yīng)用方法。由于時(shí)間關(guān)系,基礎(chǔ)理論部分還有部分內(nèi)容沒(méi)有深入介紹;而在應(yīng)用部分,今天主要講了超分辨率等,但還有人臉生成等許多應(yīng)用沒(méi)有涉及。
事實(shí)上人臉圖像編輯,是計(jì)算機(jī)視覺(jué)中一個(gè)長(zhǎng)期的研究目標(biāo),當(dāng)前仍有很多問(wèn)題沒(méi)有解決。例如,當(dāng)前研究的人臉圖像分辨率大多是 128×128,隨著手機(jī)的發(fā)展,其分辨率將會(huì)越來(lái)越高,那么如何編輯更高分辨率的圖像?同時(shí),很多場(chǎng)景對(duì)精確度的需求也變得越來(lái)越高,比如在 3D 重建中,醫(yī)療領(lǐng)域希望人臉的深度信息精度能夠從 0.1 厘米提升到 0.05 毫米,這樣便可以精準(zhǔn)估計(jì)面部運(yùn)動(dòng)和身份信息。另外,一些特殊應(yīng)用場(chǎng)景會(huì)要求生成十幾萬(wàn)人乃至幾億人的人臉數(shù)據(jù)。另一方面,人臉圖像編輯也是機(jī)器學(xué)習(xí)的重要研究?jī)?nèi)容,它的理論學(xué)習(xí)方法、硬件和軟件都需要更大的突破,才能得到符合人類(lèi)視覺(jué)感知的結(jié)果。
感謝中心成員張堃博、宋凌霄、吳翔、李祎、胡坦浩、黃懷波、李志航、李佩佩、胡一博和宋林森等人對(duì)于本次報(bào)告給予的協(xié)助和支持。謝謝大家。
[1] 復(fù)雜場(chǎng)景中多模態(tài)生物特征獲取設(shè)備. 國(guó)家自然科學(xué)基金委重大儀器專(zhuān)項(xiàng).
[2] 基于定序測(cè)量的物體識(shí)別理論和方法. 國(guó)家自然科學(xué)基金委重點(diǎn)項(xiàng)目.
[3] 基于非歐空間的視覺(jué)計(jì)算理論與方法. 國(guó)家自然科學(xué)基金委重點(diǎn)項(xiàng)目.
[4] 基于深度學(xué)習(xí)的人臉超分辨率技術(shù)合作項(xiàng)目, 華為公司.
[5] 多視角人臉圖像合成技術(shù)合作項(xiàng)目, 華為公司.
[6] Xiang Wu, Ran He, Zhenan Sun, Tieniu Tan. A Light CNN for Deep Face Representation with Noisy Labels. IEEE Trans. Information Forensics and Security (2018).
[7] Shu Zhang, Ran He, Zhenan Sun, Tieniu Tan. DeMeshNet: Blind Face Inpainting for Deep MeshFace Verification. IEEE Trans. Information Forensics and Security 13(3): 637-647 (2018).
[8] Ran He, Wei-Shi Zheng, Tieniu Tan, Zhenan Sun. Half-Quadratic-Based Iterative Minimization for Robust Sparse Representation. IEEE Trans. Pattern Anal. Mach. Intell. 36(2): 261-275 (2014).
[9] Yibo Hu, Xiang Wu, Bing Yu, Ran He and Zhenan Sun. Pose-Guided Photorealistic Face Rotation. CVPR 2018.
[10] Lingxiao Song, Man Zhang, Xiang Wu, Ran He. Adversarial Discriminative Heterogeneous Face Recognition, AAAI 2018.
[11] Yi Li, Lingxiao Song, Xiang Wu, Ran He, Tieniu Tan. Anti-Makeup: Learning A Bi-Level Adversarial Network for Makeup-Invariant Face Verification, AAAI 2018.
[12] Peipei Li, Yibo Hu, Qi Li, Ran He, Zhenan Sun. Global and Local Consistent Age Generative Adversarial Networks. ICPR 2018.
[13] Huaibo Huang, Ran He, Zhenan Sun, Tieniu Tan. Wavelet-SRNet: A Wavelet-Based CNN for Multi-scale Face Super Resolution. ICCV 2017: 1698-1706.
[14] Lingxiao Song, Zhihe Lu, Ran He, Zhenan Sun, Tieniu Tan. Geometry Guided Adversarial Facial Expression Synthesis. CoRR abs/1712.03474 (2018).
[15] Rui Huang, Shu Zhang, Tianyu Li, Ran He. Beyond face rotation: Global and local perception gan for photorealistic and identity preserving frontal view synthesis. ICCV 2017.
聯(lián)系客服