Jordan身兼stat和cs兩個系的教授,從他身上可以看出Stat和ML的融合。 Jordan最先專注于mixtures of experts,并迅速奠定了自己的地位,我們哈爾濱工業(yè)大學(xué)的校友徐雷跟他做博后期間,也在這個方向上沾光不少。Jordan和他的弟子在很多方面作出了開創(chuàng)性的成果,如spectral clustering, Graphical model和nonparametric Bayesian?,F(xiàn)在后兩者在ML領(lǐng)域是非常炙手可熱的兩個方向,可以說很大程度上是Jordan的lab一手推動的。
更難能可貴的是,Jordan不僅自己武藝高強,并且攬錢有法,教育有方,手下門徒眾多且很多人成了大器,隱然成為江湖大幫派。他的弟子中有10多人任教授,個人認為他現(xiàn)在的弟子中最出色的是stanford的Andrew Ng,不過由于資歷原因,現(xiàn)在還是assistant professor,不過成為大教授指日可待;另外Tommi Jaakkola和David Blei也非常厲害,其中Tommi Jaakkola在mit任教,David Blei之前在普林斯頓任副教授,最近剛剛(2014年4月初)被哥倫比亞大學(xué)花了三年時間挖走了,數(shù)次獲得NIPS最佳論文獎,把SVM的最大間隔方法和Markov network的structure結(jié)構(gòu)結(jié)合起來,赫赫有名。2012年獲得科學(xué)家總統(tǒng)獎,2014年初獲得2013 ACM-Infosys CS Award。還有一個博后是來自于toronto的Yee Whye Teh,非常不錯,有幸跟他打過幾次交道,人非常nice。另外還有一個博后居然在做生物信息方面的東西,看來jordan在這方面也撈了錢。這方面他有一個中國學(xué)生Eric P. Xing(清華大學(xué)校友),現(xiàn)在在cmu做assistant professor。
總的說來,我覺得Jordan現(xiàn)在做的主要還是graphical model和Bayesian learning,他去年寫了一本關(guān)于graphical model的書,今年由mit press出版,應(yīng)該是這個領(lǐng)域里程碑式的著作。3月份曾經(jīng)有人答應(yīng)給我一本打印本看看,因為Jordan不讓他傳播電子版,但后來好像沒放在心上(可見美國人也不是很守信的),人不熟我也不好意思問著要,可以說是一大遺憾. 另外發(fā)現(xiàn)一個有趣的現(xiàn)象就是Jordan對hierarchical情有獨鐘,相當(dāng)多的文章都是關(guān)于hierarchical的,所以能hierarchical大家趕快hierarchical,否則就讓他給搶了。
用我朋友話說看jordan牛不牛,看他主頁下面的Past students and postdocs就知道了。
Machine Learning大家(2):D. Koller (http://ai.stanford.edu/~koller/)
D. Koller是1999年美國青年科學(xué)家總統(tǒng)獎(PECASE)得主,IJCAI 2001 Computers and Thought Award(IJCAI計算機與思維獎,這是國際人工智能界35歲以下青年學(xué)者的最高獎)得主,2004 World Technology Award得主。
最先知道D koller是因為她得了一個大獎,2001年IJCAI計算機與思維獎。Koller因她在概率推理的理論和實踐、機器學(xué)習(xí)、計算博弈論等領(lǐng)域的重要貢獻,成為繼Terry Winograd、David Marr、Tom Mitchell、Rodney Brooks等人之后的第18位獲獎?wù)?。說起這個獎挺有意思的,IJCAI終身成就獎(IJCAI Award for Research Excellence),是國際人工智能界
的最高榮譽; IJCAI計算機與思維獎是國際人工智能界35歲以下青年學(xué)者的最高榮譽。早期AI研究將推理置于至高無上的地位; 但是1991年牛人Rodney Brooks對推理全面否定,指出機器只能獨立學(xué)習(xí)而得到了IJCAI計算機與思維獎; 但是koller卻因提出了Probabilistic Relational Models 而證明機器可以推理論知而又得到了這個獎,可見世事無絕對,科學(xué)有回。
D koller的Probabilistic Relational Models在nips和icml等各種牛會上活躍了相當(dāng)長的一段時間,并且至少在實驗室里證明了它在信息搜索上的價值,這也導(dǎo)致了她的很多學(xué)生進入了google。雖然進入google可能沒有在牛校當(dāng)faculty名聲響亮,但要知道google的很多員工現(xiàn)在可都是百萬富翁,在全美大肆買房買車的主。
Koller的研究主要都集中在probabilistic graphical model,如Bayesian網(wǎng)絡(luò),但這玩意我沒有接觸過,我只看過幾篇他們的markov network的文章,但看了也就看了,一點想法都沒有,這灘水有點深,不是我這種非科班出身的能趟的,并且感覺難以應(yīng)用到我現(xiàn)在這個領(lǐng)域中。
Koller才從教10年,所以學(xué)生還沒有涌現(xiàn)出太多的牛人,這也是她不能跟Jordan比擬的地方,并且由于在stanford的關(guān)系,很多學(xué)生直接去硅谷賺大錢去了,而沒有在學(xué)術(shù)界開江湖大幫派的影響,但在stanford這可能太難以辦到,因為金錢的誘惑實在太大了。不過Koller的一個學(xué)生我非常崇拜,叫Ben Taskar,就是我在(1)中所提到的Jordan的博后,是好幾個牛會的最佳論文獎,他把SVM的最大間隔方法和Markov network結(jié)合起來,可以說是對structure data處理的一種標準工具,也把最大間隔方法帶入了一個新的熱潮,近幾年很多牛會都有這樣的workshop。 我最開始上Ben Taskar的在stanford的個人網(wǎng)頁時,正趕上他剛畢業(yè),他的頂上有這么一句話:流言變成了現(xiàn)實,我終于畢業(yè)了! 可見Koller是很變態(tài)的,把自己的學(xué)生關(guān)得這么郁悶,這恐怕也是大多數(shù)女faculty的通病吧,并且估計還非常的push!2013年去世的牛人UW的Ben Taskar就是Koller的學(xué)生。另外Koller和NG合辦了Coursera。
Machine learning 大家(3): J. D. Lafferty
大家都知道NIPS和ICML向來都是由大大小小的山頭所割據(jù),而John Lafferty無疑是里面相當(dāng)高的一座高山,這一點可從他的publication list里的NIPS和ICML數(shù)目得到明證。雖然江湖傳說計算機重鎮(zhèn)CMU現(xiàn)在在走向衰落,但這無礙Lafferty擁有越來越大的影響力,翻開AI兵器譜排名第一的journal of machine learning research的很多文章,我們都能發(fā)現(xiàn)author或者editor中赫然有Lafferty的名字。
Lafferty給人留下的最大的印象似乎是他2001年的conditional random fields,這篇文章后來被瘋狂引用,廣泛地應(yīng)用在語言和圖像處理,并隨之出現(xiàn)了很多的變體,如Kumar的discriminative random fields等。雖然大家都知道discriminative learning好,但很久沒有找到好的discriminative方法去處理這些具有豐富的contextual inxxxxation的數(shù)據(jù),直到Lafferty的出現(xiàn)。
而現(xiàn)在Lafferty做的東西好像很雜,semi-supervised learning, kernel learning,graphical models甚至manifold learning都有涉及,可能就是像武俠里一樣只要學(xué)會了九陽神功,那么其它的武功就可以一窺而知其精髓了。這里面我最喜歡的是semi-supervised learning,因為隨著要處理的數(shù)據(jù)越來越多,進行全部label過于困難,而完全unsupervised的方法又讓人不太放心,在這種情況下semi-supervised learning就成了最好的。這沒有一個比較清晰的認識,不過這也給了江湖后輩成名的可乘之機。到現(xiàn)在為止,我覺得cmu的semi-supervised是做得最好的,以前是KAMAL NIGAM做了開創(chuàng)性的工作,而現(xiàn)在Lafferty和他的弟子作出了很多總結(jié)和創(chuàng)新。
Lafferty的弟子好像不是很多,并且好像都不是很有名。不過今年畢業(yè)了一個中國人,Xiaojin Zhu(上海交通大學(xué)校友),就是做semi-supervised的那個人,現(xiàn)在在wisconsin-madison做assistant professor。他做了迄今為止最全面的Semi-supervised learning literature survey, 大家可以從他的個人主頁中找到。這人看著很憨厚,估計是很好的陶瓷
對象。另外我在(1)中所說的Jordan的牛弟子D Blei今年也投奔Lafferty做博后,就足見Lafferty的牛了。
Lafferty做NLP是很好的,著名的Link Grammar Parser還有很多別的應(yīng)用。其中l(wèi)anguage model在IR中應(yīng)用,這方面他的另一個中國學(xué)生ChengXiang Zhai(南京大學(xué)校友,2004年美國青年科學(xué)家總統(tǒng)獎(PECASE)得主),現(xiàn)在在uiuc做assistant professor。
Machine learning 大家(4): Peter L. Bartlett
鄙人淺薄之見,Jordan比起同在berkeley的Peter Bartlett還是要差一個層次。Bartlett主要的成就都是在learning theory方面,也就是ML最本質(zhì)的東西。他的幾篇開創(chuàng)性理論分析的論文,當(dāng)然還有他的書Neural Network Learning: Theoretical Foundations。
UC Berkeley的統(tǒng)計系在強手如林的北美高校中一直是top3, 這就足以證明其肯定是群星薈萃,而其中,Peter L. Bartlett是相當(dāng)亮的一顆星。關(guān)于他的研究,我想可以從他的一本書里得到答案:Neural Network Learning: Theoretical Foundations。也就是說,他主要做的是Theoretical Foundations?;A(chǔ)理論雖然沒有一些直接可面向應(yīng)用的算法那樣
引人注目,但對科學(xué)的發(fā)展實際上起著更大的作用。試想vapnik要不是在VC維的理論上辛苦了這么多年,怎么可能有SVM的問世。不過陽春白雪固是高雅,但大多數(shù)人只能聽懂下里巴人,所以Bartlett的文章大多只能在做理論的那個圈子里產(chǎn)生影響,而不能為大多數(shù)人所廣泛引用。
Bartlett在最近兩年做了大量的Large margin classifiers方面的工作,如其convergence rate和generalization bound等。并且很多是與jordan合作,足見兩人的工作有很多相通之處。不過我發(fā)現(xiàn)Bartlett的大多數(shù)文章都是自己為第一作者,估計是在教育上存在問題吧,沒帶出特別牛的學(xué)生出來。
Bartlett的個人主頁的talk里有很多值得一看的slides,如Large Margin Classifiers:Convexity and Classification;Large Margin Methods for Structured Classification: Exponentiated Gradient Algorithms。大家有興趣的話可以去下來看看。
Machine learning 大家(5): Michael Collins
Michael Collins (http://people.csail.mit.edu/mcollins/
自然語言處理(NLP)江湖的第一高人。出身Upenn,靠一身叫做Collins Parser的武功在江湖上展露頭腳。當(dāng)然除了資質(zhì)好之外,其出身也幫了不少忙。早年一個叫做Mitchell P. Marcus的師傅傳授了他一本葵花寶典-Penn Treebank。從此,Collins整日沉迷于此,終于練成蓋世神功。
學(xué)成之后,Collins告別師傅開始闖蕩江湖,投入了一個叫AT&T Labs Research的幫會,并有幸結(jié)識了Robert Schapire、Yoram Singer等眾多高手。大家不要小瞧這個叫AT&T Labs Research的幫會,如果誰沒有聽過它的大名總該知道它的同父異母的兄弟Bell Labs吧。 言歸正傳,話說Collins在這里度過了3年快樂的時光。其間也奠定了其NLP江湖老大的地位。并且練就了Discriminative Reranking, Convolution Kernels,Discriminative Training Methods for Hidden Markov Models等多種絕技。然而,世事難料,怎奈由于幫會經(jīng)營不善,這幫大牛又不會為幫會拼殺,終于被一腳踢開,大家如鳥獸散了。Schapire去了Princeton, Singer 也回老家以色列了。Collins來到了MIT,成為了武林第一大幫的六袋
長老,并教授一門叫做Machine Learning Approaches for NLP (http://www.ai.mit.edu/courses/6.891-nlp/) 的功夫。雖然這一地位與其功力極不相符,但是這并沒有打消Collins的積極性,通過其刻苦打拼,終于得到了一個叫Sloan Research Fellow的頭銜,并于今年7月,光榮的升任7袋Associate Professor。
在其下山短短7年時間內(nèi),Collins共獲得了4次世界級武道大會冠軍(EMNLP2002, 2004,UAI2004, 2005)。相信年輕的他,總有一天會一統(tǒng)丐幫,甚至整個江湖。
看過Collins和別人合作的一篇文章,用conditional random fields 做object recogn
tion。還這么年輕,admire to death!
之前自己一直想總結(jié)一下國內(nèi)搞機器學(xué)習(xí)和數(shù)據(jù)挖掘的大牛,但是自己太懶了。所以沒搞…
最近看到了下面轉(zhuǎn)載的這篇博文,感覺總結(jié)的比較全面了。
個人認為,但從整體研究實力來說,機器學(xué)習(xí)和數(shù)據(jù)挖掘方向國內(nèi)最強的地方還是在MSRA,
那邊的相關(guān)研究小組太多,很多方向都能和數(shù)據(jù)挖掘扯上邊。這里我再補充幾個相關(guān)研究方向
的年輕老師和學(xué)者吧。
蔡登:http://www.cad.zju.edu.cn/home/dengcai/,Han Jiawei老師的學(xué)生,博士畢業(yè)后回浙大
任教,也算是國內(nèi)年輕一代的牛人了。
萬小軍:https://sites.google.com/site/wanxiaojun1979/,得翻墻才能看到主頁。主要
研究方向是文本挖掘和語義計算。自然語言方向好會議發(fā)了很多文章。
張磊:http://research.microsoft.com/en-us/um/people/leizhang/
———————————————————————————————–
原文地址:http://blog.csdn.net/playoffs/article/details/7588597
李航:http://research.microsoft.com/en- us/people/hangli/,是MSRA Web Search and
Mining Group高級研究員和主管,主要研究領(lǐng)域是信息檢索,自然語言處理和統(tǒng)計學(xué)習(xí)。
近年來,主要與人合作使用機器學(xué)習(xí)方法對信息檢索中排序,相關(guān)性等問題的 研究。曾在
人大聽過一場他的講座,對實際應(yīng)用的問題抽象,轉(zhuǎn)化和解決能力值得學(xué)習(xí)。
周志華:http://cs.nju.edu.cn/zhouzh/,是南京大學(xué)的杰青,機器學(xué)習(xí)和數(shù)據(jù)挖掘方面
國內(nèi)的領(lǐng)軍人物,其好幾個研究生都 進入了美國一流高校如uiuc,cmu等學(xué)習(xí)和深造。周教授
在半監(jiān)督學(xué)習(xí),multi-label學(xué)習(xí)和集成學(xué)習(xí)方面在國際上有一定的影響力。另外,他也
是ACML的創(chuàng)始人。人也很nice,曾經(jīng)發(fā)郵件咨詢過一個naive的問題,周老師還在百忙之中
回復(fù)了我,并對我如何發(fā)郵件給了些許建議。
楊強:http://www.cse.ust.hk/~qyang/,香港科技大學(xué)教 授,也是KDD 2012的會議主席,
可見功力非同一般。楊教授是遷移學(xué)習(xí)的國際領(lǐng)軍人物,曾經(jīng)的中國第一位acm全球冠軍上
交的戴文淵碩士期間就是跟他合作發(fā)表了一系列 高水平的文章。還有,楊教授曾有一個關(guān)
于機器學(xué)習(xí)和數(shù)據(jù)挖掘有意思的比喻:比如你訓(xùn)練一只狗,若干年后,如果它忽然有一天能
幫你擦鞋洗衣服,那么這就是數(shù) 據(jù)挖掘;要是忽然有一天,你發(fā)現(xiàn)狗發(fā)裝成一個老太婆
消失了,那么這就是機器學(xué)習(xí)。
李建中:http://db.hit.edu.cn/jianzhongli/,哈工大和黑大共有教授,是分布式數(shù)據(jù)庫
的領(lǐng)軍人物。近年來,其團隊 在不確定性數(shù)據(jù),sensor network方面也發(fā)表了一系列有名
文章。李教授為人師表,教書育人都做得了最好,在圈內(nèi)是讓人稱道的好老師和好學(xué)者。
唐杰:http://keg.cs.tsinghua.edu.cn/jietang/,清華大學(xué)副教授,是圖挖掘方面的專家。
他主持設(shè)計和實現(xiàn)的Arnetminer是國內(nèi)領(lǐng)先的圖挖掘系統(tǒng),該系統(tǒng)也是多個會議的支持商。
張鈸:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html 清華
大學(xué)教授,中科院院士,。現(xiàn)任清華大學(xué)信息技術(shù)研究院指導(dǎo)委員會主任,微軟亞洲研究院
技術(shù)顧問等。主要從事人工智能、神經(jīng)網(wǎng)絡(luò)、遺傳算法、智能機器 人、模式識別以及智能控
制等領(lǐng)域的研究工作。在過去二十多年中,張鈸教授系統(tǒng)地提出了問題求解的商空間理
論。近年來,他建立了神經(jīng)與認知計算研究中心以及多媒體信息處理研究組。該研究組已在
圖像和視頻的分析與檢索方面取得一些重要研究成果。
劉鐵巖:http://research.microsoft.com/en-us/people/tyliu/ MSRA研究主管,
是learning to rank的國際知名學(xué)者。近年逐步轉(zhuǎn)向管理,研究興趣則開始關(guān)注計算廣告學(xué)方面。
王海峰:http://ir.hit.edu.cn/~wanghaifeng/ 信息檢索,自然語言處理,機器翻譯方面
的專家,ACL的副主席,百度高級科學(xué)家。近年,在百度主持研發(fā)了百度翻譯產(chǎn)品。
何曉飛:http://people.cs.uchicago.edu/~xiaofei/ 浙江大學(xué)教授,多媒體處理,
圖像檢索以及流型學(xué)習(xí)的國際領(lǐng)先學(xué)者。
朱軍:http://www.ml-thu.net/~jun/ 清華大學(xué)副教授,機器學(xué)習(xí)絕對重量級新星。
主要研究領(lǐng)域是latent variable models, large-margin learning, Bayesian nonparametrics,
and sparse learning in high dimensions. 他也是今年龍星計劃的機器學(xué)習(xí)領(lǐng)域的主講人之一。
———————————————————————————————-
吳軍:http://www.cs.jhu.edu/~junwu/ 騰訊副總裁,前google研究員。
著名《數(shù)學(xué)之美》和《浪潮之巔》系列的作者。
張棟:http://weibo.com/machinelearning 前百度科學(xué)家和google研究員,機器學(xué)習(xí)工業(yè)界的代表人物之一。
戴文淵:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai 現(xiàn)百度鳳巢ctr預(yù)估組leader。
前ACM大賽冠軍,碩士期間一系列transfer learning方面的高水平論文讓人瞠目結(jié)舌。
以前轉(zhuǎn)過一個計算機視覺領(lǐng)域內(nèi)的牛人簡介,現(xiàn)在轉(zhuǎn)一個更寬范圍內(nèi)的牛人簡介:
http://people.cs.uchicago.edu/~niyogi/
http://www.cs.uchicago.edu/people/
http://pages.cs.wisc.edu/~jerryzhu/
http://www.kyb.tuebingen.mpg.de/~chapelle
http://people.cs.uchicago.edu/~xiaofei/
http://www.cs.uiuc.edu/homes/dengcai2/
http://research.microsoft.com/~denzho/
http://www-users.cs.umn.edu/~kumar/dmbook/index.php#item5
(resources for the book of the introduction of data mining by Pang-ning Tan et.al. )(國內(nèi)已經(jīng)有相應(yīng)的中文版)
http://www.cs.toronto.edu/~roweis/lle/publications.html (lle算法源代碼及其相關(guān)論文)
http://dataclustering.cse.msu.edu/index.html#software(data clustering)
http://www.cs.toronto.edu/~roweis/ (里面有好多資源)
http://www.cse.msu.edu/~lawhiu/ (manifold learning)
http://www.math.umn.edu/~wittman/mani/ (manifold learning demo in matlab)
http://www.iipl.fudan.edu.cn/~zhangjp/literatures/MLF/INDEX.HTM (manifold learning in matlab)
http://videolectures.net/mlss05us_belkin_sslmm/ (semi supervised learning with manifold method by Belkin)
http://isomap.stanford.edu/ (isomap主頁)
http://web.mit.edu/cocosci/josh.html MIT TENENBAUM J B主頁
http://web.engr.oregonstate.edu/~tgd/ (國際著名的人工智能專家 Thomas G. Dietterich)
http://www.cs.berkeley.edu/~jordan/ (MIchael I.Jordan)
http://www.cs.cmu.edu/~awm/ (Andrew W. Moore’s homepage)
http://learning.cs.toronto.edu/ (加拿大多倫多大學(xué)機器學(xué)習(xí)小組)
http://www.cs.cmu.edu/~tom/ (Tom Mitchell,里面有與教材匹配的slide。)
Kernel Methods | |
Alexander J. SmolaMaximum Mean Discrepancy (MMD), Hilbert-Schmidt Independence Criterion (HSIC) Kernel PCA Pre-Image, Kernel Learning, Core Vector Machine(CVM) Kernel Learning, Linear Discriminate Analysis, Dimension Deduction | |
Multi-Task Learning | |
Andreas ArgyriouMulti-Task Feature Learning Multi-Task Feature Learning, Multi-Task Kernel Learning Multi-Task Feature Learning Multi-Task Feature Learning, Multi-Task Kernel Learning | |
Semi-supervised Learning | |
Partha NiyogiManifold Regularization, Laplacian Eigenmaps Mikhail BelkinManifold Regularization, Laplacian Eigenmaps Vikas SindhwaniManifold Regularization Xiaojin ZhuGraph-based Semi-supervised Learning | |
Multiple Instance Learning | |
Sally A GoldmanEM-DD, DD-SVM, Multiple Instance Semi Supervised Learning(MISS) | |
Dimensionality Reduction | |
Neil LawrenceGaussian Process Latent Variable Models (GPLVM) Lawrence K. SaulMaximum Variance Unfolding(MVU), Semidefinite Embedding(SDE) | |
Machine Learning | |
Michael I. JordanGraphical Models Diffusion Kernels, Graphical Models Logic, Probability Zhang TongTheoretical Analysis of Statistical Algorithms, Multi-task Learning, Graph-based Semi-supervised Learning Zoubin GhahramaniBayesian approaches to machine learning Machine Learning @ Toronto | |
Statitiscal Machine Learning & Optimization | |
Jerome H FriedmanGLasso, Statistical view of AdaBoost, Greedy Function Approximation Lasso Convex Optimization Libsvm |
http://www.dice.ucl.ac.be/mlg/
半監(jiān)督流形學(xué)習(xí)(流形正則化)
http://manifold.cs.uchicago.edu/
模式識別和神經(jīng)網(wǎng)絡(luò)工具箱
http://www.ncrg.aston.ac.uk/netlab/index.php
機器學(xué)習(xí)開源代碼
http://mloss.org/software/tags/large-scale-learning/
統(tǒng)計學(xué)開源代碼
matlab各種工具箱鏈接
http://www.tech.plym.ac.uk/spmc/links/matlab/matlab_toolbox.html
統(tǒng)計學(xué)學(xué)習(xí)經(jīng)典在線教材
機器學(xué)習(xí)開源源代碼
http://mloss.org/software/language/matlab/
CVPR (1): 計算機視覺和模式識別方面最好的會議之一, IEEE主辦, 每年舉行. 雖然題目上有計算機視覺, 但個人認為它的模式識別味道更重一些. 事實上它應(yīng)該是模式識別最好的會議, 而在計算機視覺方面, 還有ICCV與之相當(dāng). IEEE一直有個傾向, 要把會辦成”盛會”, 歷史上已經(jīng)有些會被它從quality很好的會辦成”盛會”了. CVPR搞不好也要走這條路. 這幾年錄的文章已經(jīng)不少了. 最近負責(zé)CVPR會議的TC的chair發(fā)信說, 對這個community來說, 讓好人被誤殺比被壞人漏網(wǎng)更糟糕, 所以我們是不是要減少好人被誤殺的機會啊? 所以我估計明年或者后年的CVPR就要擴招了.
ICCV (1): 介紹CVPR的時候說過了, 計算機視覺方面最好的會之一. IEEE主辦. ICCV逢奇數(shù)年開,開會地點以往是北美,歐洲和亞洲輪流,本來2003年定在北京,后來因Sars和原定05年的法國換了一下。ICCV’07年將首次 在南美(巴西)舉行.
CVPR原則上每年在北美開, 如果那年正好ICCV在北美,則該年沒有CVPR.
ICML (1): 機器學(xué)習(xí)方面最好的會議之一. 現(xiàn)在是IMLS主辦, 每年舉行. 參見關(guān)于NIPS的介紹.
NIPS (1): 神經(jīng)計算方面最好的會議之一, NIPS主辦, 每年舉行. 值得注意的是, 這個會每年的舉辦地都是一樣的, 以前是美國丹佛, 現(xiàn)在是加拿大溫哥華; 而且它是年底開會, 會開完后第2年才出論文集, 也就是說, NIPS’05的論文集是06年出. 會議的名字是”Advances in Neural Inxxxxation Processing Systems”, 所以, 與ICMLECML這樣的”標準的”機器學(xué)習(xí)會議不同, NIPS里有相當(dāng)一部分神經(jīng)科學(xué)的內(nèi)容, 和機器學(xué)習(xí)有一定的距離. 但由于會議的主體內(nèi)容是機器學(xué)習(xí), 或者說與機器學(xué)習(xí)關(guān)系緊密, 所以不少人把NIPS看成是機器學(xué)習(xí)方面最好的會議之一. 這個會議基本上控制在MichaelJordan的徒子徒孫手中, 所以對Jordan系的人來說, 發(fā)NIPS并不是難事, 一些未必很強的工作也能發(fā)上去, 但對這個圈子之外的人來說, 想發(fā)一篇實在很難, 因為留給”外人”的口子很小. 所以對Jordan系以外的人來說, 發(fā)NIPS的難度比ICML更大. 換句話說,ICML比較開放, 小圈子的影響不象NIPS那么大, 所以北美和歐洲人都認, 而NIPS則有些人(特別是一些歐洲人, 包括一些大家)堅決不投稿. 這對會議本身當(dāng)然并不是好事,但因為Jordan系很強大, 所以它似乎也不太care. 最近IMLS(國際機器學(xué)習(xí)學(xué)會)改選理事, 有資格提名的人包括近三年在ICMLECMLCOLT發(fā)過文章的人, NIPS則被排除在外了. 無論如何, 這是一個非常好的會.
ACL (1-): 計算語言學(xué)/自然語言處理方面最好的會議, ACL (Association of
Computational Linguistics) 主辦, 每年開.
KR (1-): 知識表示和推理方面最好的會議之一, 實際上也是傳統(tǒng)AI(即基于邏輯的AI)最好的會議之一. KR Inc.主辦, 現(xiàn)在是偶數(shù)年開.
SIGIR (1-): 信息檢索方面最好的會議, ACM主辦, 每年開. 這個會現(xiàn)在小圈子氣越來越重. 信息檢索應(yīng)該不算AI, 不過因為這里面用到機器學(xué)習(xí)越來越多, 最近幾年甚至有點機器學(xué)習(xí)應(yīng)用會議的味道了, 所以把它也列進來.
SIGKDD (1-): 數(shù)據(jù)挖掘方面最好的會議, ACM主辦, 每年開. 這個會議歷史比較短,畢竟, 與其他領(lǐng)域相比,數(shù)據(jù)挖掘還只是個小弟弟甚至小侄兒. 在幾年前還很難把它列在tier-1里面, 一方面是名聲遠不及其他的top conference響亮, 另一方面是相對容易被錄用. 但現(xiàn)在它被列在tier-1應(yīng)該是毫無疑問的事情了. 這幾年來KDD的質(zhì)量都很高. SIGKDD從2000年來full paper的錄取率都在10%-12%之間,遠遠低于IJCAI和ICML.
經(jīng)常聽人說,KDD要比IJICAI和ICML都要困難。IJICAI才6頁,而KDD要10頁。沒有扎實系統(tǒng)的工作,很難不留下漏洞。有不少IJICAI的??鸵裁磕甓纪禟DD,可難得幾個能經(jīng)常中。
UAI (1-): 名字叫”人工智能中的不確定性”, 涉及表示推理學(xué)習(xí)等很多方面, AUAI(Association of UAI) 主辦, 每年開.
我知道的幾個人工智能會議(二三流)
(原創(chuàng)為lilybbs.us上的daniel)
純屬個人看法, 僅供參考. tier-1的列得較全, tier-2的不太全, tier-3的很不全.
同分的按字母序排列. 不很嚴謹?shù)卣f, tier-1是可以令人羨慕的, tier-2是可以令人尊敬的,由于AI的相關(guān)會議非常多, 所以能列進tier-3的也是不錯的.
tier 2: tier-2的會議列得不全, 我熟悉的領(lǐng)域比較全一些.
AAMAS (2+): agent方面最好的會議. 但是現(xiàn)在agent已經(jīng)是一個一般性的概念,
幾乎所有AI有關(guān)的會議上都有這方面的內(nèi)容, 所以AAMAS下降的趨勢非常明顯.
ECCV (2+): 計算機視覺方面僅次于ICCV的會議, 因為這個領(lǐng)域發(fā)展很快, 有可能升級到1-去.
ECML (2+): 機器學(xué)習(xí)方面僅次于ICML的會議, 歐洲人極力捧場, 一些人認為它已經(jīng)是1-了. 我保守一點, 仍然把它放在2+. 因為機器學(xué)習(xí)發(fā)展很快, 這個會議的reputation上升非常明顯.
ICDM (2+): 數(shù)據(jù)挖掘方面僅次于SIGKDD的會議, 目前和SDM相當(dāng). 這個會只有5年歷史, 上升速度之快非常驚人. 幾年前ICDM還比不上PAKDD, 現(xiàn)在已經(jīng)拉開很大距離了.
SDM (2+): 數(shù)據(jù)挖掘方面僅次于SIGKDD的會議, 目前和ICDM相當(dāng). SIAM的底子很厚,但在CS里面的影響比ACM和IEEE還是要小, SDM眼看著要被ICDM超過了, 但至少目前還是相當(dāng)?shù)?
ICAPS (2): 人工智能規(guī)劃方面最好的會議, 是由以前的國際和歐洲規(guī)劃會議合并來的. 因為這個領(lǐng)域逐漸變冷清, 影響比以前已經(jīng)小了.
ICCBR (2): Case-Based Reasoning方面最好的會議. 因為領(lǐng)域不太大, 而且一直半冷不熱, 所以總是停留在2上.
COLLING (2): 計算語言學(xué)/自然語言處理方面僅次于ACL的會, 但與ACL的差距比ICCV-ECCV和ICML-ECML大得多.
ECAI (2): 歐洲的人工智能綜合型會議, 歷史很久, 但因為有IJCAI/AAAI壓著,
很難往上升.
ALT (2-): 有點象COLT的tier-2版, 但因為搞計算學(xué)習(xí)理論的人沒多少, 做得好的數(shù)來數(shù)去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非計算學(xué)習(xí)理論的內(nèi)容.
EMNLP (2-): 計算語言學(xué)/自然語言處理方面一個不錯的會. 有些人認為與COLLING相當(dāng), 但我覺得它還是要弱一點.
ILP (2-): 歸納邏輯程序設(shè)計方面最好的會議. 但因為很多其他會議里都有ILP方面的內(nèi)容, 所以它只能保住2-的位置了.
PKDD (2-): 歐洲的數(shù)據(jù)挖掘會議, 目前在數(shù)據(jù)挖掘會議里面排第4. 歐洲人很想把它抬起來, 所以這些年一直和ECML一起捆綁著開, 希望能借ECML把它帶起來.但因為ICDM和SDM, 這已經(jīng)不太可能了. 所以今年的PKDD和ECML雖然還是一起開, 但已經(jīng)獨立審稿了(以前是可以同時投兩個會, 作者可以聲明優(yōu)先被哪個會考慮, 如果ECML中不了還可以被PKDD接受).
tier 3: 列得很不全. 另外, 因為AI的相關(guān)會議非常多, 所以能列在tier-3也算不錯了, 基本上能進到所有AI會議中的前30%吧
ACCV (3+): 亞洲的計算機視覺會議, 在亞太級別的會議里算很好的了.
DS (3+): 日本人發(fā)起的一個接近數(shù)據(jù)挖掘的會議.
ECIR (3+): 歐洲的信息檢索會議, 前幾年還只是英國的信息檢索會議.
ICTAI (3+): IEEE最主要的人工智能會議, 偏應(yīng)用, 是被IEEE辦爛的一個典型. 以前的quality還是不錯的, 但是辦得越久聲譽反倒越差了, 糟糕的是似乎還在繼續(xù)下滑, 現(xiàn)在其實3+已經(jīng)不太呆得住了.
PAKDD (3+): 亞太數(shù)據(jù)挖掘會議, 目前在數(shù)據(jù)挖掘會議里排第5.
ICANN (3+): 歐洲的神經(jīng)網(wǎng)絡(luò)會議, 從quality來說是神經(jīng)網(wǎng)絡(luò)會議中最好的, 但這個領(lǐng)域的人不重視會議,在該領(lǐng)域它的重要性不如IJCNN.
AJCAI (3): 澳大利亞的綜合型人工智能會議, 在國家/地區(qū)級AI會議中算不錯的了.
CAI (3): 加拿大的綜合型人工智能會議, 在國家/地區(qū)級AI會議中算不錯的了.
CEC (3): 進化計算方面最重要的會議之一, 盛會型. IJCNN/CEC/FUZZ-IEEE這三個會議是計算智能或者說軟計算方面最重要的會議, 它們經(jīng)常一起開, 這時就叫WCCI (World Congress on Computational Intelligence). 但這個領(lǐng)域和CS其他分支不太一樣, 倒是和其他學(xué)科相似, 只重視journal, 不重視會議, 所以錄用率經(jīng)常在85%左右, 所錄文章既有quality非常高的論文, 也有入門新手的習(xí)作.
FUZZ-IEEE (3): 模糊方面最重要的會議, 盛會型, 參見CEC的介紹.
GECCO (3): 進化計算方面最重要的會議之一, 與CEC相當(dāng),盛會型.
ICASSP (3): 語音方面最重要的會議之一, 這個領(lǐng)域的人也不很care會議.
ICIP (3): 圖像處理方面最著名的會議之一, 盛會型.
ICPR (3): 模式識別方面最著名的會議之一, 盛會型.
IEA/AIE (3): 人工智能應(yīng)用會議. 一般的會議提名優(yōu)秀論文的通常只有幾篇文章, 被提名就已經(jīng)是很高的榮譽了, 這個會很有趣, 每次都搞1、20篇的優(yōu)秀論文提名, 專門搞幾個session做被提名論文報告, 倒是很熱鬧.
IJCNN (3): 神經(jīng)網(wǎng)絡(luò)方面最重要的會議, 盛會型, 參見CEC的介紹.
IJNLP (3): 計算語言學(xué)/自然語言處理方面比較著名的一個會議.
PRICAI (3): 亞太綜合型人工智能會議, 雖然歷史不算短了, 但因為比它好或者相當(dāng)?shù)木C合型會議太多, 所以很難上升