国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
機器學(xué)習(xí)(Machine Learning)大家與資源 | 我愛機器學(xué)習(xí)

  Jordan身兼stat和cs兩個系的教授,從他身上可以看出Stat和ML的融合。  Jordan最先專注于mixtures of experts,并迅速奠定了自己的地位,我們哈爾濱工業(yè)大學(xué)的校友徐雷跟他做博后期間,也在這個方向上沾光不少。Jordan和他的弟子在很多方面作出了開創(chuàng)性的成果,如spectral clustering, Graphical model和nonparametric Bayesian?,F(xiàn)在后兩者在ML領(lǐng)域是非常炙手可熱的兩個方向,可以說很大程度上是Jordan的lab一手推動的。

  更難能可貴的是,Jordan不僅自己武藝高強,并且攬錢有法,教育有方,手下門徒眾多且很多人成了大器,隱然成為江湖大幫派。他的弟子中有10多人任教授,個人認為他現(xiàn)在的弟子中最出色的是stanford的Andrew Ng,不過由于資歷原因,現(xiàn)在還是assistant professor,不過成為大教授指日可待;另外Tommi Jaakkola和David Blei也非常厲害,其中Tommi Jaakkola在mit任教,David Blei之前在普林斯頓任副教授,最近剛剛(2014年4月初)被哥倫比亞大學(xué)花了三年時間挖走了,數(shù)次獲得NIPS最佳論文獎,把SVM的最大間隔方法和Markov network的structure結(jié)構(gòu)結(jié)合起來,赫赫有名。2012年獲得科學(xué)家總統(tǒng)獎,2014年初獲得2013 ACM-Infosys CS Award。還有一個博后是來自于toronto的Yee Whye Teh,非常不錯,有幸跟他打過幾次交道,人非常nice。另外還有一個博后居然在做生物信息方面的東西,看來jordan在這方面也撈了錢。這方面他有一個中國學(xué)生Eric P. Xing(清華大學(xué)校友),現(xiàn)在在cmu做assistant professor。

  總的說來,我覺得Jordan現(xiàn)在做的主要還是graphical model和Bayesian learning,他去年寫了一本關(guān)于graphical model的書,今年由mit press出版,應(yīng)該是這個領(lǐng)域里程碑式的著作。3月份曾經(jīng)有人答應(yīng)給我一本打印本看看,因為Jordan不讓他傳播電子版,但后來好像沒放在心上(可見美國人也不是很守信的),人不熟我也不好意思問著要,可以說是一大遺憾. 另外發(fā)現(xiàn)一個有趣的現(xiàn)象就是Jordan對hierarchical情有獨鐘,相當(dāng)多的文章都是關(guān)于hierarchical的,所以能hierarchical大家趕快hierarchical,否則就讓他給搶了。

  用我朋友話說看jordan牛不牛,看他主頁下面的Past students and postdocs就知道了。

Machine Learning大家(2):D. Koller (http://ai.stanford.edu/~koller/)

  D. Koller是1999年美國青年科學(xué)家總統(tǒng)獎(PECASE)得主,IJCAI 2001 Computers and Thought Award(IJCAI計算機與思維獎,這是國際人工智能界35歲以下青年學(xué)者的最高獎)得主,2004 World Technology Award得主。

  最先知道D koller是因為她得了一個大獎,2001年IJCAI計算機與思維獎。Koller因她在概率推理的理論和實踐、機器學(xué)習(xí)、計算博弈論等領(lǐng)域的重要貢獻,成為繼Terry Winograd、David Marr、Tom Mitchell、Rodney Brooks等人之后的第18位獲獎?wù)?。說起這個獎挺有意思的,IJCAI終身成就獎(IJCAI Award for Research Excellence),是國際人工智能界
的最高榮譽; IJCAI計算機與思維獎是國際人工智能界35歲以下青年學(xué)者的最高榮譽。早期AI研究將推理置于至高無上的地位; 但是1991年牛人Rodney Brooks對推理全面否定,指出機器只能獨立學(xué)習(xí)而得到了IJCAI計算機與思維獎; 但是koller卻因提出了Probabilistic Relational Models 而證明機器可以推理論知而又得到了這個獎,可見世事無絕對,科學(xué)有回。

  D koller的Probabilistic Relational Models在nips和icml等各種牛會上活躍了相當(dāng)長的一段時間,并且至少在實驗室里證明了它在信息搜索上的價值,這也導(dǎo)致了她的很多學(xué)生進入了google。雖然進入google可能沒有在牛校當(dāng)faculty名聲響亮,但要知道google的很多員工現(xiàn)在可都是百萬富翁,在全美大肆買房買車的主。

  Koller的研究主要都集中在probabilistic graphical model,如Bayesian網(wǎng)絡(luò),但這玩意我沒有接觸過,我只看過幾篇他們的markov network的文章,但看了也就看了,一點想法都沒有,這灘水有點深,不是我這種非科班出身的能趟的,并且感覺難以應(yīng)用到我現(xiàn)在這個領(lǐng)域中。

  Koller才從教10年,所以學(xué)生還沒有涌現(xiàn)出太多的牛人,這也是她不能跟Jordan比擬的地方,并且由于在stanford的關(guān)系,很多學(xué)生直接去硅谷賺大錢去了,而沒有在學(xué)術(shù)界開江湖大幫派的影響,但在stanford這可能太難以辦到,因為金錢的誘惑實在太大了。不過Koller的一個學(xué)生我非常崇拜,叫Ben Taskar,就是我在(1)中所提到的Jordan的博后,是好幾個牛會的最佳論文獎,他把SVM的最大間隔方法和Markov network結(jié)合起來,可以說是對structure data處理的一種標準工具,也把最大間隔方法帶入了一個新的熱潮,近幾年很多牛會都有這樣的workshop。 我最開始上Ben Taskar的在stanford的個人網(wǎng)頁時,正趕上他剛畢業(yè),他的頂上有這么一句話:流言變成了現(xiàn)實,我終于畢業(yè)了! 可見Koller是很變態(tài)的,把自己的學(xué)生關(guān)得這么郁悶,這恐怕也是大多數(shù)女faculty的通病吧,并且估計還非常的push!2013年去世的牛人UW的Ben Taskar就是Koller的學(xué)生。另外Koller和NG合辦了Coursera

Machine learning 大家(3): J. D. Lafferty

  大家都知道NIPS和ICML向來都是由大大小小的山頭所割據(jù),而John Lafferty無疑是里面相當(dāng)高的一座高山,這一點可從他的publication list里的NIPS和ICML數(shù)目得到明證。雖然江湖傳說計算機重鎮(zhèn)CMU現(xiàn)在在走向衰落,但這無礙Lafferty擁有越來越大的影響力,翻開AI兵器譜排名第一的journal of machine learning research的很多文章,我們都能發(fā)現(xiàn)author或者editor中赫然有Lafferty的名字。

  Lafferty給人留下的最大的印象似乎是他2001年的conditional random fields,這篇文章后來被瘋狂引用,廣泛地應(yīng)用在語言和圖像處理,并隨之出現(xiàn)了很多的變體,如Kumar的discriminative random fields等。雖然大家都知道discriminative learning好,但很久沒有找到好的discriminative方法去處理這些具有豐富的contextual inxxxxation的數(shù)據(jù),直到Lafferty的出現(xiàn)。

  而現(xiàn)在Lafferty做的東西好像很雜,semi-supervised learning, kernel learning,graphical models甚至manifold learning都有涉及,可能就是像武俠里一樣只要學(xué)會了九陽神功,那么其它的武功就可以一窺而知其精髓了。這里面我最喜歡的是semi-supervised learning,因為隨著要處理的數(shù)據(jù)越來越多,進行全部label過于困難,而完全unsupervised的方法又讓人不太放心,在這種情況下semi-supervised learning就成了最好的。這沒有一個比較清晰的認識,不過這也給了江湖后輩成名的可乘之機。到現(xiàn)在為止,我覺得cmu的semi-supervised是做得最好的,以前是KAMAL NIGAM做了開創(chuàng)性的工作,而現(xiàn)在Lafferty和他的弟子作出了很多總結(jié)和創(chuàng)新。

  Lafferty的弟子好像不是很多,并且好像都不是很有名。不過今年畢業(yè)了一個中國人,Xiaojin Zhu(上海交通大學(xué)校友),就是做semi-supervised的那個人,現(xiàn)在在wisconsin-madison做assistant professor。他做了迄今為止最全面的Semi-supervised learning literature survey, 大家可以從他的個人主頁中找到。這人看著很憨厚,估計是很好的陶瓷
對象。另外我在(1)中所說的Jordan的牛弟子D Blei今年也投奔Lafferty做博后,就足見Lafferty的牛了。

  Lafferty做NLP是很好的,著名的Link Grammar Parser還有很多別的應(yīng)用。其中l(wèi)anguage model在IR中應(yīng)用,這方面他的另一個中國學(xué)生ChengXiang Zhai(南京大學(xué)校友,2004年美國青年科學(xué)家總統(tǒng)獎(PECASE)得主),現(xiàn)在在uiuc做assistant professor。

Machine learning 大家(4): Peter L. Bartlett

  鄙人淺薄之見,Jordan比起同在berkeley的Peter Bartlett還是要差一個層次。Bartlett主要的成就都是在learning theory方面,也就是ML最本質(zhì)的東西。他的幾篇開創(chuàng)性理論分析的論文,當(dāng)然還有他的書Neural Network Learning: Theoretical Foundations。

  UC Berkeley的統(tǒng)計系在強手如林的北美高校中一直是top3, 這就足以證明其肯定是群星薈萃,而其中,Peter L. Bartlett是相當(dāng)亮的一顆星。關(guān)于他的研究,我想可以從他的一本書里得到答案:Neural Network Learning: Theoretical Foundations。也就是說,他主要做的是Theoretical Foundations?;A(chǔ)理論雖然沒有一些直接可面向應(yīng)用的算法那樣
引人注目,但對科學(xué)的發(fā)展實際上起著更大的作用。試想vapnik要不是在VC維的理論上辛苦了這么多年,怎么可能有SVM的問世。不過陽春白雪固是高雅,但大多數(shù)人只能聽懂下里巴人,所以Bartlett的文章大多只能在做理論的那個圈子里產(chǎn)生影響,而不能為大多數(shù)人所廣泛引用。

  Bartlett在最近兩年做了大量的Large margin classifiers方面的工作,如其convergence rate和generalization bound等。并且很多是與jordan合作,足見兩人的工作有很多相通之處。不過我發(fā)現(xiàn)Bartlett的大多數(shù)文章都是自己為第一作者,估計是在教育上存在問題吧,沒帶出特別牛的學(xué)生出來。

  Bartlett的個人主頁的talk里有很多值得一看的slides,如Large Margin Classifiers:Convexity and Classification;Large Margin Methods for Structured Classification: Exponentiated Gradient Algorithms。大家有興趣的話可以去下來看看。

Machine learning 大家(5):   Michael Collins

  Michael Collins (http://people.csail.mit.edu/mcollins/
自然語言處理(NLP)江湖的第一高人。出身Upenn,靠一身叫做Collins Parser的武功在江湖上展露頭腳。當(dāng)然除了資質(zhì)好之外,其出身也幫了不少忙。早年一個叫做Mitchell P. Marcus的師傅傳授了他一本葵花寶典-Penn Treebank。從此,Collins整日沉迷于此,終于練成蓋世神功。

  學(xué)成之后,Collins告別師傅開始闖蕩江湖,投入了一個叫AT&T Labs Research的幫會,并有幸結(jié)識了Robert Schapire、Yoram Singer等眾多高手。大家不要小瞧這個叫AT&T Labs Research的幫會,如果誰沒有聽過它的大名總該知道它的同父異母的兄弟Bell Labs吧。  言歸正傳,話說Collins在這里度過了3年快樂的時光。其間也奠定了其NLP江湖老大的地位。并且練就了Discriminative Reranking, Convolution Kernels,Discriminative Training Methods for Hidden Markov Models等多種絕技。然而,世事難料,怎奈由于幫會經(jīng)營不善,這幫大牛又不會為幫會拼殺,終于被一腳踢開,大家如鳥獸散了。Schapire去了Princeton, Singer 也回老家以色列了。Collins來到了MIT,成為了武林第一大幫的六袋
長老,并教授一門叫做Machine Learning Approaches for NLP (http://www.ai.mit.edu/courses/6.891-nlp/) 的功夫。雖然這一地位與其功力極不相符,但是這并沒有打消Collins的積極性,通過其刻苦打拼,終于得到了一個叫Sloan Research Fellow的頭銜,并于今年7月,光榮的升任7袋Associate Professor。

  在其下山短短7年時間內(nèi),Collins共獲得了4次世界級武道大會冠軍(EMNLP2002, 2004,UAI2004, 2005)。相信年輕的他,總有一天會一統(tǒng)丐幫,甚至整個江湖。

  看過Collins和別人合作的一篇文章,用conditional random fields 做object recogn
tion。還這么年輕,admire to death!

=======================國內(nèi)====================

之前自己一直想總結(jié)一下國內(nèi)搞機器學(xué)習(xí)和數(shù)據(jù)挖掘的大牛,但是自己太懶了。所以沒搞…

最近看到了下面轉(zhuǎn)載的這篇博文,感覺總結(jié)的比較全面了。

   個人認為,但從整體研究實力來說,機器學(xué)習(xí)和數(shù)據(jù)挖掘方向國內(nèi)最強的地方還是在MSRA,

那邊的相關(guān)研究小組太多,很多方向都能和數(shù)據(jù)挖掘扯上邊。這里我再補充幾個相關(guān)研究方向

的年輕老師和學(xué)者吧。

蔡登:http://www.cad.zju.edu.cn/home/dengcai/,Han Jiawei老師的學(xué)生,博士畢業(yè)后回浙大

任教,也算是國內(nèi)年輕一代的牛人了。

萬小軍:https://sites.google.com/site/wanxiaojun1979/,得翻墻才能看到主頁。主要

研究方向是文本挖掘和語義計算。自然語言方向好會議發(fā)了很多文章。

張磊:http://research.microsoft.com/en-us/um/people/leizhang/

———————————————————————————————–

原文地址:http://blog.csdn.net/playoffs/article/details/7588597

李航:http://research.microsoft.com/en- us/people/hangli/,是MSRA Web Search and

Mining Group高級研究員和主管,主要研究領(lǐng)域是信息檢索,自然語言處理和統(tǒng)計學(xué)習(xí)。

近年來,主要與人合作使用機器學(xué)習(xí)方法對信息檢索中排序,相關(guān)性等問題的 研究。曾在

人大聽過一場他的講座,對實際應(yīng)用的問題抽象,轉(zhuǎn)化和解決能力值得學(xué)習(xí)。

周志華:http://cs.nju.edu.cn/zhouzh/,是南京大學(xué)的杰青,機器學(xué)習(xí)和數(shù)據(jù)挖掘方面

國內(nèi)的領(lǐng)軍人物,其好幾個研究生都 進入了美國一流高校如uiuc,cmu等學(xué)習(xí)和深造。周教授

在半監(jiān)督學(xué)習(xí),multi-label學(xué)習(xí)和集成學(xué)習(xí)方面在國際上有一定的影響力。另外,他也

是ACML的創(chuàng)始人。人也很nice,曾經(jīng)發(fā)郵件咨詢過一個naive的問題,周老師還在百忙之中

回復(fù)了我,并對我如何發(fā)郵件給了些許建議。

楊強:http://www.cse.ust.hk/~qyang/,香港科技大學(xué)教 授,也是KDD 2012的會議主席,

可見功力非同一般。楊教授是遷移學(xué)習(xí)的國際領(lǐng)軍人物,曾經(jīng)的中國第一位acm全球冠軍上

交的戴文淵碩士期間就是跟他合作發(fā)表了一系列 高水平的文章。還有,楊教授曾有一個關(guān)

于機器學(xué)習(xí)和數(shù)據(jù)挖掘有意思的比喻:比如你訓(xùn)練一只狗,若干年后,如果它忽然有一天能

幫你擦鞋洗衣服,那么這就是數(shù) 據(jù)挖掘;要是忽然有一天,你發(fā)現(xiàn)狗發(fā)裝成一個老太婆

消失了,那么這就是機器學(xué)習(xí)。

李建中:http://db.hit.edu.cn/jianzhongli/,哈工大和黑大共有教授,是分布式數(shù)據(jù)庫

的領(lǐng)軍人物。近年來,其團隊 在不確定性數(shù)據(jù),sensor network方面也發(fā)表了一系列有名

文章。李教授為人師表,教書育人都做得了最好,在圈內(nèi)是讓人稱道的好老師和好學(xué)者。

唐杰:http://keg.cs.tsinghua.edu.cn/jietang/,清華大學(xué)副教授,是圖挖掘方面的專家。

他主持設(shè)計和實現(xiàn)的Arnetminer是國內(nèi)領(lǐng)先的圖挖掘系統(tǒng),該系統(tǒng)也是多個會議的支持商。

張鈸:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html 清華

大學(xué)教授,中科院院士,。現(xiàn)任清華大學(xué)信息技術(shù)研究院指導(dǎo)委員會主任,微軟亞洲研究院

技術(shù)顧問等。主要從事人工智能、神經(jīng)網(wǎng)絡(luò)、遺傳算法、智能機器 人、模式識別以及智能控

制等領(lǐng)域的研究工作。在過去二十多年中,張鈸教授系統(tǒng)地提出了問題求解的商空間理
論。近年來,他建立了神經(jīng)與認知計算研究中心以及多媒體信息處理研究組。該研究組已在

圖像和視頻的分析與檢索方面取得一些重要研究成果。

劉鐵巖:http://research.microsoft.com/en-us/people/tyliu/ MSRA研究主管,

是learning to rank的國際知名學(xué)者。近年逐步轉(zhuǎn)向管理,研究興趣則開始關(guān)注計算廣告學(xué)方面。

王海峰:http://ir.hit.edu.cn/~wanghaifeng/ 信息檢索,自然語言處理,機器翻譯方面

的專家,ACL的副主席,百度高級科學(xué)家。近年,在百度主持研發(fā)了百度翻譯產(chǎn)品。

何曉飛:http://people.cs.uchicago.edu/~xiaofei/ 浙江大學(xué)教授,多媒體處理,

圖像檢索以及流型學(xué)習(xí)的國際領(lǐng)先學(xué)者。

朱軍:http://www.ml-thu.net/~jun/ 清華大學(xué)副教授,機器學(xué)習(xí)絕對重量級新星。

主要研究領(lǐng)域是latent variable models, large-margin learning, Bayesian nonparametrics,

and sparse learning in high dimensions. 他也是今年龍星計劃的機器學(xué)習(xí)領(lǐng)域的主講人之一。

———————————————————————————————-

吳軍:http://www.cs.jhu.edu/~junwu/ 騰訊副總裁,前google研究員。

著名《數(shù)學(xué)之美》和《浪潮之巔》系列的作者。

張棟:http://weibo.com/machinelearning 前百度科學(xué)家和google研究員,機器學(xué)習(xí)工業(yè)界的代表人物之一。

戴文淵:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai 現(xiàn)百度鳳巢ctr預(yù)估組leader。

前ACM大賽冠軍,碩士期間一系列transfer learning方面的高水平論文讓人瞠目結(jié)舌。

======================資源====================

以前轉(zhuǎn)過一個計算機視覺領(lǐng)域內(nèi)的牛人簡介,現(xiàn)在轉(zhuǎn)一個更寬范圍內(nèi)的牛人簡介:

http://people.cs.uchicago.edu/~niyogi/

http://www.cs.uchicago.edu/people/

http://pages.cs.wisc.edu/~jerryzhu/

http://www.kyb.tuebingen.mpg.de/~chapelle

http://people.cs.uchicago.edu/~xiaofei/

http://www.cs.uiuc.edu/homes/dengcai2/

http://www.kyb.mpg.de/~bs

http://research.microsoft.com/~denzho/

http://www-users.cs.umn.edu/~kumar/dmbook/index.php#item5

(resources for the book of the introduction of data mining by Pang-ning Tan et.al. )(國內(nèi)已經(jīng)有相應(yīng)的中文版)

http://www.cs.toronto.edu/~roweis/lle/publications.html    (lle算法源代碼及其相關(guān)論文)

http://dataclustering.cse.msu.edu/index.html#software(data clustering)

http://www.cs.toronto.edu/~roweis/     (里面有好多資源)

http://www.cse.msu.edu/~lawhiu/  (manifold learning)

http://www.math.umn.edu/~wittman/mani/ (manifold learning demo in matlab)

http://www.iipl.fudan.edu.cn/~zhangjp/literatures/MLF/INDEX.HTM  (manifold learning in matlab)

http://videolectures.net/mlss05us_belkin_sslmm/   (semi supervised learning with manifold method by Belkin)

http://isomap.stanford.edu/    (isomap主頁)

http://web.mit.edu/cocosci/josh.html  MIT    TENENBAUM J B主頁

http://web.engr.oregonstate.edu/~tgd/    (國際著名的人工智能專家 Thomas G. Dietterich)

http://www.cs.berkeley.edu/~jordan/ (MIchael I.Jordan)

http://www.cs.cmu.edu/~awm/  (Andrew W. Moore’s  homepage)

http://learning.cs.toronto.edu/ (加拿大多倫多大學(xué)機器學(xué)習(xí)小組)

http://www.cs.cmu.edu/~tom/ (Tom Mitchell,里面有與教材匹配的slide。)

Kernel Methods
Alexander J. SmolaMaximum Mean Discrepancy (MMD), Hilbert-Schmidt Independence Criterion (HSIC)

Bernhard Sch?lkopf

Kernel PCA

James T Kwok

Pre-Image, Kernel Learning, Core Vector Machine(CVM)

Jieping Ye

Kernel Learning, Linear Discriminate Analysis, Dimension Deduction

Multi-Task Learning
Andreas ArgyriouMulti-Task Feature Learning

Charles A. Micchelli

Multi-Task Feature Learning, Multi-Task Kernel Learning

Massimiliano Pontil

Multi-Task Feature Learning

Yiming Ying

Multi-Task Feature Learning, Multi-Task Kernel Learning

Semi-supervised Learning

Partha Niyogi

Manifold Regularization, Laplacian Eigenmaps

Mikhail Belkin

Manifold Regularization, Laplacian Eigenmaps

Vikas Sindhwani

Manifold Regularization

Xiaojin Zhu

Graph-based Semi-supervised Learning

Multiple Instance Learning
Sally A GoldmanEM-DD, DD-SVM, Multiple Instance Semi Supervised Learning(MISS)
Dimensionality Reduction

Neil Lawrence

Gaussian Process Latent Variable Models (GPLVM)

Lawrence K. Saul

Maximum Variance Unfolding(MVU), Semidefinite Embedding(SDE)

Machine Learning
Michael I. JordanGraphical Models

John Lafferty

Diffusion Kernels, Graphical Models

Daphne Koller

Logic, Probability

Zhang Tong

Theoretical Analysis of Statistical Algorithms, Multi-task Learning, Graph-based Semi-supervised Learning

Zoubin Ghahramani

Bayesian approaches to machine learning

Machine Learning @ Toronto

Statitiscal Machine Learning & Optimization
Jerome H FriedmanGLasso, Statistical view of AdaBoost, Greedy Function Approximation

Thevor Hastie

Lasso

Stephen Boyd

Convex Optimization

C.J Lin

Libsvm

http://www.dice.ucl.ac.be/mlg/

半監(jiān)督流形學(xué)習(xí)(流形正則化)

http://manifold.cs.uchicago.edu/

模式識別和神經(jīng)網(wǎng)絡(luò)工具箱

http://www.ncrg.aston.ac.uk/netlab/index.php

機器學(xué)習(xí)開源代碼

http://mloss.org/software/tags/large-scale-learning/

統(tǒng)計學(xué)開源代碼

http://www.wessa.net/

matlab各種工具箱鏈接

http://www.tech.plym.ac.uk/spmc/links/matlab/matlab_toolbox.html

統(tǒng)計學(xué)學(xué)習(xí)經(jīng)典在線教材

http://www.statistics4u.info/

機器學(xué)習(xí)開源源代碼

http://mloss.org/software/language/matlab/

======================會議====================

我知道的幾個人工智能會議(一流)
下面同分的按字母序排列:IJCAI (1+): AI最好的綜合性會議, 1969年開始, 每兩年開一次, 奇數(shù)年開. 因為AI 實在太大, 所以雖然每屆基本上能錄100多篇(現(xiàn)在已經(jīng)到200多篇了),但分到每個領(lǐng)域就沒幾篇了,象machine learning、computer vision這么大的領(lǐng)域每次大概也就10篇左右, 所以難度很大. 不過從錄用率上來看倒不太低,基本上20%左右, 因為內(nèi) 行人都會掂掂分量, 沒希望的就別浪費reviewer的時間了. 最近中國大陸投往國際會議的文章象潮水一樣, 而且因為國內(nèi)很少有能自己把關(guān)的研究組, 所以很多會議都在complain說中國的低質(zhì)量文章嚴重妨礙了PC的工作效率. 在這種情況下, 估計這幾年國際會議的錄用率都會降下去. 另外, 以前的IJCAI是沒有poster的, 03年開始, 為了減少被誤殺的好人, 增加了2頁紙的poster.值得一提的是, IJCAI是由貌似一個公司”IJCAI Inc.”主辦的(當(dāng)然實際上并不是公司, 實際上是個基金會), 每次會議上要 發(fā)幾個獎, 其中最重要的兩個是IJCAI Research Excellence Award 和 Computer& Thoughts Award, 前者是終身成就獎, 每次一個人, 基本上是AI的最高獎(有趣的是, 以AI為主業(yè)拿圖靈獎的6位中, 有2位還沒得到這個獎), 后者是獎給35歲以下的青年科學(xué)家, 每次一個人. 這兩個獎的獲獎演說是每次IJCAI的一個重頭戲.另外,IJCAI 的 PC member 相當(dāng)于其他會議的area chair, 權(quán)力很大, 因為是由PC member 去找 reviewer 來審, 而不象一般會議的PC member其實就是 reviewer. 為了制約這種權(quán)力, IJCAI的審稿程序是每篇文章分配2位PC member, primary PC member去找3位reviewer, second PC member 找一位.AAAI (1): 美國人工智能學(xué)會AAAI的年會. 是一個很好的會議, 但其檔次不穩(wěn)定, 可以給到1+, 也可以給到1-或者2+, 總的來說我給它”1″. 這是因為它的開法完全受IJCAI制約: 每年開, 但如果這一年的IJCAI在北美舉行, 那么就停開. 所以, 偶數(shù)年里因為沒有IJCAI, 它就是最好的AI綜合性會議, 但因為號召力畢竟比IJCAI要小一些,特別是歐洲人捧AAAI場的比IJCAI少得多(其實亞洲人也是), 所以比IJCAI還是要稍弱一點, 基本上在1和1+之間; 在奇數(shù)年, 如果IJCAI不在北美, AAAI自然就變成了比IJCAI低一級的會議(1-或2+), 例如2005年既有IJCAI又有AAAI, 兩個會議就進行了協(xié)調(diào), 使得IJCAI的錄用通知時間比AAAI的deadline早那么幾天, 這樣IJCAI落選的文章可以投往AAAI.在審稿時IJCAI 的 PC chair也在一直催, 說大家一定要快, 因為AAAI那邊一直在擔(dān)心IJCAI的錄用通知出晚了AAAI就麻煩了.COLT (1): 這是計算學(xué)習(xí)理論最好的會議, ACM主辦, 每年舉行. 計算學(xué)習(xí)理論基本上可以看成理論計算機科學(xué)和機器學(xué)習(xí)的交叉, 所以這個會被一些人看成是理論計算機科學(xué)的會而不是AI的會. 我一個朋友用一句話對它進行了精彩的刻畫: “一小群數(shù)學(xué)家在開會”. 因為COLT的領(lǐng)域比較小, 所以每年會議基本上都是那些人. 這里順便提一件有趣的事, 因為最近國內(nèi)搞的會議太多太濫, 而且很多會議都是LNCS/LNAI出論文集, LNCS/LNAI基本上已經(jīng)被搞臭了, 但很不幸的是, LNCS/LNAI中有一些很好的會議, 例如COLT.

CVPR (1): 計算機視覺和模式識別方面最好的會議之一, IEEE主辦, 每年舉行. 雖然題目上有計算機視覺, 但個人認為它的模式識別味道更重一些. 事實上它應(yīng)該是模式識別最好的會議, 而在計算機視覺方面, 還有ICCV與之相當(dāng). IEEE一直有個傾向, 要把會辦成”盛會”, 歷史上已經(jīng)有些會被它從quality很好的會辦成”盛會”了. CVPR搞不好也要走這條路. 這幾年錄的文章已經(jīng)不少了. 最近負責(zé)CVPR會議的TC的chair發(fā)信說, 對這個community來說, 讓好人被誤殺比被壞人漏網(wǎng)更糟糕, 所以我們是不是要減少好人被誤殺的機會啊? 所以我估計明年或者后年的CVPR就要擴招了.

ICCV (1): 介紹CVPR的時候說過了, 計算機視覺方面最好的會之一. IEEE主辦.  ICCV逢奇數(shù)年開,開會地點以往是北美,歐洲和亞洲輪流,本來2003年定在北京,后來因Sars和原定05年的法國換了一下。ICCV’07年將首次 在南美(巴西)舉行.
CVPR原則上每年在北美開, 如果那年正好ICCV在北美,則該年沒有CVPR.

ICML (1): 機器學(xué)習(xí)方面最好的會議之一. 現(xiàn)在是IMLS主辦, 每年舉行. 參見關(guān)于NIPS的介紹.

NIPS (1): 神經(jīng)計算方面最好的會議之一, NIPS主辦, 每年舉行. 值得注意的是, 這個會每年的舉辦地都是一樣的, 以前是美國丹佛, 現(xiàn)在是加拿大溫哥華; 而且它是年底開會, 會開完后第2年才出論文集, 也就是說, NIPS’05的論文集是06年出. 會議的名字是”Advances in Neural Inxxxxation Processing Systems”, 所以, 與ICMLECML這樣的”標準的”機器學(xué)習(xí)會議不同, NIPS里有相當(dāng)一部分神經(jīng)科學(xué)的內(nèi)容, 和機器學(xué)習(xí)有一定的距離. 但由于會議的主體內(nèi)容是機器學(xué)習(xí), 或者說與機器學(xué)習(xí)關(guān)系緊密, 所以不少人把NIPS看成是機器學(xué)習(xí)方面最好的會議之一. 這個會議基本上控制在MichaelJordan的徒子徒孫手中, 所以對Jordan系的人來說, 發(fā)NIPS并不是難事, 一些未必很強的工作也能發(fā)上去, 但對這個圈子之外的人來說, 想發(fā)一篇實在很難, 因為留給”外人”的口子很小. 所以對Jordan系以外的人來說, 發(fā)NIPS的難度比ICML更大. 換句話說,ICML比較開放, 小圈子的影響不象NIPS那么大, 所以北美和歐洲人都認, 而NIPS則有些人(特別是一些歐洲人, 包括一些大家)堅決不投稿. 這對會議本身當(dāng)然并不是好事,但因為Jordan系很強大, 所以它似乎也不太care. 最近IMLS(國際機器學(xué)習(xí)學(xué)會)改選理事, 有資格提名的人包括近三年在ICMLECMLCOLT發(fā)過文章的人, NIPS則被排除在外了. 無論如何, 這是一個非常好的會.

ACL (1-): 計算語言學(xué)/自然語言處理方面最好的會議, ACL (Association of

Computational Linguistics) 主辦, 每年開.

KR (1-): 知識表示和推理方面最好的會議之一, 實際上也是傳統(tǒng)AI(即基于邏輯的AI)最好的會議之一. KR Inc.主辦, 現(xiàn)在是偶數(shù)年開.

SIGIR (1-): 信息檢索方面最好的會議, ACM主辦, 每年開. 這個會現(xiàn)在小圈子氣越來越重. 信息檢索應(yīng)該不算AI, 不過因為這里面用到機器學(xué)習(xí)越來越多, 最近幾年甚至有點機器學(xué)習(xí)應(yīng)用會議的味道了, 所以把它也列進來.

SIGKDD (1-): 數(shù)據(jù)挖掘方面最好的會議, ACM主辦, 每年開. 這個會議歷史比較短,畢竟, 與其他領(lǐng)域相比,數(shù)據(jù)挖掘還只是個小弟弟甚至小侄兒. 在幾年前還很難把它列在tier-1里面, 一方面是名聲遠不及其他的top conference響亮, 另一方面是相對容易被錄用. 但現(xiàn)在它被列在tier-1應(yīng)該是毫無疑問的事情了. 這幾年來KDD的質(zhì)量都很高. SIGKDD從2000年來full paper的錄取率都在10%-12%之間,遠遠低于IJCAI和ICML.

經(jīng)常聽人說,KDD要比IJICAI和ICML都要困難。IJICAI才6頁,而KDD要10頁。沒有扎實系統(tǒng)的工作,很難不留下漏洞。有不少IJICAI的??鸵裁磕甓纪禟DD,可難得幾個能經(jīng)常中。

UAI (1-): 名字叫”人工智能中的不確定性”, 涉及表示推理學(xué)習(xí)等很多方面, AUAI(Association of UAI) 主辦, 每年開.

我知道的幾個人工智能會議(二三流)
(原創(chuàng)為lilybbs.us上的daniel)

純屬個人看法, 僅供參考. tier-1的列得較全, tier-2的不太全, tier-3的很不全.
同分的按字母序排列. 不很嚴謹?shù)卣f, tier-1是可以令人羨慕的, tier-2是可以令人尊敬的,由于AI的相關(guān)會議非常多, 所以能列進tier-3的也是不錯的.

tier 2: tier-2的會議列得不全, 我熟悉的領(lǐng)域比較全一些.

AAMAS (2+): agent方面最好的會議. 但是現(xiàn)在agent已經(jīng)是一個一般性的概念,
幾乎所有AI有關(guān)的會議上都有這方面的內(nèi)容, 所以AAMAS下降的趨勢非常明顯.

ECCV (2+): 計算機視覺方面僅次于ICCV的會議, 因為這個領(lǐng)域發(fā)展很快, 有可能升級到1-去.

ECML (2+): 機器學(xué)習(xí)方面僅次于ICML的會議, 歐洲人極力捧場, 一些人認為它已經(jīng)是1-了. 我保守一點, 仍然把它放在2+. 因為機器學(xué)習(xí)發(fā)展很快, 這個會議的reputation上升非常明顯.

ICDM (2+): 數(shù)據(jù)挖掘方面僅次于SIGKDD的會議, 目前和SDM相當(dāng). 這個會只有5年歷史, 上升速度之快非常驚人. 幾年前ICDM還比不上PAKDD, 現(xiàn)在已經(jīng)拉開很大距離了.

SDM (2+): 數(shù)據(jù)挖掘方面僅次于SIGKDD的會議, 目前和ICDM相當(dāng). SIAM的底子很厚,但在CS里面的影響比ACM和IEEE還是要小, SDM眼看著要被ICDM超過了, 但至少目前還是相當(dāng)?shù)?

ICAPS (2): 人工智能規(guī)劃方面最好的會議, 是由以前的國際和歐洲規(guī)劃會議合并來的. 因為這個領(lǐng)域逐漸變冷清, 影響比以前已經(jīng)小了.

ICCBR (2): Case-Based Reasoning方面最好的會議. 因為領(lǐng)域不太大, 而且一直半冷不熱, 所以總是停留在2上.

COLLING (2): 計算語言學(xué)/自然語言處理方面僅次于ACL的會, 但與ACL的差距比ICCV-ECCV和ICML-ECML大得多.

ECAI (2): 歐洲的人工智能綜合型會議, 歷史很久, 但因為有IJCAI/AAAI壓著,
很難往上升.

ALT (2-): 有點象COLT的tier-2版, 但因為搞計算學(xué)習(xí)理論的人沒多少, 做得好的數(shù)來數(shù)去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非計算學(xué)習(xí)理論的內(nèi)容.

EMNLP (2-): 計算語言學(xué)/自然語言處理方面一個不錯的會. 有些人認為與COLLING相當(dāng), 但我覺得它還是要弱一點.

ILP (2-): 歸納邏輯程序設(shè)計方面最好的會議. 但因為很多其他會議里都有ILP方面的內(nèi)容, 所以它只能保住2-的位置了.

PKDD (2-): 歐洲的數(shù)據(jù)挖掘會議, 目前在數(shù)據(jù)挖掘會議里面排第4. 歐洲人很想把它抬起來, 所以這些年一直和ECML一起捆綁著開, 希望能借ECML把它帶起來.但因為ICDM和SDM, 這已經(jīng)不太可能了. 所以今年的PKDD和ECML雖然還是一起開, 但已經(jīng)獨立審稿了(以前是可以同時投兩個會, 作者可以聲明優(yōu)先被哪個會考慮, 如果ECML中不了還可以被PKDD接受).

tier 3: 列得很不全. 另外, 因為AI的相關(guān)會議非常多, 所以能列在tier-3也算不錯了, 基本上能進到所有AI會議中的前30%吧

ACCV (3+): 亞洲的計算機視覺會議, 在亞太級別的會議里算很好的了.

DS (3+): 日本人發(fā)起的一個接近數(shù)據(jù)挖掘的會議.

ECIR (3+): 歐洲的信息檢索會議, 前幾年還只是英國的信息檢索會議.

ICTAI (3+): IEEE最主要的人工智能會議, 偏應(yīng)用, 是被IEEE辦爛的一個典型. 以前的quality還是不錯的, 但是辦得越久聲譽反倒越差了, 糟糕的是似乎還在繼續(xù)下滑, 現(xiàn)在其實3+已經(jīng)不太呆得住了.

PAKDD (3+): 亞太數(shù)據(jù)挖掘會議, 目前在數(shù)據(jù)挖掘會議里排第5.

ICANN (3+): 歐洲的神經(jīng)網(wǎng)絡(luò)會議, 從quality來說是神經(jīng)網(wǎng)絡(luò)會議中最好的, 但這個領(lǐng)域的人不重視會議,在該領(lǐng)域它的重要性不如IJCNN.

AJCAI (3): 澳大利亞的綜合型人工智能會議, 在國家/地區(qū)級AI會議中算不錯的了.

CAI (3): 加拿大的綜合型人工智能會議, 在國家/地區(qū)級AI會議中算不錯的了.

CEC (3): 進化計算方面最重要的會議之一, 盛會型. IJCNN/CEC/FUZZ-IEEE這三個會議是計算智能或者說軟計算方面最重要的會議, 它們經(jīng)常一起開, 這時就叫WCCI  (World Congress on Computational Intelligence). 但這個領(lǐng)域和CS其他分支不太一樣, 倒是和其他學(xué)科相似, 只重視journal, 不重視會議, 所以錄用率經(jīng)常在85%左右, 所錄文章既有quality非常高的論文, 也有入門新手的習(xí)作.

FUZZ-IEEE (3): 模糊方面最重要的會議, 盛會型, 參見CEC的介紹.

GECCO (3): 進化計算方面最重要的會議之一, 與CEC相當(dāng),盛會型.

ICASSP (3): 語音方面最重要的會議之一, 這個領(lǐng)域的人也不很care會議.

ICIP (3): 圖像處理方面最著名的會議之一, 盛會型.

ICPR (3): 模式識別方面最著名的會議之一, 盛會型.

IEA/AIE (3): 人工智能應(yīng)用會議. 一般的會議提名優(yōu)秀論文的通常只有幾篇文章, 被提名就已經(jīng)是很高的榮譽了, 這個會很有趣, 每次都搞1、20篇的優(yōu)秀論文提名, 專門搞幾個session做被提名論文報告, 倒是很熱鬧.

IJCNN (3): 神經(jīng)網(wǎng)絡(luò)方面最重要的會議, 盛會型, 參見CEC的介紹.

IJNLP (3): 計算語言學(xué)/自然語言處理方面比較著名的一個會議.

PRICAI (3): 亞太綜合型人工智能會議, 雖然歷史不算短了, 但因為比它好或者相當(dāng)?shù)木C合型會議太多, 所以很難上升

==========機器學(xué)習(xí)推薦論文和書籍=================

基本模型:
HMM(Hidden Markov Models):
A Tutorial on Hidden Markov Models and Selected Applications in
Speech Recognition.pdf
ME(Maximum Entropy):
ME_to_NLP.pdf
MEMM(Maximum Entropy Markov Models):
memm.pdf
CRF(Conditional Random Fields):
An Introduction to Conditional Random Fields for Relational Learning.pdf
Conditional Random Fields: Probabilistic Models for Segmenting and
Labeling Sequence Data.pdf
SVM(support vector machine):
*張學(xué)工<<統(tǒng)計學(xué)習(xí)理論>>
LSA(or LSI)(Latent Semantic Analysis):
Latent semantic analysis.pdf
pLSA(or pLSI)(Probablistic Latent Semantic Analysis):
Probabilistic Latent Semantic Analysis.pdf
LDA(Latent Dirichlet Allocation):
Latent Dirichlet Allocaton.pdf(用variational theory + EM算法解模型)
Parameter estimation for text analysis.pdf(using Gibbs Sampling 解模)
Neural Networksi(including Hopfield Model& self-organizing maps &
Stochastic networks & Boltzmann Machine etc.):
Neural Networks – A Systematic Introduction
Diffusion Networks:
Diffusion Networks, Products of Experts, and Factor Analysis.pdf
Markov random fields:
Generalized Linear Model(including logistic regression etc.):
An introduction to Generalized Linear Models 2nd
Chinese Restraunt Model (Dirichlet Processes):
Dirichlet Processes, Chinese Restaurant Processes and all that.pdf
Estimating a Dirichlet Distribution.pdf
=================================================================
Some important algorithms:
EM(Expectation Maximization):
Expectation Maximization and Posterior Constraints.pdf
Maximum Likelihood from Incomplete Data via the EM Algorithm.pdf
MCMC(Markov Chain Monte Carlo) & Gibbs Sampling:
Markov Chain Monte Carlo and Gibbs Sampling.pdf
Explaining the Gibbs Sampler.pdf
An introduction to MCMC for Machine Learning.pdf
PageRank:
矩陣分解算法:
SVD, QR分解, Shur分解, LU分解, 譜分解
Boosting( including Adaboost):
*adaboost_talk.pdf
Spectral Clustering:
Tutorial on spectral clustering.pdf
Energy-Based Learning:
A tutorial on Energy-based learning.pdf
Belief Propagation:
Understanding Belief Propagation and its Generalizations.pdf
bp.pdf
Construction free energy approximation and generalized belief
propagation algorithms.pdf
Loopy Belief Propagation for Approximate Inference An Empirical Study.pdf
Loopy Belief Propagation.pdf
AP (affinity Propagation):
L-BFGS:
<<最優(yōu)化理論與算法 2nd>> chapter 10
On the limited memory BFGS method for large scale optimization.pdf
IIS:
IIS.pdf
=================================================================
理論部分:
概率圖(probabilistic networks):
An introduction to Variational Methods for Graphical Models.pdf
Probabilistic Networks
Factor Graphs and the Sum-Product Algorithm.pdf
Constructing Free Energy Approximations and Generalized Belief
Propagation Algorithms.pdf
*Graphical Models, exponential families, and variational inference.pdf
Variational Theory(變分理論,我們只用概率圖上的變分):
Tutorial on varational approximation methods.pdf
A variational Bayesian framework for graphical models.pdf
variational tutorial.pdf
Information Theory:
Elements of Information Theory 2nd.pdf
測度論:
測度論(Halmos).pdf
測度論講義(嚴加安).pdf
概率論:
……
<<概率與測度論>>
隨機過程:
應(yīng)用隨機過程 林元烈 2002.pdf
<<隨機數(shù)學(xué)引論>>
Matrix Theory:
矩陣分析與應(yīng)用.pdf
模式識別:
<<模式識別 2nd>> 邊肇祺
*Pattern Recognition and Machine Learning.pdf
最優(yōu)化理論:
<>
<<最優(yōu)化理論與算法>>
泛函分析:
<<泛函分析導(dǎo)論及應(yīng)用>>
Kernel理論:
<<模式分析的核方法>>
統(tǒng)計學(xué):
……
<<統(tǒng)計手冊>>
==========================================================
綜合:
semi-supervised learning:
<> MIT Press
semi-supervised learning based on Graph.pdf
Co-training:
Self-training:
本文轉(zhuǎn)載自:http://blog.csdn.net/linuxcumt/article/details/8576020
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
談?wù)剻C器學(xué)習(xí)(Machine Learning)大家
人工智能與機器學(xué)習(xí)著名會議
人工智能頂會真相!深度學(xué)習(xí)熱度高,論文錄取率創(chuàng)新低 | 智東西內(nèi)參
人工智能領(lǐng)域會議總結(jié)
【AutoML干貨】自動機器學(xué)習(xí): 最新進展綜述與開放挑戰(zhàn)
機器學(xué)習(xí)期刊會議比較
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服