杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25670)
  • 2. arg min的含义是什么?(24472)
  • 3. latex问题集锦(19430)
  • 4. matlab命令窗口输出函数disp和display(17326)
  • 5. MATLAB字符串数组(15446)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

[转]Latex 空格的设定
两个quad空格
a \qquad b              a \qquad b           两个m的宽度

 

 

quad空格

a \quad b              a \quad b               一个m的宽度

 

大空格

a\ b                      a\ b                 1/3m宽度

 

中等空格

a\;b                      a\;b                  2/7m宽度

 

小空格

a\,b                      a\,b                  1/6m宽度

 

没有空格

ab                        ab\,                   紧贴
a\!b                      a\!b                   缩进1/6m宽度

转自:http://www.cnblogs.com/ysjxw/archive/2009/10/28/1591098.html
posted @ 2013-06-03 13:31 杰哥 阅读(507) | 评论 (0) | 编辑 收藏
 
如何用matlab求矩阵的最大奇异值?(Matlab code to solve the largest singular value of a matrix)
n = norm(A) returns the largest singular value of A, max(svd(A)).
posted @ 2013-05-03 21:44 杰哥 阅读(3580) | 评论 (0) | 编辑 收藏
 
搜索学术内容的技巧(要用英文)---Latex 如何解决Too many unprocessed floats
今晚将我SRDA大论文的所有图表想放到一个文件里(见目录:SRDA\CorrectedProof\has supplement\TableAndFigure),这个文件仅有图和表,发现只能放任意18个图和表,不能再加第19个很奇怪的问题,找了Weiqiang帮忙,也没搞定,今晚折腾
这个问题很长时间。和Haiqing走在路上说到这个问题,他说直接搜索英语问题,直接搜索Latex提示的原因:Too many unprocessed floats。注意搜索的技巧,我原来搜索
Latex 图表数量没能找到解决方案,应该直接搜索Latex提示出错的原因。

即找到解决方案:
------------------------------------解决方案------------------------------------
http://www.latex-community.org/forum/viewtopic.php?f=45&t=7109
http://www.douglasvanbossuyt.com/2008/11/18/latex-too-many-unprocessed-floats-problem-and-solution/
http://zhaoshiliang.wordpress.com/2011/08/23/
最近写论文时,在某一章中插入的图片太多,于是编译的时候就总是出现“too many unprocessed floats” 的出错信息。
经搜索,有人建议使用宏包 \usepackage[section]{placeins}; 不过好像没啥效果。
后又经检索,有人建议在每一页开始都使用 \clearpage ,一试之下,果然很有效果。
原帖在此: http://www2.astro.psu.edu/users/stark/research/psuthesis/Figures.html
------------------------------------解决方案------------------------------------
我的解决方案:在第18个图或表后面添加一句  \clearpage  即可
posted @ 2013-04-27 21:25 杰哥 阅读(2234) | 评论 (0) | 编辑 收藏
 
翻译CVPR 2010 best paper以及读后感
http://bbs.sciencenet.cn/home.php?mod=space&uid=593593&do=blog&id=464505

CVPR 2010 的 best paper "Efficient Computation of Robust Low-Rank Matrix Approximations in the Presence of Missing Data using the L1 Norm" 的作者来自于澳大利亚一个做机器视觉著名的小组,前不久该文作者来访,做了个报告,对他们小组的工作有了进一步的了解。

恰好今年本人翻译了这篇文章,于是放上来共享(原文和翻译文都在附件中)。

以下谈一下这篇文章的读后感:

近些年来,由于SPARCE类的方法在模式识别,计算机视觉邻域的应用,各种有关L1 norm的优化问题被提出,应用的手段也层出不穷,毫不夸张的说,带动了一波灌水的狂潮(当然PR和CV时时都是大水区)。

那么,这篇文章为什么能够得到CVPR best paper? 其实我也不知道,因为这个不是我评的。因此本人只基于经验分析一下该文章的值得注意的地方吧,即算是管中窥豹而已。(因为不是具体论述问题,只是心得,因此以下可能有不严谨的地方,见谅)

首先,这篇文章和时下流行的灌水题材L1相关,问题也很明确,在目标函数为L1 norm误差下Low-Rank Matrix逼近。关于L1 norm的求解的文章如同过江之鲫,但是这篇文章,从标题上就可以看出,是“in the Presence of Missing Data”,这是个值得注意的地方,因为Missing Data是在具体问题中所不可避免的,和作者的工作相关,因此该文章并非是为了灌水而灌水,而是做了工作,一不小心得了个灌水奖。这一点与很多人用“要你命三千”的方式拼凑方法,然后“伪分析”一顿来灌水是天壤之别,云泥之判。

具体到方法,该作者实际上是把Wiberg的方法“改造”到了L1 norm下。因为Wiberg的方法只适用于L2范数下,该作者巧妙地通过一系列的形式上的运算,变成对偶的线性规划问题,然后进行计算求解。作者提出的这个算法属于迭代求解,每一步都是线性规划的迭代。其实作者在文章中也提到了,Wiberg方法并不被重视,过去多少年都几乎没人注意,而作者却能够慧眼识珠,中间的原因是什么呢?还是如上一段讲到的,首先作者是从事其领域多年,有深入的见解,知道问题的所在,于是对于任何方法能够站在自己的角度上审视,是否能“楚才晋用”,这一点和别人满世界的找新方法用在自己领域然后灌水,有本质的不同。再者,作者对于wiberg方法有深入的认识,一般的人即是看到该方法,或浅尝辄止,因为毕竟不能够直接的运用,而本文的作者却架起一座桥梁,把wiberg方法移花接木到L1 norm下面并,并取得良好的效果,这和机械拼凑方法境界完全不一样。可见,基础扎实,善于思考也是很重要的。

由于听过作者的报告,虽然我不是做增强现实的,但对他的报告印象很深,他们的工作做得十分踏实,围绕着增强现实的各种问题都有不错的工作,本文的研究正是他们工作的产物,从文章中论述的问题来看,几点都切中要害,首先是有missing Data,然后是说L2 norm下对outlier的敏感等等。虽然该文章论述的是L1 norm目标函数求解,但是作者并没有像很多人一样,动不动搬一些“sparce”之类的名词出来显示其所站高度,也没有牵强的说他的问题符合某某假设,所以用某某方法是好的云云,而是尽可能的照顾读者,让读者了解这个工作有啥意义,为啥要这么做,这么做有什么问题等。

作为一个迭代的方法,作者毫不掩饰的说这个还没能证明一定收敛(当然很多迭代方法难以证明其收敛),但是实验数据尽可能给出详细,全面的结果,不仅比较了在人造数据集上的结果,还比较了在真实数据集(重构恐龙模型)上的结果,同时也给出了每次迭代运行时间的比较,收敛的误差比较等等。且使用的数据集都是比较常见的,为大众认可的。

综合看来,这个文章的优点是切中实际需求,具有较好的创新型以及较为可信的实验结果。对于一般的人来讲,往往是知道问题的形式,然后找方法来解决,然后通过修饰数据,或者只比较某些指标,或者在实验中限定对自己有利的环境等等来发文章,这种情况的产生当然和外部的压力,环境,所从事的方向有关,但是见微知著,从这篇文章里面可以获得些许启发,不一定是搞科研,思考其他的问题同样有所裨益。

附件:

翻译.pdf

robustl1_eriksson.pdf

posted @ 2013-03-22 19:14 杰哥 阅读(1026) | 评论 (0) | 编辑 收藏
 
安装驱动
肥实验室惠普扫描仪HP Scanjet G3010没有驱动,Yang Zhao和Hongjie Yu建议我装驱动精灵,讲该软件很好用。在Yang Zhao的帮助下,该扫描仪连在我的笔记本电脑上已经能成功工作。点击桌面或者所有程序中的“HP 解决方案中心”即可。Niu组的,单击桌面UNIS SmartImage Center,获取图片,从拍摄仪获取图片,拍摄,即可。如果觉得图片暗,可将上面的灯打开。
posted @ 2013-03-04 17:02 杰哥 阅读(390) | 评论 (0) | 编辑 收藏
 
which和that
http://wenku.baidu.com/view/101fa43631126edb6f1a101e.html

定语从句中的which和that
that和which在从句里都可以做宾语和主语,做宾语时可以省略。(The place which\that\不填Ivisited yesterday was boring.)在定语从句中,关系代词在限制性定语从句中作宾语可以省略,不管是that,which,还是whom。但是which能引导非限制性定语从句,that则不行。
只能用that的几种情况:
1. 当先行词为all, much, little, none及由any, every, some, no所构成的复合不定代词时。
如:We should do all that is useful to the people.  我们应该做一切有益于人民的事情。 
Please tell me anything that you know about the matter. 有关此事,凡是你所知道的请告诉我。
2. 当先行词被any, few, little, no, all, much, some等词修饰时。
如:You can take any seat that is free. 任何空着的座位你都可以坐。
There is little work that is fit for you. 几乎没有适合你的工作。
3. 当先行词为序数词或被序数词所修饰时。
如:When people talk about the cities of China, the first that comes to my mind is Beijing. 人们谈论起中国的城市的时候,我首先想到的是北京。
This is the fourth film that has been shown in our school this term. 这是我们校本学期放映的第四部电影。
4. 当先行词为形容词最高级或被形容词最高级修饰时(the best , the most等)
如:The best that I could do was to apologize. 我唯一能做的就是赔礼道歉了。
This is the most interesting story book that I have ever read. 这是我读过的一本最有趣的故事书。
5. 当先行词被the very, the only, the last, the just, the same等修饰时。
如: This is the very book that I’m looking for. 这正是我在找的书。
The only thing that we could do was to wait. 我们唯一能做的事就是等待。
注意:先行词被the same修饰时,关系代词也可用as。如:I need the same book that / as you have. 我需要有你一样的书。
6. 当先行词既包含人又包含物时。
如: They are talking of the heroines and their deeds that interest them. 他们正在谈论他们感兴趣的女英雄及她们的事迹。
7. 当先行词是疑问代词who,which,what或主句以这些词开头时。
如:Who that has ever worked together with him doesn’t admire him? 曾经和他一起工作过的谁不钦佩他?
Which is the star that is nearer to the earth? 哪个是离地球比较近的星星?
8. 当先行词为主句表语或关系代词为从句表语时。
如:That’s a good book that will help you a lot. 那是本对你很有帮助的书。
Our school is no longer the place that it used to be. 我们的学校现在已不是过去的那个样子了。
9. 先行词为time时,当time表示次数,引导词用that, 可省略。 当表示时间,可用that或when引导,都可省略。
如:I do remember the first time(that) I had ever heard the sweetest voice in the world.我很清楚地记得当我第一次听到世界上最美的声音的时候。
I did't remember the exact time (when/that) I arrived in Shanghai last month. 我不记得上个月到达上海的确切时间了。
10.在固定结构the same...that...; so...that...; such...that...以及it is/was...that...的强调句型中,须用that。如:
This is the same museum that you once visited.
 
只能使用which的情况:
1.     在“介词+关系代词”结构中,关系代词必须用which。如: 
The house in which we live is very large. 我们住的房子非常大。 This is the reference book of which the teacher is speaking. 这就是老师正在谈及的那本参考书。 
注意: 如果介词不放在修饰事物的限定性定语从句的句首, which就可换为that, 如: 
This is the question which/that we’ve had so much discussion about. =This is the question about which we’ve had so much discussion. 这就是我们已经多次讨论过的问题。 
2. 先行词为“those+表事物的复数名词”时, 关系代词通常只用which而不用that。如:
you should grasp well those skills which may be used in the future work.
3.如果先行词是that,关系代词应用 which。
I have that which you gave me.
4.一个句子中如有两个定语从句,第一个定语从句用了关系代词that,第二个从句中的关系代词宜用which,但在平行结构中,应重复同一个关系代词,如:
This is the book that you bought which you have lost. 
I have a house which is located on the hillside, which faces the south.
5.如先行词和定语从句之间被其它较长的成分分隔,常用which?
Larry told her the story of the young airman which I narrated at the beginning of this book.  (先行词为story)
 
特殊情况:当先行词是表示原因或方式的名词时,可以用that引导定语从句,相当于介词+which,that可以省略。
如: She likes the child for the very reason that (=for which) she loves his father. 她喜欢那个孩子因为她爱着孩子的父亲。
He didn’t like the way that (=in which = \) she speaks to his mother. 他不喜欢她对他的母亲那样说话。
The reason (that /for which /why) he came here was to ask for our help.他来这里的原因是寻求我们的帮助。

 

posted @ 2013-02-20 10:34 杰哥 阅读(392) | 评论 (0) | 编辑 收藏
 
[zz]AI会议排名_周志华
原文网址:http://blog.sina.com.cn/s/blog_631a4cc40100xl7d.html
南京大学周志华教授写的一个很经典的帖子。不过IJCAI能不能算成是no.1的会议有待商榷,不过总体还算客观!
说明: 纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全.
同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令
人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的
tier-1:
IJCAI (1+): International Joint Conference on Artificial Intelligence AAAI (1): National Conference on Artificial Intelligence
COLT (1): Annual Conference on Computational Learning Theory
CVPR (1): IEEE International Conference on Computer Vision and Pattern  Recognition
ICCV (1): IEEE International Conference on Computer Vision
ICML (1): International Conference on Machine Learning
NIPS (1): Annual Conference on Neural Information Processing Systems
ACL (1-): Annual Meeting of the Association for Computational Linguistics
KR (1-): International Conference on Principles of Knowledge Representation   and Reasoning
SIGIR (1-): Annual International ACM SIGIR Conference on Research and Development in Information Retrieval
SIGKDD (1-): ACM SIGKDD International Conference on Knowledge Discovery and Data Mining
UAI (1-): International Conference on Uncertainty in Artificial Intelligence
*Impact factor (According to Citeseer 03):
IJCAI :1.82 (top 4.09 %)
AAAI :1.49 (top 9.17%)
COLT:1.49 (top 9.25%)
ICCV :1.78 (top 4.75%)
ICML :2.12 (top 1.88%)
NIPS :1.06 (top 20.96%)
ACL :1.44 (top 10.07%)
KR :1.76 (top 4.99%)
SIGIR :1.10 (top 19.08%)
Average:1.56 (top 8.02%)
IJCAI (1+): AI最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI 实在太大,所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个 领域就没几篇了,象achine learning、computer vision这么大的领域每次大概也 就10篇左右, 所以难度很大. 不过从录用率上来看倒不太低,基本上20%左右, 因为内 行人都会掂掂分量, 没希望的就别浪费reviewer的时间了. 最近中国大陆投往国际会 议的文章象潮水一样, 而且因为国内很少有能自己把关的研究组, 所以很多会议都在 complain说中国的低质量文章严重妨碍了PC的工作效率. 在这种情况下, 估计这几年 国际会议的录用率都会降下去. 另外, 以前的IJCAI是没有poster的, 03年开始, 为了 减少被误杀的好人, 增加了2页纸的poster.值得一提的是, IJCAI是由貌似一个公司 的”IJCAI Inc.”主办的(当然实际上并不是公司, 实际上是个基金会), 每次会议上要 发几个奖, 其中最重要的两个是IJCAI Research Excellence Award 和 Computer & Thoughts Award, 前者是终身成就奖, 每次一个人, 基本上是AI的最高奖(有趣的是, 以AI为主业拿图灵奖的6位中,有2位还没得到这个奖), 后者是奖给35岁以下的 青年科学家, 每次一个人. 这两个奖的获奖演说是每次IJCAI的一个重头戏.另外, IJCAI 的 PC member 相当于其他会议的area chair, 权力很大,因为是由PC member 去找 reviewer 来审, 而不象一般会议的PC member其实就是 reviewer. 为了制约 这种权力, IJCAI的审稿程序是每篇文章分配2位PC member, primary PC member去找3位reviewer, second PC member 找一位.
AAAI (1): 美国人工智能学会AAAI的年会. 是一个很好的会议, 但其档次不稳定, 可   以给到1+,也可以给到1-或者2+, 总的来说我给它”1″. 这是因为它的开法完全受 IJCAI制约: 每年开, 但如果这一年的 IJCAI在北美举行, 那么就停开. 所以, 偶数年 里因为没有IJCAI, 它就是最好的AI综合性会议, 但因为号召力毕竟比IJCAI要小一些, 特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是), 所以比IJCAI还是要稍弱 一点, 基本上在1和1+之间; 在奇数年, 如果IJCAI不在北美, AAAI自然就变成了比   IJCAI低一级的会议(1-或2+), 例如2005年既有IJCAI又有AAAI, 两个会议就进行了协 调, 使得IJCAI的录用通知时间比AAAI的deadline早那么几天, 这样IJCAI落选的文章 可以投往AAAI.在审稿时IJCAI 的 PC chair也在一直催, 说大家一定要快, 因为AAAI 那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了.
COLT (1): 这是计算学习理论最好的会议, ACM主办, 每年举行. 计算学习理论基本上可以看成理论计算机科学和机器学习的交叉,   所以这个会被一些人看成是理论计算 机科学的会而不是AI的会. 我一个朋友用一句话对它进行了精彩的刻画: “一小群数 学家在开会”. 因为COLT的领域比较小, 所以每年会议基本上都是那些人. 这里顺便 提一件有趣的事, 因为最近国内搞的会议太多太滥, 而且很多会议都是LNCS/LNAI出 论文集, LNCS/LNAI基本上已经被搞臭了, 但很不幸的是, LNCS/LNAI中有一些很好的 会议, 例如COLT.
CVPR (1): 计算机视觉和模式识别方面最好的会议之一, IEEE主办, 每年举行. 虽然题 目上有计算机视觉, 但个人认为它的模式识别味道更重一些. 事实上它应该是模式识 别最好的会议, 而在计算机视觉方面, 还有ICCV 与之相当. IEEE一直有个倾向, 要把 会办成”盛会”, 历史上已经有些会被它从quality很好的会办成”盛会”了. CVPR搞不好 也要走这条路. 这几年录的文章已经不少了. 最近负责CVPR会议的TC的chair发信 说, 对这个community来说, 让好人被误杀比被坏人漏网更糟糕, 所以我们是不是要减 少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了.
ICCV (1): 介绍CVPR的时候说过了, 计算机视觉方面最好的会之一. IEEE主办, 每年举行.
ICML (1): 机器学习方面最好的会议之一. 现在是IMLS主办, 每年举行. 参见关于NIPS的   介绍.
NIPS (1): 神经计算方面最好的会议之一, NIPS主办, 每年举行. 值得注意的是, 这个会 每年的举办地都是一样的, 以前是美国丹佛, 现在是加拿大温哥华; 而且它是年底开会, 会开完后第2年才出论文集, 也就是说, NIPS’05的论文集是06年出. 会议的名字   “Advances in Neural Information Processing Systems”, 所以, 与ICML\ECML这样 的”标准的”机器学习会议不同, NIPS里有相当一部分神经科学的内容, 和机器学习有 一定的距离. 但由于会议的主体内容是机器学习, 或者说与机器学习关系紧密, 所以 不少人把NIPS看成是机器学习方面最好的会议之一. 这个会议基本上控制在Michael Jordan的徒子徒孙手中, 所以对Jordan系的人来说, 发NIPS并不是难事, 一些未必很 强的工作也能发上去, 但对这个圈子之外的人来说, 想发一篇实在很难, 因为留给”外 人”的口子很小. 所以对Jordan系以外的人来说, 发NIPS的难度比ICML更大. 换句话说, ICML比较开放, 小圈子的影响不象NIPS那么大, 所以北美和欧洲人都认, 而NIPS则有 些人(特别是一些欧洲人, 包括一些大家)坚决不投稿. 这对会议本身当然并不是好事,   但因为Jordan系很强大, 所以它似乎也不太care. 最近IMLS(国际机器学习学会)改选 理事, 有资格提名的人包括近三年在ICML\ECML\COLT发过文章的人, NIPS则被排除在 外了. 无论如何, 这是一个非常好的会.
ACL (1-): 计算语言学/自然语言处理方面最好的会议, ACL (Association of   Computational Linguistics) 主办, 每年开.
KR (1-): 知识表示和推理方面最好的会议之一, 实际上也是传统AI(即基于逻辑的AI) 最好的会议之一. KR Inc.主办, 现在是偶数年开.
SIGIR (1-): 信息检索方面最好的会议, ACM主办, 每年开. 这个会现在小圈子气越来 越重. 信息检索应该不算AI, 不过因为这里面用到机器学习越来越多, 最近几年甚至 有点机器学习应用会议的味道了, 所以把它也列进来.
SIGKDD (1-): 数据挖掘方面最好的会议, ACM主办, 每年开. 这个会议历史比较短,   毕竟, 与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿. 在几年前还很难把它列 在tier-1里面, 一方面是名声远不及其他的 top conference响亮, 另一方面是相对容易 被录用. 但现在它被列在tier-1应该是毫无疑问的事情了.
UAI (1-): 名字叫”人工智能中的不确定性”, 涉及表示\推理\学习等很多方面, AUAI  (Association of UAI) 主办, 每年开.
________________________________________
tier-2:
AAMAS (2+): International Joint Conference on Autonomous Agents and   Multiagent Systems
ECCV (2+): European Conference on Computer Vision
ECML (2+): European Conference on Machine Learning
ICDM (2+): IEEE International Conference on Data Mining
SDM (2+): SIAM International Conference on Data Mining
ICAPS (2): International Conference on Automated Planning and Scheduling
ICCBR (2): International Conference on Case-Based Reasoning
COLLING (2): International Conference on Computational Linguistics
ECAI (2): European Conference on Artificial Intelligence
ALT (2-): International Conference on Algorithmic Learning Theory
EMNLP (2-): Conference on Empirical Methods in Natural Language Processing
ILP (2-): International Conference on Inductive Logic Programming
PKDD (2-): European Conference on Principles and Practice of Knowledge   Discovery in Databases
*Impact factor (According to Citeseer 03):
ECCV :1.58 (top 7.20 %)
ECML :0.83 (top 30.63 %)
ICDM :0.35 (top 59.86 %)
ICCBR :0.72 (top 36.69 %)
ECAI :0.69 (top 38.49 %)
ALT :0.63 (top 42.91 %)
ILP :1.06 (top 20.80 %)
PKDD :0.50 (top 51.26 %)
Average:0.80 (top 32.02%)
AAMAS (2+): agent方面最好的会议. 但是现在agent已经是一个一般性的概念,   几乎所有AI有关的会议上都有这方面的内容, 所以AAMAS下降的趋势非常明显.
ECCV (2+): 计算机视觉方面仅次于ICCV的会议, 因为这个领域发展很快, 有可能 升级到1-去.
ECML (2+): 机器学习方面仅次于ICML的会议, 欧洲人极力捧场, 一些人认为它已经是1-了. 我保守一点, 仍然把它放在2+. 因为机器学习发展很快, 这个会议的reputation上升非常明显.
ICDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和SDM相当. 这个会只有5年历史, 上升速度之快非常惊人. 几年前ICDM还比不上PAKDD, 现在已经拉开很大距离了.
SDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和ICDM相当. SIAM的底子很厚, 但在CS里面的影响比ACM和IEEE还是要小, SDM眼看着要被ICDM超过了, 但至少目前还是相当的.
ICAPS (2): 人工智能规划方面最好的会议, 是由以前的国际和欧洲规划会议合并来的. 因为这个领域逐渐变冷清, 影响比以前已经小了.
ICCBR (2): Case-Based Reasoning方面最好的会议. 因为领域不太大, 而且一直半冷不热, 所以总是停留在2上.
COLLING (2): 计算语言学/自然语言处理方面仅次于ACL的会, 但与ACL的差距比ICCV-ECCV和ICML-ECML大得多.
ECAI (2): 欧洲的人工智能综合型会议, 历史很久, 但因为有IJCAI/AAAI压着,很难往上升.
ALT (2-): 有点象COLT的tier-2版, 但因为搞计算学习理论的人没多少, 做得好的数来数去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非计算学习理论的内容.
EMNLP (2-): 计算语言学/自然语言处理方面一个不错的会. 有些人认为与COLLING相当, 但我觉得它还是要弱一点.
ILP (2-): 归纳逻辑程序设计方面最好的会议. 但因为很多其他会议里都有ILP方面的内容, 所以它只能保住2-的位置了.
PKDD (2-): 欧洲的数据挖掘会议, 目前在数据挖掘会议里面排第4. 欧洲人很想把它抬起来, 所以这些年一直和ECML一起捆绑着开, 希望能借ECML把它带起来.但因为ICDM和SDM, 这已经不太可能了. 所以今年的 PKDD和ECML虽然还是一起开, 但已经独立审稿了(以前是可以同时投两个会, 作者可以声明优先被哪个会考虑, 如果ECML中不了还可以被 PKDD接受).
________________________________________
tier-3:
ACCV (3+): Asian Conference on Computer Vision
DS (3+): International Conference on Discovery Science
ECIR (3+): European Conference on IR Research
ICTAI (3+): IEEE International Conference on Tools with Artificial Intelligence
PAKDD (3+): Pacific-Asia Conference on Knowledge Discovery and Data Mining
ICANN (3+): International Conference on Artificial Neural Networks
AJCAI (3): Australian Joint Conference on Artificial Intelligence
CAI (3): Canadian Conference on Artificial Intelligence
CEC (3): IEEE Congress on Evolutionary Computation
FUZZ-IEEE (3): IEEE International Conference on Fuzzy Systems
GECCO (3): Genetic and Evolutionary Computation Conference
ICASSP (3): International Conference on Acoustics, Speech, and Signal   Processing
ICIP (3): International Conference on Image Processing
ICPR (3): International Conference on Pattern Recognition
IEA/AIE (3): International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems
IJCNN (3): International Joint Conference on Neural Networks
IJNLP (3): International Joint Conference on Natural Language Processing
PRICAI (3): Pacific-Rim International Conference on Artificial Intelligence
*Impact factor (According to Citeseer 03):
ACCV :0.42 (top 55.61%)
ICTAI :0.25 (top 69.86 %)
PAKDD :0.30(top 65.60 %)
ICANN :0.27 (top 67.73 %)
AJCAI :0.16 (top 79.44 %)
CAI :0.26 (top 68.87 %)
ICIP :0.50 (top 50.20 %)
IEA/AIE :0.09 (top 87.79 %)
PRICAI :0.19 (top 76.33 %)
Average:0.27 (top 68.30%)
ACCV (3+): 亚洲的计算机视觉会议, 在亚太级别的会议里算很好的了.
DS (3+): 日本人发起的一个接近数据挖掘的会议.
ECIR (3+): 欧洲的信息检索会议, 前几年还只是英国的信息检索会议.
ICTAI (3+): IEEE最主要的人工智能会议, 偏应用, 是被IEEE办烂的一个典型. 以前的quality还是不错的, 但是办得越久声誉反倒越差了, 糟糕的是似乎还在继续下滑, 现在其实3+已经不太呆得住了.
PAKDD (3+): 亚太数据挖掘会议, 目前在数据挖掘会议里排第5.
ICANN (3+): 欧洲的神经网络会议, 从quality来说是神经网络会议中最好的, 但这个领域的人不重视会议,在该领域它的重要性不如IJCNN.
AJCAI (3): 澳大利亚的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.
CAI (3): 加拿大的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.
CEC (3): 进化计算方面最重要的会议之一, 盛会型. IJCNN/CEC /FUZZ-IEEE这三个会议是计算智能或者说软计算方面最重要的会议, 它们经常一起开, 这时就叫WCCI (World Congress on Computational Intelligence). 但这个领域和CS其他分支不太一样, 倒是和其他学科相似, 只重视journal, 不重视会议, 所以录用率经常在85%左右, 所录文章既有quality非常高的论文, 也有入门新手的习作.
FUZZ-IEEE (3): 模糊方面最重要的会议, 盛会型, 参见CEC的介绍.
GECCO (3): 进化计算方面最重要的会议之一, 与CEC相当,盛会型.
ICASSP (3): 语音方面最重要的会议之一, 这个领域的人也不很care会议.
ICIP (3): 图像处理方面最著名的会议之一, 盛会型.
ICPR (3): 模式识别方面最著名的会议之一, 盛会型.
IEA/AIE (3): 人工智能应用会议. 一般的会议提名优秀论文的通常只有几篇文章, 被提名就已经是很高的荣誉了, 这个会很有趣, 每次都搞1、20篇的优秀论文提名, 专门搞几个session做被提名论文报告, 倒是很热闹.
IJCNN (3): 神经网络方面最重要的会议, 盛会型, 参见CEC的介绍.
IJNLP (3): 计算语言学/自然语言处理方面比较著名的一个会议.
PRICAI (3): 亚太综合型人工智能会议, 虽然历史不算短了, 但因为比它好或者相当的综合型会议太多, 所以很难上升.
________________________________________
列list只是为了帮助新人熟悉领域, 给出的评分或等级都是个人意见, 仅供参考. 特别要说明的是:
1. tier-1 conference上的文章并不一定比tier-3的好, 只能说前者的平均水准更高.
2. 研究工作的好坏不是以它发表在哪儿来决定的, 发表在高档次的地方只是为了让工作更容易被同行注意到. tier-3会议上发表1篇被引用10次的文章可能比在tier-1会议上发表10篇被引用0次的文章更有价值. 所以, 数top会议文章数并没有太大意义, 重要的是同行的评价和认可程度.
3. 很多经典工作并不是发表在高档次的发表源上, 有不少经典工作甚至是发表在很低档的发表源上. 原因很多, 就不细说了.
4. 会议毕竟是会议, 由于审稿时间紧, 错杀好人和漏过坏人的情况比比皆是, 更何况还要考虑到有不少刚开始做研究的学生在代老板审稿.
5. 会议的reputation并不是一成不变的,新会议可能一开始没什么声誉,但过几年后就野鸡变凤凰,老会议可能原来声誉很好,但越来越往下滑.
6. 只有计算机科学才重视会议论文, 其他学科并不把会议当回事. 但在计算机科学中也有不太重视会议的分支.
7. Politics无所不在. 你老板是谁, 你在哪个研究组, 你在哪个单位, 这些简单的因素都可能造成决定性的影响. 换言之, 不同环境的人发表的难度是不一样的. 了解到这一点后, 你可能会对high-level发表源上来自low-level单位名不见经传作者的文章特别注意(例如如果<计算机学报>上发表了平顶山铁道电子信息科技学院的作者的文章,我一定会仔细读).
8. 评价体系有巨大的影响. 不管是在哪儿谋生的学者, 都需要在一定程度上去迎合评价体系, 否则连生路都没有了, 还谈什么做研究. 以国内来说, 由于评价体系只重视journal, 有一些工作做得很出色的学者甚至从来不投会议. 另外, 经费也有巨大的制约作用. 国外很多好的研究组往往是重要会议都有文章. 但国内是不行的, 档次低一些的会议还可以投了只交注册费不开会, 档次高的会议不去做报告会有很大的负面影响, 所以只能投很少的会议. 这是在国内做CS研究最不利的地方. 我的一个猜想:人民币升值对国内CS研究会有不小的促进作用(当然, 人民币升值对整个中国来说利大于弊还是弊大于利很难说).
posted @ 2013-01-27 18:22 杰哥 阅读(691) | 评论 (0) | 编辑 收藏
 
科大邮箱自动转发
科大邮箱,设置了自动转发到126邮箱,但不能成功,转发到gmail是可以的。校友邮箱转发到126邮箱是可以的。打电话到网络中心,老师讲学校的邮件自动转发功能不太灵,可以使用pop转信。http://email.ustc.edu.cn/写了:SMTP(发信认证)/POP3/IMAP服务器:  202.38.64.8。注意端口是110不是995。虽然http://email.ustc.edu.cn/写了:支持POP IMAP SMTP的SSL加密,端口分别是 995 993 465。要将“Always use a secure connection (SSL) when retrieving mail.”勾选掉,否则容易出问题. 科大校友邮箱可以,但科大邮箱不行。

http://www.360doc.com/content/09/0412/21/41088_3109261.shtml
将其他的邮件转发到gmail有两种方式:
(1) 要转发的邮箱设置自动转发;
(2) gmail通过Pop协议主动去其他邮箱下载邮件。https://support.google.com/mail/bin/answer.py?hl=zh-Hans&answer=21289

如何设置邮件提取程序:

  1. 点击右上方的齿轮图标 ,然后选择设置。
  2. 打开帐户和导入标签。(对于 Google Apps 域,则打开帐户标签。)
  3. 在使用 POP3 检查邮件部分,点击添加 POP3 电子邮件帐户。
  4. 输入您要访问帐户的完整电子邮件地址,然后点击下一步。
  5. Gmail 会填充示例设置,但我们建议您咨询自己的提供商以了解正确的服务器名称和端口。输入密码。
  6. 决定是否选中以下选项:
    • 在服务器上保留已获取邮件的副本
    • 获取邮件时始终使用安全连接 (SSL)
    • 标记传入的邮件
    • 归档传入的邮件
  7. 点击添加帐户。
  8. 成功添加帐户后,您可以选择将其设置为自定义发件人地址。这样可让您在 Gmail 中撰写邮件,但又能让这些邮件看起来是从其他电子邮件帐户中发出的。点击是可设置自定义发件人地址。

停用邮件提取程序

您可以按照以下步骤停用邮件提取程序:

  1. 点击右上方的齿轮图标 ,然后选择设置。
  2. 打开帐户和导入标签。
  3. 找到使用 POP3 检查邮件部分。
  4. 点击要停用的帐户旁边的删除。

邮件提取程序会停止获取新邮件,但是之前收到的任何邮件都会保留在 Gmail 中,直到您将其删除。

posted @ 2013-01-17 10:31 杰哥 阅读(2125) | 评论 (0) | 编辑 收藏
 
lfw face-大规模人脸识别、unconstrained face recognition
http://vis-www.cs.umass.edu/lfw/。 Mingming Gong told me about this database. Qi Li did experiments using this database in his 20130625 report. In Qi Li's 20130625 report and his ACPR paper, why 175 images? He used the data set: http://perception.csl.illinois.edu/matrix-rank/rasl.html. He just selected 5 persons due to speed. Which people did he choose? The sample images give the answer, such as George_W_Bush. He says he randomly selects and maybe the experimental results do not differ too much.
"LFW库学习记录.docx"见电脑本机目录:Robust Face Recognition via Sparse Representation\RASL\RASL_Code\data\LFW库学习记录.docx
posted @ 2013-01-12 12:36 杰哥 阅读(1084) | 评论 (0) | 编辑 收藏
 
诺基亚c7使用
C7-00开机铃声和关机铃声怎么关掉?在哪里设置?
设置->情景模式->标准->个性化选择->警告音->关
诺基亚c7闹钟铃声怎么改?
进入时间和日期,选项—设置,选择闹钟铃声
为什么WIFI会自动断开?选项->节电模式->关闭
如何分享链接到微信朋友圈?Shu Wu看了我的微信链接是在浏览器打开,他的安卓系统是直接在微信打开。可能是塞班系统的问题,不在纠结这个问题。
可能准备换手机了,C7微信不能扫二维码,原因:c7不支持微距拍摄;c7的摄像头不是自动对焦的,是全焦镜头。见http://www.dospy.com/bbs/thread-16121700-1-381-1.html。而微信网页版二维码是唯一的登录方式:http://zhidao.baidu.com/question/1430490663322962659。
posted @ 2012-12-19 09:12 杰哥 阅读(405) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 17 18 19 20 21 22 23 24 25 Last