杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25667)
  • 2. arg min的含义是什么?(24468)
  • 3. latex问题集锦(19430)
  • 4. matlab命令窗口输出函数disp和display(17324)
  • 5. MATLAB字符串数组(15445)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

EndNote 乱码 解决方案
  例如:{ ADDIN EN.CITE <EndNote><Cite><Year>...

有很多人重装Endnote和office都没有用。在一繁体网站搜索到解决方案:word中,选择菜单 工具-选项-视图   取消勾选 域代码就可以了

posted @ 2008-12-23 20:54 杰哥 阅读(3257) | 评论 (5) | 编辑 收藏
 
一个电影爱好者记得的些经典台词(不太准,需修改)
大汉天子刘彻对他最年轻的妻子:你必须得死!
霸王别姬:我要揭发,她是个婊子
色戒,梁朝伟演的汉奸对汤唯说:嘴上谈得都是千秋万代,眼睛里都是充满的恐惧
勇敢的心,王后对即将死亡的老国王说:我敢保证他在这个王位上做不久的,那个孩子也不是他的孙子
posted @ 2008-10-28 10:26 杰哥 阅读(171) | 评论 (0) | 编辑 收藏
 
Some concepts of face recognition
Face recognition, face verification and face identification
Face verification and face identification are two sub-problems in face recognition.The former is to verify whether two given faces belong to the same person, while the latter answers “who is who” question in a probe face set given a gallery face set.
Reference: the first sentence of Section 1 of "Bayesian Face Revisited"
gallery set、Probe set

Deng Cai的Learning a Spatially Smooth Subspace for Face Recognition 4.1节也有,和朱师弟讨论此处gallery set等同于训练集,Probe set等同于测试集; Graph Embedding and Extensions A General Framework for Dimensionality Reduction的4.1.1节的前一段最后意义与前相同
该论文的19页有如下描述:在FERET 评估协议中,算法设计者需要区分三个不同的集合:训练集,参考图像集(或者
原型图像集,gallery set)、测试图像集合(Probe set),其中gallery 集和probe 集供测试时使用。“训
练必须在测试开始之前完成”暗示训练是离线完成的,算法不能根据Gallery 集来调整系统参数。 

具体见http://parnec.nuaa.edu.cn/xtan/paper/TanXY-thesis-final.pdf
该论文的19页有如下描述:在FERET 评估协议中,算法设计者需要区分三个不同的集合:训练集,参考图像集(或者
原型图像集,gallery set)、测试图像集合(Probe set=test set),其中gallery 集和probe 集供测试时使用。“训
练必须在测试开始之前完成”暗示训练是离线完成的,算法不能根据Gallery 集来调整系统参数。

通过和Ran He老师讨论已经彻底搞清楚了:
比如他的CVPR 2012论文,用PCA+NN。人脸识别是一个开集问题,人脸验证verification是一个闭集问题。训练样本可能是甲乙,测试样本可能是丙丁。通过训练样本来学习PCA的投影向量W,降到多少维可以搜索,他的CVPR 2012论文PCA是保存98%能量,LDA是降到c-1维。和Ran He已讨论清楚搜索维数的方法:如果降到10维,取W的前10列分别乘以gallery和Probe,再用最近邻分类;类似降到20维,取W的前20列分别乘以gallery和Probe,再用最近邻分类。gallery相当于新的训练集,在Probe上测试。ACCV 2012 tutorial Structured Sparsity via Half-quadratic Minimization的S1-SR的第八页。在The CAS-PEAL large-scale Chinese face database and baseline evaluations (TSMCA 2008)P155也有Training set、 gallery set、Probe set定义

记忆方法:probe有调查,探测的意思。故是测试集

posted @ 2008-09-16 11:51 杰哥 阅读(2225) | 评论 (0) | 编辑 收藏
 
什么是小样本问题 ---What is the definition of Small Sample Size (SSS)?
When the instances number is smaller than dimensions of the input data, the within-class scatter matrix is singular, which is also named the Small Sample Size (SSS) problem [1].
[1]K. Fukunaga, Introduction to Statistical Patten Recognition, Academic Press, 1990.

When the data dimensionality is larger than the sample size,which is the case for many high-dimensional and low sample size data, all of the three scatter matrices are singular and the
classical LDA cannot be applied directly. This is known as the singularity or undersampled problem in LDA.
参考文献:叶杰平大师的Generalized Linear Discriminant Analysis: A Unified Framework and Efficient Model Selection的1770页
发表于:IEEE TRANSACTIONS ON NEURAL NETWORKS, VOL. 19, NO. 10, OCTOBER 2008
posted @ 2008-08-26 09:04 杰哥 阅读(2357) | 评论 (1) | 编辑 收藏
 
What are training set, validation set and test set?-

这三个名词在机器学习领域的文章中极其常见,但很多人对他们的概念并不是特别清楚,尤其是后两个经常被人混用。Ripley, B.D(1996)在他的经典专著Pattern Recognition and Neural Networks中给出了这三个词的定义。
Training set: A set of examples used for learning, which is to fit the parameters [i.e., weights] of the classifier.
Validation set: A set of examples used to tune the parameters [i.e., architecture, not weights] of a classifier, for example to choose the number of hidden units in a neural network.
Test set: A set of examples used only to assess the performance [generalization] of a fully specified classifier.
显然,training set是用来训练模型或确定模型参数的,如ANN中权值等; validation set是用来做模型选择(model selection),即做模型的最终优化及确定的,如ANN的结构;而 test set则纯粹是为了测试已经训练好的模型的推广能力。当然,test set这并不能保证模型的正确性,他只是说相似的数据用此模型会得出相似的结果。但实际应用中,一般只将数据集分成两类,即training set 和test set,大多数文章并不涉及validation set。
Ripley还谈到了Why separate test and validation sets?
1. The error rate estimate of the final model on validation data will be biased (smaller than the true error rate) since the validation set is used to select the final model.
2. After assessing the final model with the test set, YOU MUST NOT tune the model any further.

posted @ 2008-07-29 12:06 杰哥 阅读(5260) | 评论 (0) | 编辑 收藏
 
Word中公式与文字不对齐的解决方法

首先选中 格式 段落 中文版式 文本对齐方式 选择“居中”

posted @ 2008-07-23 09:17 杰哥 阅读(5713) | 评论 (0) | 编辑 收藏
 
转载-追梦

    军训过后就正式上课了。英语老师孔老师经常讲些大学发生的事,至今很清楚得记得她讲过这样一个故事。以前她有一学生,考清华少一分,在江苏第一志愿考不上,稍微好一点的学校也不会要。所以,他来到了南农。终日自暴自弃,怪上天不公。英语四级考了无数次,最高59分,最后都快毕业了,长叹一声对老师说“老天跟我开了两次玩笑,每次都少一分。”这个故事就像一把刀刺醒了我,如果说第一次是老天跟他开了一次玩笑,那么第二次就决不是玩笑,自弃者,天亦弃之。进来南农,不管你是哪种形式进来,不管入学分数多高,一切都是新的开始。正如钱是“生不带来,死不带去”的东西,名校名师,毕业之后再不属于你;工学院虽实力较弱,本科阶段只要努力,四年照样可以学很多东西,做很多事。

       我要执着我的梦想,执着执着!!!!!! 
∴°★.☆° .★·°∴°★.° .·。∴°
☆ .·°∴° ☆..·°∴°.☆°★°∴°
°∴ 那怕星际无垠 ☆° .·★°∴°.°°
∴°.°★ .·°∴°.°∴°.★☆° .·
°.☆° .★·我也要追到你 °.°°.★
.·°∴★°.°∴°.☆° .·°∴°
posted @ 2008-07-05 21:11 杰哥 阅读(155) | 评论 (0) | 编辑 收藏
 
小白兔和它的导师
有一天兔子在一个山洞前写东西,一只狼走过来问:“兔子你在写些什么?”

兔子答曰:“我在写论文。”

狼又问:“什么题目?”

兔子答曰:“我在写兔子是怎样把狼吃掉的。”

狼听后哈哈大笑,表示不相信。

兔子说:“你跟我来。”然后把它带进了山洞之后,兔子又继续在山洞前写着。这时又来了一只狐狸问:“兔子,你在写些什么?”

兔子答曰:“我在写论文。”

狐狸问:“什么题目?”

兔子答曰:“兔子是如何把一只狐狸吃掉的。”

狐狸听完后哈哈大笑的,表示不信。

兔子说“你跟我来。”之后把它带进了山洞,过了一会儿兔子又独自一个人走出了山洞,继续写它的论文。

此时在山洞的里面一只狮子正坐在一堆白骨上剔着牙,还一边看着兔子的论文:一个动物的能力大小,不是看它的力量有多大,而是看它的导师是谁

posted @ 2008-07-02 09:23 杰哥 阅读(252) | 评论 (0) | 编辑 收藏
 
使用libsvm遇到的一个非常奇怪的问题,寻求高人指点

在使用台湾国立大学Chih-Jen Lin教授(http://www.csie.ntu.edu.tw/~cjlin/)的工具libsvm(版本:libsvm-mat-2.86-1)时遇到下面一个非常奇怪的问题:将下面两段一模一样的代码分别复制到matlab命令窗口中结果却不同,上面一个得到的是留一法的错误率,下面一段得到的是训练出来的模型,原因何在?
load heart_scale.mat;
svmtrain(heart_scale_label, heart_scale_inst, '-c 1 -g 0.07 -v 270')

load heart_scale.mat;
svmtrain(heart_scale_label, heart_scale_inst, '-c 1 -g 0.07 –v 270')

posted @ 2008-05-17 10:10 杰哥 阅读(482) | 评论 (0) | 编辑 收藏
 
scholarpedia,wikipedia维基百科,mathworld
scholarpedia:讲解非常清楚,是牛人写得综述(阶段性总结),写introduction可以到上面看看,一同学讲他硕士论文第二章很多是参考scholarpedia【主页左边的Encyclopedia of ,选择computational intelligence 进入这个链接后,可以编辑查找Semi-supervised learning,有条目,但是还没有人写】
wikipedia维基百科:没有scholarpedia专业详细,是什么人都可以edit(修改)
mathworld:http://mathworld.wolfram.com/,大米和王师兄推荐,查找公式使用
posted @ 2008-05-13 21:12 杰哥 阅读(1506) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 31 32 33 34 35 36 37 38 39