杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25670)
  • 2. arg min的含义是什么?(24473)
  • 3. latex问题集锦(19431)
  • 4. matlab命令窗口输出函数disp和display(17326)
  • 5. MATLAB字符串数组(15447)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

combntns函数所引起的内存不足问题

编写NFL和NFP分类器应用于ASLAN数据库发现combntns函数所引起的内存不足,到网上搜索有人提问,但没有解决方案。
问题:我想取一个序列的任意组合,用combntns,在数目较小时,可以达到目的,但是数目变大时,就不行了,求助各位。

例如取1:5,里面3个数字的组合,很容易得到。
combntns(1:5,3) 就可以了

但是取1:100里面10个数字的组合,就不行了。
我的解决方案:如果你未必要取所有组合,可以从1:100中任取20个数,再取这20个数字里面10个数字的组合。
%matlab code:

rand('state',0);
temp1 = randperm(100);
temp2 = temp1(1:20);
combntns(temp2,10)

posted @ 2012-12-13 08:30 杰哥 阅读(818) | 评论 (0) | 编辑 收藏
 
win7下matlab7.0的卸载问题,为什么matlab2010a只能在断网时才能打开?
http://www.ilovematlab.cn/thread-68860-1-1.html
在win7,32位家庭版下,有两种方法解决正常运行问题,一是将配色方案改为经典(在桌面空白处右击鼠标,选择个性化,在弹出的对话框中选择windows经典主题即可),二是兼容性改为vista sp1或sp2.卸载完了后,再把主题改回到你原来的主题。

为什么matlab2010a只能在断网时才能打开?
20121207发现matlab打不开,上网搜索解决方案。有人说断网就可以。我实验两次,注销后断网能打开matlab,注销后连网,不打开其他任何程序,matlab还是打不开,等了五分钟。能看到matlab进程。继续搜索“Windows 7 matlab断网才能打开”。查到解决方案(http://wenwen.soso.com/z/q294348187.htm):你可能用的是window7吧,这种现象的产生是由于MatLab与Windows 7 的兼容性问题,解决的方法如下:从纯净的Windows XP系统中system32目录中拷贝一份iphlpapi.dll到 Matlab 2010a安装目录\bin\win32中问题即可解决,当然,X64的系统要到 Windows XP X64 中去拷。我问Lianyang Ma要了这个文件,重启下电脑就搞好了(即使在同时打开qq,gtalk,谷歌浏览器,FileZilla的情况下,也能打开matlab)。    与配色方案和兼容性没有关系。
posted @ 2012-12-05 19:32 杰哥 阅读(1446) | 评论 (0) | 编辑 收藏
 
全国接听免费附加套餐
http://service.ah.10086.cn/pub-page/busi/commonBusi/optpage_common.html?f=200011716&tfCode=JIETINGF&kind=200011524&area=cd

http://www.10086.cn/ah/,网上营业厅,不是点击“业务办理”,而是点击“换套餐”,长途漫游类,全国接听免费附加套餐
posted @ 2012-11-23 17:46 杰哥 阅读(1472) | 评论 (5) | 编辑 收藏
 
arXiv
地球上首屈一指的科学论文预印本网站,科学出版业开放获取运动的领头羊,目前主站点落脚于康乃尔大学,在世界各地设有17个镜像站点,中国的镜像站点是 http://cn.arXiv.org 。 
现今的数学家及科学家习惯将论文先上传至 arXiv.org ,再提交给专业的学术期刊。尽管 arXiv 上的文章未经同行评审,2004年起采行了一套“认可”系统。 
arXiv.org的创始人物理学家Paul Ginsparg因之获得了2002年的麦克阿瑟奖。  在其上能搜索Professor Tao的姓名就可以搜索到其论文。
posted @ 2012-11-23 16:31 杰哥 阅读(2208) | 评论 (0) | 编辑 收藏
 
Multiple kernel learning (MKL)
看论文SimpleMKL第一节标注部分就能完全掌握其概念
posted @ 2012-11-22 18:27 杰哥 阅读(1083) | 评论 (0) | 编辑 收藏
 
Subgradient method

http://en.wikipedia.org/wiki/Subgradient_method
Classical subgradient rules

Let f:\mathbb{R}^n \to \mathbb{R} be a convex function with domain \mathbb{R}^n. A classical subgradient method iterates

x^{(k+1)} = x^{(k)} - \alpha_k g^{(k)} \

where g^{(k)} denotes a subgradient of  f \  at x^{(k)} \ . If f \  is differentiable, then its only subgradient is the gradient vector \nabla f itself. It may happen that -g^{(k)} is not a descent direction for f \  at x^{(k)}. We therefore maintain a list f_{\rm{best}} \  that keeps track of the lowest objective function value found so far, i.e.

f_{\rm{best}}^{(k)} = \min\{f_{\rm{best}}^{(k-1)} , f(x^{(k)}) \}.
下图来自: http://www.stanford.edu/class/ee364b/notes/subgradients_notes.pdf
例2:SVM代价函数是hinge loss,在(1,0)除导数不存在,取1和1之间的数值,具体怎么取?Mingming Gong said好像这个pdf和
http://www.stanford.edu/class/ee364b/lectures/subgrad_method_slides.pdf,其中一个讲了。Mingming Gong asked tianyi, which is better, subgradient or smooth apprpximation?结论是不一定,subgradient解的是原问题,smooth不是解的原问题。一个相当于对梯度的近似,一个是对函数的近似,很难说哪个好。
posted @ 2012-11-22 16:08 杰哥 阅读(842) | 评论 (0) | 编辑 收藏
 
How to use matlab solve optimization quadratic?
Nannan gives me a fold named "Matlab Help". On page 46 of "Optimization Toolbox User Guide", it lists the constrain and objective type, and the matlab function. For example, if the constrain is linear and the objective is quadratic, we can use quadprog. Note that it can not slove $D_1$ in Section 4.1 of "Smooth minimization of non-smooth functions". Problem: max ((X^T)HX) and H is positive semi definite. The matlab function "quadratic" can not solve this kind of problem. It can only solve the problem: min ((X^T)HX) and H is positive semi definite.
posted @ 2012-11-21 18:31 杰哥 阅读(672) | 评论 (0) | 编辑 收藏
 
Cauchy–Schwarz inequality
http://en.wikipedia.org/wiki/Cauchy%E2%80%93Schwarz_inequality

The Cauchy–Schwarz inequality states that for all vectors x and y of an inner product space it is true that

 |\langle x,y\rangle| ^2 \leq \langle x,x\rangle \cdot \langle y,y\rangle,

where \langle\cdot,\cdot\rangle is the inner product. Equivalently, by taking the square root of both sides, and referring to the norms of the vectors, the inequality is written as

 |\langle x,y\rangle| \leq \|x\| \cdot \|y\|.\,

Notable special cases

[edit]Rn

In Euclidean space Rn with the standard inner product, the Cauchy–Schwarz inequality is

\left(\sum_{i=1}^n x_i y_i\right)^2\leq \left(\sum_{i=1}^n x_i^2\right) \left(\sum_{i=1}^n y_i^2\right).

posted @ 2012-11-21 11:03 杰哥 阅读(489) | 评论 (0) | 编辑 收藏
 
Lipschitz continuity

Given two metric spaces (X, dX) and (Y, dY), where dX denotes the metric on the set X and dY is the metric on set Y (for example, Y might be the set of real numbers R with the metric dY(x, y) = |x − y|, and X might be a subset of R), a function

\displaystyle f: X \to Y

is called Lipschitz continuous if there exists a real constant K ≥ 0 such that, for all x1 and x2 in X,

 d_Y(f(x_1), f(x_2)) \le K d_X(x_1, x_2).[1]

Any such K is referred to as a Lipschitz constant for the function ƒ. 
Reference:http://en.wikipedia.org/wiki/Lipschitz_continuity
区分概念,Lipschitz Continuously Differentiable,见Nesterov’s Optimal Gradient Method(Yaoliang Yu的ppt第十页)

[zz] 关于Lipschitz连续性的几个例子 http://blog.sina.com.cn/s/blog_544a70700100fqix.html
1,f(x) = |x|

是Lipschitz连续的,Lipschitz常数为1,但是其不可微
2,f(x) = x2
是Lipschitz不连续的,在无穷大处,f'(x)=2x,趋于无穷陡
3,f(x) = √x defined on [0, 1] is not Lipschitz continuous. This function becomes infinitely steep as x approaches 0 since its derivative becomes infinite.
4,The function f(x) = x3/2sin(1/x) (x ≠ 0) and f(0) = 0, restricted on [0, 1], gives an example of a function that is differentiable on a compact set while not locally Lipschitz because its derivative function is not bounded. 
f'(x)=3/2√x sin(1/x)-cos(1/x)/√x 
趋向于0的时候无界

 

posted @ 2012-11-20 10:42 杰哥 阅读(1419) | 评论 (0) | 编辑 收藏
 
The difference between Fisher’s Linear Discriminant and Linear Discriminant Analysis
 Fisher’s Linear Discriminant is for classification while Linear Discriminant Analysis is for dimension reduction. How is Fisher’s Linear Discriminant used for classification? The idea is very simple. It first reduces the dimension to one dimensional space using Linear Discriminant Analysis and then choose average of the two projected means as a threshold for classification. Therefore, the code is very simple to implement. See pages 13-18 of the slides "Linear Classification" of my computer for details. 
The differences between them have been mentioned by Professor Tao.

Other reference: "Introduction to Machine Learning-dietterich" of my computer 
posted @ 2012-11-14 12:05 杰哥 阅读(595) | 评论 (3) | 编辑 收藏
 
仅列出标题
共39页: First 18 19 20 21 22 23 24 25 26 Last