杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TDSC
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25675)
  • 2. arg min的含义是什么?(24487)
  • 3. latex问题集锦(19440)
  • 4. matlab命令窗口输出函数disp和display(17328)
  • 5. MATLAB字符串数组(15451)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

统计显著性差异

见matlab函数ttest的帮助,null hypothesis翻译成零假设[见概率论与数理统计第八章笔记,第一个概念就是零假设]。
matlab帮助是这么描述的:h = ttest(x) performs a t-test of the null hypothesis that data in the vector x are a random sample from a normal distribution with mean 0 and unknown variance, against the alternative that the mean is not 0. The result of the test is returned in h. h = 1 indicates a rejection of the null hypothesis at the 5% significance level. h = 0 indicates a failure to reject the null hypothesis at the 5% significance level.
翻译:h = ttest(x)执行t检验。零假设:x是均值为零的正态分布。备择假设:均值不是零。h = 1 表示以5%显著水平拒绝零假设。
 问题:ttest(x,y)与ttest(y,x)结果一样吗?
肯定一样,见matlab帮助,ttest(x,y)的零假设是:x-y是均值为零的随机变量。ttest(y,x)的零假设是:y-x是均值为零的随机变量。故两者等价。
例子:
论文ML-KNN:Alazy learning approach to multi-label learning(Pattern Recognition)的Table 2的第一行0.194±0.010   0.220±0.011,怎么判定前者显著好于后者?
ML-kNN 采用十折交叉验证得到十个Hamming loss组成一个向量x,BOOSTEXTER采用十折交叉验证得到十个Hamming loss组成一个向量y,ttext(x,y)=1表明具有统计显著性差异,ttext(x,y)=0表明不具有统计显著性差异

简单代码:
x = [0.1 0.15 0.13 0.24 0.26];
y = [0.2 0.21 0.58 0.06 0.04];
ttest(x,y)
ttest(y,x)

x = [0.1 0.15 0.13 0.24 0.26 0.21 0.26 0.28 0.36 0.38];%x的前五个值与原来相同
y = [0.2 0.21 0.58 0.06 0.04 0.46 0.54 0.91 0.58 0.75];%y的前五个值与原来相同,故意将y的后五个值与x的后五个值差异比较大
ttest(x,y)
ttest(y,x)

posted @ 2010-10-08 22:06 杰哥 阅读(1515) | 评论 (1) | 编辑 收藏
 
笑话
一群动物过江,至江心船开始进水,必须有一部分下水才行。
聪明的猴子想了一个主意,让各人讲一个笑话,若讲出的笑话不能让所有人发笑,就要把讲的人扔下水。
于是开始抽签,结果是从猫第一个讲,然后是猴子、鸡。。。
猫费尽心思讲了一个笑话,结果所有的人都笑了,只有猪不笑。无奈动物们只得把猫扔下了水。
猴子的笑话更是让人笑的前仰后合,但是猪还是不笑,猴子也只得去喂鱼。
鸡害怕了,连聪明的猴子都难逃此劫。。。
孰料猪此时笑了,众动物怪曰:鸡还没讲,你笑什么?
猪曰:猫的笑话真好笑。。。
posted @ 2010-09-26 10:49 杰哥 阅读(233) | 评论 (0) | 编辑 收藏
 
做报告注意点

这是一个系统工程,包括你的神态,语言等。讲一个东西最关键要能用通俗的语言将评委讲明白,注意你的听众是谁,如果不是同一专业的,一定要讲明你做事的意义和重要性,让别人感觉你的工作非常重要。
1 注意口头禅,不能说这个那个.要流畅,不能磕磕碰碰
2 目光和评委的交流,一个一个扫下,让人感觉自信,注意仪态气势

                                                                                                【演讲小技巧】如何在学术会议上做好口头报告
      http://mp.weixin.qq.com/s?__biz=MjM5OTIxNjQxMw==&mid=206277337&idx=2&sn=8b02975bfc9009b35c7de1174d426e19#rd
      如何在学术会议上来一次牛逼哄哄的口头报告?在学术会议上提交的论文被录用,论文作者去参会通常都有机会做口头报告。那么,如何在学术会议上做好口头报告呢?


  会议报告一般分两种,一种是oral,即口头报告,需要制作PPT等,面对会场或分会场的参会者做报告演讲并回答问题;一种是poster,即现场张贴形式,不需要制作PPT,将论文简要内容打印好张贴在墙上或分发,也有采用挂板的形式,作者在边上对有兴趣的参会者做介绍和即时交流。

首先是PPT的准备

  不要使用太花哨的模板,可以用最简单的白底板,字体颜色稍有对比,让听众视觉舒服为宜。PPT做的太过fancy,动画到处飞来飞去的并不是很适宜,严肃与活泼之间的度要掌握好。


  字体要统一,不仅字体的格式、大小要统一,每一页标题的位置也要统一,否则翻页的时候标题会跳来跳去,显得不够专业。


  PPT里忌讳有大段文字,图文并茂可以使听众更好地理解你的要点。研究数据表明,如果仅仅使用图片,什么也不说,理解和记忆的内容是单纯使用文字的3.5倍,图片加文字对理解和记忆的帮助是单纯使用文字的6倍。

对PPT的讲解

  开讲之前第一件事情是开场白,不要认为仅仅说了“你好”和“我是谁谁谁”就算是做了开场白!开场白自有它的精妙之处,它能把听众带进到报告中来。比如:


  “大家好,我叫。你是否有过那样的困扰,那么是不是有这样的可能,现在我就来介绍下”。


  准备好PPT,如果临场发挥,语言表达也不会流利,因为人的大脑组织语言需要一个思路整理的过程。建议从头到尾把每一句准备说的话都考虑好,尤其要注意slide之间起承转合的语句,加入一些过渡性语言能帮助听众从一个要点转到另一个要点,它们是容易被忽略却很关键的步骤,能使你所传达的信息更容易被记住。所有内容熟记于心之后站上讲台,心里就跟明镜儿似的,讲的时候就会更自信,更自然。


  通常过渡性语言有:


  “首先我们来看下A,接下来我们看下B,其中最关键的是……”


  “基于以上要素,我们得出了以下的结论……”


  “在做过……研究后,我们发现了……”


  再有就是时间的把控,有些人做报告由于紧张,语速飞快,这样不仅讲话时隔着急促的喘气声而且听众听得也是云里雾里,在发言中增加适当的停顿,不要一口气把所有话匆匆说完,这样既可以给自己留出整理思路的时间,也可以让听众深入思考消化。如果担心早早地讲完了,可以准备些扩充的slide,结束前直接按End键切换过去接着讲。


  小技巧:讲的时候示意完PPT后就转向听众,注意眼神交流和保持适度的微笑,带有情感的以讲故事的方式讲述,能够加深听众对这个报告的印象。参加学术会议对着装要求不是太严格,选自己最喜欢,感觉自信且舒适的衣服即可。

提问环节

  很多人会担心这个环节,怕自己答不上来,但有问题是好事,说明有人关注你的研究成果。其实这个研究方向做了这么久,你自己才是这个领域里最有发言权的专家,而且提问题的人大都自己也不知道答案,你可以慢慢理清自己的思路,给出自己的想法。更何况有时候是因为时间关系没有展开来讲,或者他当时开小差根本没听到,放轻松再讲一遍就好了,没什么大不了的。

总 结

  能到学术会议上做口头报告是一件荣幸的事情,因为你得到了一个能理清思路把自己的成果清晰地展示出来的机会,和更多的学术研究者交流学习的机会。做口头报告只是把自己的研究成果贴上去,排排版,组织语言,多练习几遍就可以去share了。

阅读记录:read twice

posted @ 2010-09-25 14:04 杰哥 阅读(333) | 评论 (0) | 编辑 收藏
 
重大研究计划“视听觉信息的认知计算”

与人类视听觉感知密切相关的图像、语音和文本(语言)信息在社会、经济和国家安全等领域中扮演着重要角色,并在今后一段时间内仍将迅猛增长。这类信息可被人类直接感知和理解,也可用计算机进行处理,但计算机的处理能力远逊于人类且处理效率远不能满足当今社会的发展需求。如何借鉴人类的认知机理和相关数学的最新研究成果,建立新的计算模型和方法,从而大幅度提高计算机对这类信息的理解能力与处理效率,不仅可有力推动信息科学的快速发展,也将为国民经济和社会发展做出重大贡献。

一、科学目标

本重大研究计划的总体科学目标是:围绕国家重大需求,充分发挥信息科学、生命科学和数理科学的交叉优势,从人类的视听觉认知机理出发,研究并构建新的计算模型与计算方法,提高计算机对非结构化视听觉感知信息的理解能力和海量异构信息的处理效率,克服图像、语音和文本(语言)信息处理所面临的瓶颈困难,为确保国家安全与公共安全、推动信息服务及相关产业发展以及提高国民生活和健康水平做出重要贡献。具体表现为:在视听觉信息处理的基础理论研究方面取得重要进展;在视听觉信息协同计算、自然语言(汉语)理解以及与视听觉认知相关的脑―机接口等三项关键技术方面取得重大突破;集成上述相关研究成果,研制具有自然环境感知与智能行为决策能力的无人驾驶车辆验证平台,主要性能指标达到世界先进水平,从而提升我国在视听觉信息处理领域的整体研究实力,培养具有国际影响力的优秀人才与团队,为国家安全和社会发展提供相关研究环境与技术支撑。

二、核心科学问题

本重大研究计划将围绕“感知特征提取、表达与整合”、“感知数据的机器学习与理解”和“多模态信息协同计算”等核心科学问题,组织并实施如下四个主要方面的研究工作。

(一)图像与视觉信息计算。

主要研究图像与视觉信息计算的认知机理,视觉基本特征的提取与选择,物体识别与图像内容理解,复杂场景下运动目标的行为分析等。提出若干图像与视觉信息的高效计算模型,取得国际公认的原创性研究成果(在Nature, Science, IEEE Trans. PAMI等刊物上发表高水平论文),培养具有国际影响力的优秀人才与研究团队。

(二)语音与听觉信息计算。

主要研究听感知机理与音频场景分析,自然环境下的语音识别与合成,口语对话分析与理解等。取得国际上有影响的原创性研究成果,提出若干语音与听觉信息的有效计算模型,在本领域国际权威刊物上发表高水平论文,培养具有国际影响力的优秀人才与研究团队。

(三)自然语言(汉语)理解。

主要研究语言加工的认知机理,语言知识建模和语义计算模型,基于语义理解的机器翻译方法,面向网络的汉语适度理解模型和系列分析工具,支持自然环境下口语对话分析、识别与理解的关键技术等。在国内已有相关成果的基础上,统筹构建大规模高标准汉语语义知识库。将上述研究成果应用到语言(汉语)信息处理典型系统中,显著提高对自然语言(句子、段落、篇章)的理解能力,并在网络信息检索、过滤和知识获取方面得到验证。       

(四)多模态信息的协同计算与脑—机接口。

主要研究多模态感知信息协同的认知机理与计算模型,基于视听觉信息融合的模式识别与环境交互方法,跨模态视频信息检索与网络敏感信息过滤技术等。大幅度提高跨模态视频信息检索的查准率,显著提升本领域整体研究实力。

研究与视听觉认知相关的脑信号提取、脑区定位与脑功能网络分析方法和技术,脑—机交互中的信号传输、处理与控制技术,与视听觉认知相关的脑—机接口典型应用。在改善残疾人生活质量和功能康复等方面得到验证或应用,为延伸和提高人类行为控制能力提供新技术。

三、关键技术与集成验证平台

在上述研究工作的基础上,本重大研究计划进一步开展与视听觉信息处理相关的关键技术和集成验证平台研究。

(一)视听觉信息协同计算的关键技术。

研究机器视听觉信息的协同计算模型及系统实现技术,基于视听觉信息融合的模式识别技术与验证系统,跨模态视频信息检索与网络敏感信息过滤技术及应用。基于多模态协同计算模型的网络视频信息搜索的查准率比同期国外最好水平高5%—10%,并在网络信息安全与服务等领域得到验证。

(二)自然语言(汉语)理解关键技术。

研究汉语通用词汇的规范化语义知识库及其构建技术,面向网络的汉语适度理解模型及系列分析工具的实现技术,支持自然环境下口语对话分析、识别与理解的关键技术。在国内现有相关成果的基础上,统筹构建汉语语义知识库,汉语通用词汇规模不小于5万词,带有语义标注的汉语平衡语料库规模不小于1千万字。将研究成果应用到网络环境下的汉语处理系统中,信息检索与知识获取的准确率比现有最好技术提高20%以上。

(三)与视听觉认知相关的脑―机接口关键技术。

研究与视听觉认知相关的脑信号提取、脑区定位与脑功能网络分析技术,脑—机交互中的信号传输、处理、控制技术及系统实现,与视听觉认知相关的脑—机接口典型应用。所提无创脑―机接口信息提取与分析等技术处于同期国际领先水平,在改善残疾人生活质量和功能康复等方面得到验证或应用。

(四)无人驾驶车辆集成验证平台。

集成上述基础理论与关键技术的相关研究成果,将传统视觉计算模型与新的视觉认知模型相结合,实现环境感知与建模方法新突破;实现多传感器跨模态跨尺度信息融合,生成高质量三维场景认知地图,构建高性能智能车辆无人驾驶验证平台;提供新的基于人—车—路状态综合分析的智能辅助安全驾驶关键技术;在国防、智能辅助安全驾驶等相关领域得到验证或应用并产生重要影响。

posted @ 2010-09-05 20:53 杰哥 阅读(537) | 评论 (2) | 编辑 收藏
 
parfor程序

matlabpool open 4;%打开四个线程
B=zeros(1,5);
parfor i=1:5
a=i;
B(1,i)=a;
end
matlabpool close
B
Libing Wang
师弟用过,比如对PCA 20次随机分割肯定能这么用,这样会提高CPU的利用效率,几个核同时用

一个使用parfor-loop的例子:
%example of parfor-loop %本地worker数通常等于cpu的核数
matlabpool
open local 2;
parfor
i=1:1024
A
(i) = sin(i*2*pi/1024);
end
plot(A);
matlabpool
close;

设机器的CPU核心数量是CoreNum双核机器的CoreNum2,依次类推。CoreNum以不等于核心数量,但是如果CoreNum小于核心数量则核心利用率没有最大化,如果CoreNum大于核心数量则效率反而可能下降(如何看计算机有几个核?Weiqiang说任务管理器->性能,看CPU使用记录有几个就是几个核)。因此单核机器就不要折腾并行计算了,否则速度还更慢。下面一段代码初始化Matlab并行计算环境:

%Initialize Matlab Parallel Computing Enviornment by Xaero | Macro2.cn

CoreNum=2; %设定机器CPU核心数量,我的机器是双核,所以CoreNum=2

if matlabpool('size')<=0 %判断并行计算环境是否已然启动

matlabpool('open','local',CoreNum); %若尚未启动,则启动并行环境

else

disp('Already initialized'); %说明并行环境已经启动。

end

运行成功后会出现如下语句:

Starting matlabpool using the 'local' configuration ... connected to 2 labs.

成运行计算后可以将其关闭。关闭的命令很简单:

matlabpool close

另外一个问题就是并行代码做模拟的次数问题。我们要达到用非并行的代码做N此模拟所能得到结果的精确程度,在核心为CoreNum并行代码中,Parfor语句段中只要做N/CoreNum次即可达到。

read twice http://blog.sciencenet.cn/blog-419879-444784.html, no need to see again


但下面例子是可以的,parfor内部可以有for(parfor本身也不支持嵌套,将for j 改为parfor,两重parfar不行):

matlabpool open local 2;

parfor i=1:1024

A(i) = sin(i*2*pi/1024);

for j=1:10

B(i,j)=A(i)*j;

end

end

matlabpool close;

这段代码没有问题,不知我的Test_GLA_DLSR_FS_ServerVersion_outerParFor,没有r = zeros(length_d,1);就不行,提示rate can not be classified.和Weiqiang讨论,他也没遇到这种错误,只是想办法用替代方法解决
解决方案:最内层的循环用parfor(Weiqiang说未必要这样);几个内层串行for,相互没有关联,可以一起parfor。parfor内部不能有clear和save,因为parfor内部有了clear和save,对应的clear和save会显示红色。This is with Dong Cao's help.
解决方案:Weiqiang说parfor内部是可以有for循环的,他讲是可以有clear和load的,封装成一个函数my_clear(随便什么函数名字都行)调用clear即可,load类似,但save不行。

错误实现:
function my_load1(filename)
load(filename);
end
正确实现
function S = my_load(filename)
S = load(filename);
end

和Weiqiang讨论,他也没说清楚原因。

function my_clear(name1)

clear name1;

    end

看clear的用法有很多种,Weiqiang讲只能写死一种。

见Test_GLA_DLSR_FS_ServerVersion_outerParFor

The client lost connection to lab 4. This might be due to network problems, or

the interactive matlabpool job might have errored.Weiqiang说这种问题没法解决,

是通讯问题
在本机程序没耗100%CPU和内存,到服务器上跑会不会快点,Weiqiang讲会快点,但快不了多少。他在du公司服务器速度也和lab服务器速度速度差不多,关键程序本身很慢,租服务器还是很慢。

posted @ 2010-08-26 11:24 杰哥 阅读(2888) | 评论 (1) | 编辑 收藏
 
matlab并行计算[摘自matlab帮助]Parallel for-Loops (parfor) [Matlab的Parallel Computing Toolbox]

This section shows how to modify a simple for-loop so that it runs in parallel. This loop does not have a lot of iterations, and it does not take long to execute, but you can apply the principles to larger loops. For these simple examples, you might not notice an increase in execution speed.

  1. Suppose your code includes a loop to create a sine wave and plot the waveform:

    for i=1:1024
        A(i) = sin(i*2*pi/1024);
        end
        plot(A)
  2. To interactively run code that contains a parallel loop, you first open a MATLAB pool. This reserves a collection of MATLAB worker sessions to run your loop iterations. The MATLAB pool can consist of MATLAB sessions running on your local machine or on a remote cluster:

    matlabpool open local 3
  3. With the MATLAB pool reserved, you can modify your code to run your loop in parallel by using a parfor statement:

    parfor i=1:1024
        A(i) = sin(i*2*pi/1024);
        end
        plot(A)

    The only difference in this loop is the keyword parfor instead of for. After the loop runs, the results look the same as those generated from the previous for-loop.

    Because the iterations run in parallel in other MATLAB sessions, each iteration must be completely independent of all other iterations. The worker calculating the value for A(100) might not be the same worker calculating A(500). There is no guarantee of sequence, so A(900) might be calculated before A(400). (The MATLAB Editor can help identify some problems with parfor code that might not contain independent iterations.) The only place where the values of all the elements of the array A are available is in the MATLAB client, after the data returns from the MATLAB workers and the loop completes.

  4. When you are finished with your code, close the MATLAB pool and release the workers:

    matlabpool close

For more information on parfor-loops, see Parallel for-Loops (parfor).

posted @ 2010-08-25 20:51 杰哥 阅读(2022) | 评论 (1) | 编辑 收藏
 
[zz]The road to success--听Eric Xing讲课记录
邢波(Eric Poe Xing),现为美国卡内基梅隆大学(Carnegie Mellon University)计算机系的助理教授。邢波,1993年毕业于中国清华大学物理和生物系,并获双学士学位。1998年,1999年,邢波于Rutgers University分别获得计算机的硕士学位和分子生物与生物化学的博士学位,其博士论文为The Molecular Mechanism of Human Esophageal Carcinogenesis。2004年,邢波从美国加州大学柏克莱分校计算机系获得其在美国的第二个博士学位,其博士论文为Probabilistic graphical models and algorithms for genomic analysis。邢波教授目前的研究方向为机器学习,统计计算方法,生物信息工程,图像信息挖掘等等。

上周有幸听了邢波教授的五天机器学习课程,受教颇多颇多。该课程属于"龙星计划" 的一部分,该计划每年都会邀请一些海外杰出的华人教授回国教授研究生课程。Professor xing是CMU的副教授,也是当代机器学习领域中泰山北斗Michael Jordan的学生,他们那些人经历了推动这个领域从无到有,再到今天繁荣昌盛的过程。除此之外,他还是Richard Karp(提出NP问题而获得1985年图灵奖), 和Stuart Russell(《人工智能:一种现代方法》的作者)的学生。用邢教授的话说,他当年在Berkeley读博时,面对Karp时和他谈算法,面对 Jordan时就和他谈Machine Learning,面对Russell时和他谈AI。五年之后,博得众家之所长,在CMU开辟一片属于自己的天地。值得一提的是,邢教授本科在清华念得的 是物理,后来去美国读了个分子生物和生物化学的博士,然后再去Berkeley读计算机的博士的。

此次回国讲课,虽然短短五天,但邢教授 恨不得倾囊相授。从机器学习从前二三十年的发展,到前十年的成果,再到上个月的成果;从背后深厚的数学原理到上层模型算法的应用实例和技巧;更是高屋建瓴 将整个领域总结成一个五维空间,同时将问题映射到具体细节。由于课程时间很紧,课程内容其实是他在CMU所教授的两门研究生课程的一个结合,所以讲课速度 不得不比较快,但每讲完一个问题,他都会停下来问问大家有没有什么问题,征求大家的意见,唯恐大家听不懂。不仅如此,每到兴奋之处,更是会讲授他的一些研 究经历。期间为了和大家给大家更多的交流机会,更是在周三晚上增加了一次座谈,回答大家学习上,生活上等等的问题。虽然白天上课强度如此之大,他每天晚上 三点起床为我们备课,每次上课都会提前二十钟到堂,上课前十分钟还要把ppt好好检查一遍,修改的更为完美。此番热忱之心,真是令人感动!反观国内一些无 术之士,上课简直就是浪费别人的的大好青春,扼杀别人的创造力。

我一直很奇怪,姑且不论其本科专业,这个人为什么要读两个专业差别如此大 的博士,他又是如何做到的?后来,在座谈会上,才被一席话惊醒梦中人。答案很简单--passion。讲到他之所以三番两次改专业,其实就是一个不断的去 尝试的过程,"Fowllow my heart"。最终终于在Machine Learning找到了自己的归属,而且是计算机顶尖牛校。很多人会问他,本科在清华读了四年物理,博士又那么辛苦读了五年生物,就这样放弃,值得吗?他 说,一个人如果在他四十岁时做出改变都不算晚,因为他还有下半辈子来享受这种改变;反之如果他一直瞻前顾后,止步不前,那么他遗憾的就是一辈子!人生可就 这么一辈子啊!再从具体的讲,本科乃至博士学到的东西都是很快会过时的,所以没什么舍不得的,还举了以前他读清华时的同学的例子,因为成绩好舍不得放弃物 理,然而又对物理没有passion,十余年过后,两人差距可想而治。总结一下,人活着就应该去做自己有passion的事,敢于去try,不要怕吃苦, 敢于放弃!

其实,作为一个转专业的学生,邢教授申请Berkeley的过程并不顺利,一开始报Jordan,被调到Karp那,Karp 也没接收,最后落到Russell那搞人工智能,但他并没有放弃对Machine Learning的热爱,经过不懈努力,最终得到了Jordan和Karp的认可,被两人也收为弟子。还讲到研究生与导师相处的诀窍是不要等老师来 drive你,而是你要主动去drive老师。具体的说,不要等老师来告诉你要干什么,而要你主动去告诉老师你在干什么,想干什么,让老师来配合你的工 作!当我问道国内的研究环境和国外的差距,国内整天做工程的困惑时,他的建议是要寻找一个平衡点,既让自己happy,也要让导师happy。这句话是想 想目前还是正确的,自己不happy,日后后悔的只有自己;搞的导师不happy了--会死的很难看,起码在国内的环境下大概如此了。很多事情,看上去总 是困难重重,但“If you have the heart,Nothing can stop you”!

在做研究方面,他 讲到做研究最重要的是honesty,只有做到honesty,才会有人追随你。虽然贵为该领域的大教授,但在课堂上,对于其不确定或是不知道的问题,绝 不掩饰,虚心的听取别人的见解。其次就是diligence,讲到Jordan即使是度假,每天也到带两三篇paper读读,讲到 Andrew(Jordan最出色的弟子,邢教授的师兄)整日呆在实验室不出门,他自己回国晚上只睡着4个小时,白天依然神采奕奕的讲课。是什么支持他们 做到如此的,答案还是passion。因为passion,对于那些大牛读paper其实就普通人看电影没有区别。还有一点就是healthy。在同等条 件下或是别人条件比你好的情况下,你唯有拼身体了--别人每天工作12小时,你每天工作13小时!还说到智力和出身院校其实都不重要,讲到年纪比他还轻的 杨子恒,甘肃农大毕业,北京农大读的博士如今已当选为英国皇家学会院士。

PS:昨日在BBS上看到一篇文章“从院士增选看数学江湖”,后来又了解下丘-王事件,没想到国内数学界堕落到如此地步。国内某些人虽然在局部时间和空间内风光无限,但无耻行径注定日后遭人唾弃。真正有学问的人,也是品格极为高尚的人。在华老,陈老等老一辈苦心栽培的数学界,院士级别的人物尚且如此,其他领域不必多言。

花 了一上午多的工作时间终于敲成了这篇文章,希望与大家共勉。附上一幅插画,此画被邢教授挂于其办公室当中,座谈课介绍后,当即不少人将其作为桌面。其中道 理,尽在画中。大图地址:http://incredimazing.com/static/media/2008/01/06 /d1a108c26ba4bfc/successlarge.jpg
posted @ 2010-08-23 15:55 杰哥 阅读(3009) | 评论 (2) | 编辑 收藏
 
特征向量的意义

       以前觉得我是线性代数,概率论与数理统计方面的专家。2007年将2007年之前的每一条线性代数考研题都做了一篇,概率论与数理统计在上大学时就将所有概率论与数理统计的考研题做完。其实很多中国人都有这个问题,是解题专家,但意义呢?比如线性代数中最基本的概念特征向量的意义是什么?Jianxun Mi在百度百科里面查的,A*x=lamada*x,A是矩阵,x是非零特征向量,lamada是特征值。可以看出,特征向量是对x进行线性变换也就是A*x,得到的只是长度的拉升。所以特征向量定义是一个矩阵对空间中所有向量做线性变化,变换后如果只是这个向量简单地乘以一个缩放因子,所有满足这个性质的向量的集合。特征向量是针对一个线性变换,未必是矩阵。例如:
        (1)旋转的地球的特征向量?只有指向南极和北极的两个向量,只有这两个向量只是长度的拉升。随着地球的自转,每个从地心往外指的箭头都在旋转,除了在转轴上的那些箭头。考虑地球在一小时自转后的变换:地心指向地理南极的箭头是这个变换的一个特征向量,但是从地心指向赤道任何一处的箭头不会是一个特征向量。因为指向极点的箭头没有被地球的自转拉伸,它的特征值是1。   
        (2)另一个例子是,薄金属板关于一个固定点均匀伸展,使得板上每一个点到该固定点的距离翻倍,特征向量是什么?这个伸展是一个有特征值2的变换。从该固定点到板上任何一点的向量是一个特征向量,而相应的特征空间是所有这些向量的集合。

posted @ 2010-08-08 13:52 杰哥 阅读(1713) | 评论 (0) | 编辑 收藏
 
字符串操作代码
        filename = strcat('.\5Train\',num2str(i));
        load (filename);
       
        a=regexp(filename,'\.\\\d','match');
        b=regexp(a,'\d','match');
        temp=b{1,1};
        temp=temp{1,1};
        l=str2num(temp); %the number of training samples
posted @ 2010-08-08 13:16 杰哥 阅读(345) | 评论 (0) | 编辑 收藏
 
断电导致程序结果丢失
如果仅仅在matlab程序的最后一句save结果,则可能导致断电,什么结果也没有保存下来。可以类似Sparsity preserving projections的代码,在每一重循环的结尾save,要看该程序执行到哪一重循环。因为cor = zeros(splits,maxDim);所以看cor哪一行全为零,就知程序运行到哪一步,即使断电,可以从断电的地方接着运行从而节省很多时间。
posted @ 2010-08-08 10:50 杰哥 阅读(331) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 27 28 29 30 31 32 33 34 35 Last