杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25667)
  • 2. arg min的含义是什么?(24468)
  • 3. latex问题集锦(19430)
  • 4. matlab命令窗口输出函数disp和display(17324)
  • 5. MATLAB字符串数组(15445)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

[zz] Matlab中使用.p文件的方法
首先,P文件为了保护知识产权设计的一种加密文件,是不能查看的。
运行比较简单,和调用m文件方法一样。
下面是一些解释。
P文件是对应M文件的一种预解析版本(preparsed version)。因为当你第一次执行M文件时,Matlab需要将其解析(parse)一次(第一次执行后的已解析内容会放入内存作第二次执行时使用,即第二次执行时无需再解析),这无形中增加了执行时间。所以我们就预先作解释,那么以后再使用该M文件时,便会直接执行对应的已解析版本,即P文件。但又因为Matlab的解析速度非常快,一般不用自己作预解析。只有当一些程序要调用到非常多的M文件时,如GUI应用程序时,才会作预解析,以增加以后的调用速度。 
P文件可以用来作保密代码之用,如果你给别人一个M文件,别人可以打开来看到你所有的代码和算法。如果你的代码不想被别人看到,那可以给他P文件。
如何使用.p文件
1.首先,将当前工作目录切换到.p文件所在的目录,然后就可以在左侧的工作空间窗口看见该目录所包含的所有文件了,当然包括.p文件啦~
2.由于.p文件是.m文件的预解析版本(不能查看、编辑),显然.p文件同.m文件一样都是一个函数体,只不过此时该函数是一个黑盒子罢了。举例如test.p文件便意味着存在一个已经编好的函数test(如何实现我们不知道),为调用这个函数test,我们需要知道它的参数形式 此时在命令窗口下键入help test,即可查看到test函数的参数 然后我们就可以调用啦
如何自己制作.p文件
在Matlab中,我们经常把语句或函数写在一个M文件里,便于模块化和代码重用,比如,写一个test.m的文件(即自定义一个test函数):
% ———————-
% test.m
a = 1;
b = 2;
% ———————-
这个M语句文件,或:
% ———————-
% test2.m
function a = test2(b)
a = b * 2;
% ———————-
这个M函数。
我们在Command Window里输入:
>> test
即是等于输入了
>> a = 1;
>> b = 2;
而输入:
>> a = test2(2)
a =
     4
便是执行了一个函数。
以上的内容我想大部份人都知道是怎么一回事了,以下说一说P代码文件。
如果在Command Window里输入:
>> pcode test
便会在相应test.m的文件夹里产生了test.p。如果这时在Command Window里输入:
>> test
其实是运行了test.p,而不是test.m。
P文件是对应M文件的一种预解析版本(preparsed version)。因为当你第一次执行M文件时,Matlab需要将其解析(parse)一次(第一次执行后的已解析内容会放入内存作第二次执行时使用,即第二次执行时无需再解析),这无形中增加了执行时间。所以我们就预先作解释,那么以后再使用该M文件时,便会直接执行对应的已解析版本,即P文件。但又因为Matlab的解析速度非常快,一般不用自己作预解析。只有当一些程序要调用到非常多的M文件时,如GUI应用程序时,才会作预解析,以增加以后的调用速度。
如Matlab的当前目录(Current Directory)有test.m文件,作预解析后,又有test.p文件。因为P文件的调用优先级比M文件要高,所以当你调用test时,会作优先选择而调用了test.p。
可以修改test.m的代码为:
% ———————-
% test.m
a = 3;
b = 4;
% ———————-
再在Command Window里调用test:
>> test
Warning: P-file C:\Program Files\MATLAB71\work\test.p is older than M-file C:\Program Files\MATLAB71\work\test.m.
C:\Program Files\MATLAB71\work\test.p may be obsolete and may need to be regenerated.
Type "help pcode" for information about generating P-files from M-files.
会出现一个Warning,警告你所调用的P文件比同名的M文件要旧,即表示M文件已被修改了。尽管如此,调用的还是旧的P文件,即得出a = 1和 b = 2。
P文件可以用来作保密代码之用,如果你给别人一个M文件,别人可以打开来看到你所有的代码和算法。如果你的代码不想被别人看到,那可以给他P文件。
pcode函数也可以应用在M函数文件。
参考:
http://zmryyj.blog.163.com/blog/static/98450751201132081451490/
http://frenselx.spaces.live.com/blog/cns!3D7342371BEE8602!290.entry
阅读记录: read twice, understand completely
posted @ 2016-07-29 15:13 杰哥 阅读(770) | 评论 (0) | 编辑 收藏
 
全新的美国计算机学科排名
转自王威廉20160720微博:
全新的美国计算机学科排名,号称与US News的系主任主观打分排名不同,这项排名针对计算机领域最顶尖的会议计算而来。CMU总体排名第一,拥有123名教授。UC Santa Barbara在少于30名Faculty的小型计算机系中仅次于哈佛,与普林斯顿并列第二。O网页链接:
http://csrankings.org/


posted @ 2016-07-21 12:40 杰哥 阅读(946) | 评论 (1) | 编辑 收藏
 
[zz] CVPR2016 论文快讯:人脸专题
     摘要: http://mp.weixin.qq.com/s?__biz=MzI1NTE4NTUwOQ==&mid=2650325063&idx=1&sn=8430ef3dbd2d871c63f2b7fbac90c0b4&scene=23&srcid=0715pmVjHqYCKS3fnfLYwO8L#rd前言     人脸识别...  阅读全文
posted @ 2016-07-16 09:44 杰哥 阅读(3700) | 评论 (0) | 编辑 收藏
 
李开复【什么人适合出国?出国要有什么心理准备?】
20160712微博
曾有网友问:新生代要具备什么程度的适应力才适合出国留学?如果决定了要出国,需要什么样的心理准备?

我的回答:我认为适合出国的人没有出生年代之分。我的父亲在50岁时有一个机会到斯坦福大学做一年的研究,当时他的英文有限,全靠一个接待家庭(host family)的协助,但为了在他钻研多年的“中国近代史人物”研究中更进一步,他勇敢地接受了这个挑战。因此,只要具有以下品质,那么就是适合出国的人。

1、能独立生活,很好的照顾自己,包括从生病去医院到洗衣服做饭。读大学时,如果能不住在家里,就是一种独立生活的练习。

2、有足够的适应力,从学习上要能很快地变换思维去适应国外教学方法,国外的课程很重视课堂参与和提问,这需要训练独立思考和清楚的自我表达能力,学会用外国的思维写出满意的论文,学会如何与同学及导师相处。一般来说,只会背书、考试是不够的,有自己的思想、有创意的人更适应国外的思维习惯。

3、从感情上你要学会忍受一切思念、孤独、以及学会处理和朋友、爱人、亲人的关系。

4、语言能力要尽量掌握,而且要能自如运用,而不只是会考试。要适应长时间听外语,了解俚语,也要习惯大量阅读外文,阅读要够快,读了能吸收。

5、经济上没有问题,无论是靠家庭还是靠奖学金。

6、懂得运用各种资源。国外资源丰富,无论是自然、文化、学生福利等,都要善加利用。比如学生活动中心、运动设备、电影、音乐会等各项课外活动,甚至他们的辅导中心、妇女中心也有对少数民族关怀的计划方案,多多打听,多看布告栏。

到了国外,你需要具备的心理素质包括:

1、要抱着破釜沉舟的打算,不要沦落到花了家里的钱又没学好的下场。

2、不要老和中国人待在一起,那会让你的英语进步太慢,一定要交些外国朋友,尽量去他们的圈子里活动。

3、要时时记得父母赚钱的不易。如果有机会赚点外快,只要不影响学业,不妨试试。因为除了贴补开销外,你可以从中增加你对国外的语言和文化的适应,也能更让你直观感觉到赚钱的不易。在国外多买二手书、二手家具,用减价券(coupon)等省钱度日的方法,入境问俗,开源节流。

4、看看我的《给中国学生的第一封信》中谈到的几个素质,比如直截了当的沟通、积极自信的作风,这些都是美国文化所期望的。不要做个害羞不说话的人,要学着表现自己。

5、要有碰到歧视等问题的心理准备。虽然欧美国家都开放地接受外国学生,但也会有种种因素使少数当地人有排斥心理,虽然大部分的外国人是友善的,但凡事总有例外,有了心理准备碰到时就不会太意外。
posted @ 2016-07-13 11:17 杰哥 阅读(228) | 评论 (0) | 编辑 收藏
 
[zz] 现在主要的期刊分区有几种?
http://blog.sciencenet.cn/blog-303458-804525.html

现在主要的期刊分区有几种?

答:有两种。

   A、JCR(又称汤森路透)分区法

   汤森路透(Thomson Reuters)每年出版一本《期刊引用报告》(Journal Citation Reports,简称JCR)。JCR对8600多种SCI期刊的影响因子[1](Impact Factor)等指数加以统计。JCR将收录期刊分为176个不同学科类别。每个学科分类按照期刊的影响因子高低,平均分为Q1、Q2、Q3和Q4四个区:
  各学科分类中影响因子前25%(含25%)期刊划分为Q1区、前25-50% (含50%)为Q2区、前50-75% (含75% )为Q3区、后75%为Q4区。

 B、中国科学院分区法
   
中国科学院国家科学图书馆世界科学前沿分析中心(原中国科学院文献情报中心)根据汤森路透每年的JCR数据,创新划分了一个分区区间,形成了中科院的分区标准。

posted @ 2016-06-15 19:51 杰哥 阅读(478) | 评论 (0) | 编辑 收藏
 
[zz] 国外十大高校人工智能实验室及其代表性人物一览
http://toutiao.com/a6293031494186107137/?tt_from=mobile_qq&utm_campaign=client_share&app=news_article&utm_source=mobile_qq&iid=4325464459&utm_medium=toutiao_android


高校建立的实验室与大公司有所不同,其研究项目除了偏应用科学的领域,还有一些属于基础理论研究的项目,是无法从具体的产品上表现的,通常高校实验室会同时进行两种领域的研究甚至侧重后者,考虑到高校在学术界的地位,人们在关注实验室研究内容的时候除了关注它的产品,同时也应该注意其在基础研究领域的水平。麻省理工学院MIT的人工智能实验室全称叫CSAIL (ComputerScience and Artificial Intelligence Laboratory)。最初,这是两个实验室:计算机实验室创办于1963年,人工智能实验室创办于1959年,两个实验室在2003年正式合并。CSAIL是MIT最大的实验室,也是世界上最重要的信息技术研发中心。CSAIL的成员创立了多于100家知名公司 ,包括机器人之父科林·安格尔,iRobot公司创始人之一海伦·格雷纳,波士顿动力公司创始人马克·雷伯特,还有卡内基·梅隆大学机器人研究所的负责人马特·梅森。MIT也几乎是顶尖技术的代名词。它在去年底发布了2015年CSAIL的主要创新,包含3D打印心脏,可以爬楼梯、开门甚至驾车的机器人,癌症预测工具等。图片来源,腾讯目前CSAIL的负责人是Daniela RusDaniela Rus,图片来源,MIT斯坦福大学斯坦福大学的人工智能实验室成立于1962年,50多年来一直致力于推动机器人教育。由于斯坦福与硅谷的特殊联系,斯坦福的学生有更多机会将他们的发明商业化。斯坦福大学在2014年底宣布了一个长达100年的人工智能研究计划,可见其在人工智能研究方面的投入和决心。另外,斯坦福大学在网上公开了许多他们有关机器人和深度学习的课程。在斯坦福人工智能实验室的教授团队中,最为华人熟悉的是Andrew Ng(吴恩达),他是世界上machine learning(机器学习)领域的大师,在斯坦福教授的machine learning课程十分受欢迎。同时,他还曾在Google公司的“谷歌大脑”项目中担当要职,帮助谷歌建立全球最大的“神经网络”,这个神经网络能以与人类大脑学习新事物相同的方式学习现实生活。2014年,Andrew加入百度担任百度首席科学家。斯坦福的华人李飞飞参与建立了著名的ImageNet计算机视觉识别数据库及挑战赛,其每年都会吸引各大公司的图像识别程序的参加,极大促进了图像识别领域的技术发展。目前,李飞飞是斯坦福人工智能实验室的主管。李飞飞,图片来源,斯坦福/新浪卡内基梅隆大学卡内基梅隆大学在1979年成立了Robotics Institute(机器人学院),专门在机器人科技领域进行实践和研究,这个学院还是全世界第一个推出机器人PHD项目的大学。在该学院下面还设有National Robotics Engineering Centre (NREC),与政府及商业机构合作,进行高端项目研究。同时,卡内基梅隆大学还是NASA航空航天科研任务的主要承制单位之一,该校的机器人研究所从事过自动驶车、月球探测步行机器人,单轮陀螺式滚动探测机器人的研究。图片来源,CMU/机器人学家目前Rachel Burcin是卡内基梅隆大学的全球项目主管Rachel Burcin,图片来源,CMU加州大学伯克利分校加州大学伯克利分校是最负盛名的公立学校。该校的机器人和智能机器实验室,致力于用机器人复制动物的行为。它的自动化科学和工程实验室从事更广泛的机器人功能的研究,如机器人辅助外科手术和自动化制造。还有计算机可视化小组,学生可以学到如何帮助机器人能“看的见”。加州大学伯克利分校研发的一个机器人可以自己拧开瓶盖。布里斯托大学布里斯托大学智能系统实验室(Intelligent Systems Laboratory,ISL)的研究领域涵盖了机器学习,数据分析和挖掘,图像识别等多个领域,除了专精计算机科学和工程学外,布里斯托大学还非常注重计算机科学在其他领域学科中的交叉应用。去年3月,该实验室由人工智能教授尼洛·克里斯蒂亚尼(Nello Cristianni)所带领的团队在一项新的研究中首次使用算法分析了13万多篇网上有关2012年美国总统大选的媒体报道,总结出了大选年媒体的表达规律从而判断出他们对政党的态度。这是一项典型的大数据与社会学的综合研究。ISL的负责人目前是Colin Campell耶路撒冷希伯来大学以色列以科技创新闻名于世,那里的希伯来大学虽然没有专门的人工智能实验室,但在人工智能领域取得的成就却丝毫不逊于很多专门成立了实验室的学校。希伯来大学还拥有世界上第一家技术转让公司Yissum,独家负责希伯来大学发明创造的商业化应用。希伯来大学最著名的发明应该数自动驾驶系统Mobileye,它于今年被Tesla采用,视为在自动驾驶领域对抗谷歌的武器。Mobileye,图片来源,Techweb牛津大学牛津大学也没有专门的人工智能实验室,但其在深度学习方面的实力也不容小觑,14年谷歌先是收购了人工智能公司DeepMind,然后在年底展开了与牛津大学的合作,雇佣了7位深度学习领域的专家,其中3位仍然保留牛津大学教授的职称。正是这些人和DeepMind一起研制出了后来名扬天下的AlphaGo。图片来源,acznw.comDalle Molle瑞士意大利语区高等专业学院Dalle Molle人工智能研究所(意大利语Scuola universitaria professionale della Svizzera italiana - Istituto Dalle Molle di studi sull'intelligenza artificiale)是一个非营利性的人工智能研究机构,隶属于卢加诺大学信息学院,瑞士意大利语区高等专业学院信息技术部以及瑞士南方的应用科学大学。研究所致力于机器学习,包括人工神经网络和强化学习,目前,该实验室正在研制一种用于无人机搜救的人工智能系统,可以识别出复杂的从林中需要救助的对象,如迷路的人或登山队员。SCIAISCIAI全称为锡耶纳大学人工智能研究所(The Siena College Institute for Artificial Intelligence),它与布里斯托大学一样比较重视计算机科学与其它科学,如经济学、社会学、医学等领域的联合应用。并且它还比较重视有关AI的伦理问题和AI应用后对社会可能的冲击的研究。我们认为后者应该属于AI领域的基础理论研究,因此尽管其没有有名的产品和合作,我们也将其选入了进来苏黎世理工苏黎世联邦理工学院的人工智能实验室在机器视觉和深度学习、机械工程等方面有深厚的积累。培养出了无数人工智能领域的人才。国内外的许多AI公司的CTO都毕业于该校的计算机视觉领域。在其人工智能实验室成立25周年之际,苏黎世理工展示了他们建造的最新的一款人形机器人,其结构设计看起来同人类的肌肉-骨骼系统颇为相似。其分布式自动控制实验室甚至制造出过一款带有球拍的、可以用来打球的四旋翼无人机系统“Quadrators”。Quadrators,图片来源,DailyMail
作者:头条号 / 雷锋网
链接:http://toutiao.com/a6293031494186107137/
来源:头条号(今日头条旗下创作平台)
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
阅读记录:read once
posted @ 2016-06-07 09:25 杰哥 阅读(223) | 评论 (0) | 编辑 收藏
 
[zz] Ubuntu14.04安装Matlab2014a
http://www.linuxdiyf.com/linux/13853.html

1、下载Matlab:http://pan.baidu.com/s/1pJGF5ov [Matlab2014a(密码:en52)]

2、挂载iso(需新建matlab_iso文件夹):

$ sudo mount -o loop MATHWORKS_R2014A.iso ~/matlab_iso

3、开始安装:

$ cd ~/matlab_iso
$ sudo ./install

4、选择"install manually without using the internet"项进行安装

5、输入"file installation key":12345-67890-12345-67890(随便都行)

6、激活:选择”license_405329_R2014a.lic”文件进行激活(在Crack文件夹下面)

7、将libmwservices.so复制到/usr/local/MATLAB/R2014a/bin/glnxa64中:

$ sudo cp libmwservices.so /usr/local/MATLAB/R2014a/bin/glnxa64/libmwservices.so

8、创建matlab启动栏快捷方式:
打开软件中心,搜索matlab,点击install;
安装路径填入:

/usr/local/MATLAB/R2014a

用户权限不填,表示全部用户可用;gcc不填


下面是一些便捷操作:
1、改变初始目录:

$ cd /usr/local/MATLAB/R2014a/toolbox/local
$ sudo touch startup.m
$ sudo gedit startup.m
startup.m 中输入:
cd '~/workplace/matlab/'


2、创建快捷方式:

$ cd /usr/local/MATLAB/R2014a/toolbox/local
$ sudo touch ydfc.m
$ sudo gedit ydfc.m
ydfc.m 中输入:
close all; clear all; clc;
fprintf('Hello ydf...\n\n');
修改startup.m为:
cd '~/workplace/matlab/'
ydfc

即可在matlab中使用ydfc作为快捷操作


3、创建命令行模式快捷方式:

$ cd /usr/local/bin
$ touch ydfm
ydfm中输入:
#!/bin/sh
matlab -nodesktop -nosplash

即可在terminal中使用ydfm进入matlab命令行模式。


Ubuntu 14.04安装NVIDIA驱动+CUDA+MATLAB:http://www.linuxdiyf.com/linux/13011.html

Ubuntu下Matlab2010a的安装:http://www.linuxdiyf.com/linux/11067.html

Ubuntu Server上安装Matlab:http://www.linuxdiyf.com/linux/10470.html

Ubuntu下给Matlab建立快捷方式:http://www.linuxdiyf.com/linux/8549.html

卸载Ubuntu下Matlab(uninstall matlab2009 for linux):http://www.linuxdiyf.com/linux/8551.html
R
eference

http://www.linuxdiyf.com/linux/13853.html
http://blog.csdn.net/lanbing510/article/details/41698285
20160606 Chong Wang已在我的工作站Ubuntu系统安装matlab,安装在windows的目录,每次启动时要点开设备,点下我的那个目录,相当于将盘加载进来,才能使用matlab,否则不能使用。但matlab没法打开,他自己电脑的matlab也是装在windows目录,可以正常使用。我的这个问题,暂时搁置
posted @ 2016-06-06 19:09 杰哥 阅读(237) | 评论 (0) | 编辑 收藏
 
Autoencoder
Read twice http://deeplearning.stanford.edu/wiki/index.php/Autoencoders_and_Sparsity 和 http://deeplearning.stanford.edu/wiki/index.php/Visualizing_a_Trained_Autoencoder 的中文版本,understand completely
点击最下面有中文。
This is recommended by Chong Wang in iim.
posted @ 2016-06-06 17:05 杰哥 阅读(489) | 评论 (0) | 编辑 收藏
 
Whitening (WPAC)
什么是Whitening?经过Wei Wang解释清楚,见其报告"Beyond_WeiWang"第16页,就是每一维除以方差,相当于一方差。为什么说去掉二阶信息?概率论与数理统计上有“矩估计法”,一阶矩为均值,二阶矩为方差,这样所有维都是方差是一,故称去掉二阶信息。不必深究,到底为止。

http://deeplearning.stanford.edu/wiki/index.php/Whitening
点击最下面有中文,对于测试样本应该除以和训练样本一样的数值,因为测试样本可能一个一个来的,不能利用测试样本的信息。
This is recommended by Chong Wang in iim.
posted @ 2016-06-03 09:34 杰哥 阅读(186) | 评论 (0) | 编辑 收藏
 
[zz] Learnware: on the future of machine learning

Frontiers of Computer Science, 2016
DOI 10.1007/s11704-016-6906-3

PERSPECTIVE


Learnware: on the future of machine learning


Zhi-Hua ZHOU


National Key Laboratory for Novel Software Technology, Department of Computer Science &Technology, Nanjing University, Nanjing 210023, China


Current machine learning techniques have achieved great success; however, there are many deficiencies. First, to train a strong model, a large amount of training examples are required, whereas collecting the data, particularly data with labels, is expensive or even difficult in many real tasks. Second, once a model has been trained, if environment changes, which often happens in real tasks,the model can hardly perform well or even become useless. Third, the trained models are usually black-boxes, whereas people usually want to know what have been learned by the models, particularly in real tasks where decision reliability is crucial and rigorous judgments by human beings are critical.


In addition to the above deficiencies, there are several relevant issues requiring attention. First, some data have to be shared in most current machine learning studies if one hopes to pass helpful information from one task to another. The data privacy or data proprietary, however, usually disables public data sharing. Thus, it is hard for people to build their learning tasks based on the results of other people. Second, machine learning is still a kind of magic: Even with sufficient training data, most end users, except machine learning experts, can hardly produce strong models.


Considering the above issues, here we propose learnware. A learnware is a well-performed pre-trained machine learning model with a specification which explains the purpose and/or specialty of the model. The specification can be logic-based descriptions, and/or statistics that reveal the target to which the model aimed, and/or even a few simplified training samples that disclose the scenario for which the model was trained. The owner of a learnware can put it into a market, with little risk of data privacy leakage. As the comic illustrates, when a person is going to tackle a machine learning task, rather than build his model from scratch, he can do it in this way: Figure out his own requirement, and then browse/search the market, identify and take a good learnware whose specification matches his requirement. In some cases he can use the learnware directly, whereas in more cases he may need to use his own data to adapt/polish the learnware. Nevertheless, the whole process can be much less expensive and more efficient than building a model from scratch by himself.



For this purpose, a learnware should have at least three important properties: Reusable, Evolvable, and Comprehensible.


A learnware should be reusable,otherwise it can hardly be useful for other users. In particular, the pre-trained model should be able to be enhanced or adapted, by its new user through a slight modification or refinement using information, such as a small amount of training data, from the task of the new user. This process may be subtle: On one hand, one needs to avoid important learned knowledge being washed out by the refining; on the other hand, the model should have sufficient flexibility to incorporate necessary modification desired by its new user. There are some machine learning studies that can be regarded as preliminary attempt for this purpose, e.g., model adaptation [1], and transfer learning [2].


Evolvable means that the learnware should be able to get accustomed to environment change. If reusable is viewed as the learnware’s ability of passive adaptation driven by the user, evolvable can be viewed as its ability of active adaptation: The learnware should be able to perceive the environment change and do the adaptation by itself. There are at least three reasons for this need. First, the learning task of the new user is usually somewhat different from the original task for which the learnware was constructed, because one can hardly expect a learning task to exactly appear again. Second, the learnware specification and/or the user requirement can hardly be very accurate descriptions, and there may exist some gaps that the learnware must be able to get through. Third, many real environments are non-stationary and changing in nature, e.g., data distribution may change [3], new classes may occur [4,5], features may change [6], etc. These issues have also been emphasized to be tackled on the way toward robust artificial intelligence[7].


A learnware should be comprehensible; that means, the learning models need to be transparent to some extent, at least enabling the writing of specification for the learnware. For example, one needs to know what kind of target the learnware was trained for,how good the learnware performed, what specific problem structure the learnware can be applied, etc. On one hand, black-box models need to be made white; for this there are many efforts, e.g., trying to improve the comprehensibility of black-box models [8], or even produce accurate and comprehensible models [9].On the other hand, one needs to be able to write the specification that well describes a pre-trained machine learning model; unfortunately there is little study about this. Inspiration may be learned from the field of software engineering, where specification has a long history of study and application.


Note that in most cases, the end user may be unable to identify a single learnware which exactly matches his requirement; instead, he may find multiple learnwares and each meets a part. In such cases, ensemble methods [10] that combine multiple models to use may offer some solutions, just like the description of reusable ensemble [10] (pp.184) where reusable components are searched and put together, and only functional components that could not be found need to be constructed.


If learnwares come true, strong machine learning models can be achieved even for tasks with small data, because the models are built upon well-performed learnwares, and only a small amount of data are needed for adaptation or refinement. Data privacy will become a less serious issue because publicizing learnwares does not need to share the data. More importantly, it will enable common end users to attain tricky learning results that can only be attained by machine learning experts nowadays. Needless to say, a promising learnware industry will be open.

 


Acknowledgements The author wishes to thank Wang-Zhou Dai for converting a hand drawing sketch to comic, and thank LAMDA group members for helpful discussion.


References

1. Li N, Tsang I W, Zhou Z H. Efficient optimization of performance measures by classifier adaptation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1370–1382

2. Pan S J, Yang Q. A survey of transfer learning. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10): 1345–1359

3. Sugiyama M, Kawanabe M. Machine Learning in Non-Stationary Environments: Introduction to Covariate Shift Adaptation. Cambridge, MA: MIT Press, 2012

4. Da Q, Yu Y, Zhou Z H. Learning with augmented class by exploiting unlabeled data. In: Proceedings of the 28th AAAI Conference on Artificial Intelligence. 2014, 1760–1766

5. Mu X, Ting K M, Zhou Z H. Classification under streaming emerging new classes: a solution using completely random trees. CORR abs/1605.09131, 2016

6. Hou C, Zhou Z H. One-pass learning with incremental and decremental features. CORR abs/1605.09082, 2016

7. Dietterich T G. Towards robust artificial intelligence. In: Proceedings of the 30th AAAI Conference on Artificial Intelligence. 2016

8. Zhou Z H, Jiang Y, Chen S F. Extracting symbolic rules from trained neural network ensembles. AI Communications, 2003, 16(1): 3–15

9. Zhou Z H, Jiang Y. NeC4.5: Neural ensemble based C4.5. IEEE Transactions on Knowledge and Data Engineering, 2004, 16(6): 770–773

10. Zhou Z H. Ensemble Methods: Foundations and Algorithms. Boca Raton, FL: CRC Press, 2012

posted @ 2016-06-02 15:10 杰哥 阅读(409) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 3 4 5 6 7 8 9 10 11 Last