杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25667)
  • 2. arg min的含义是什么?(24468)
  • 3. latex问题集锦(19430)
  • 4. matlab命令窗口输出函数disp和display(17324)
  • 5. MATLAB字符串数组(15445)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

[zz]大牛经验分享:Quora上Y.Bengio回答调多个超参的方法
Quora上Y.Bengio回答调多个超参的方法 http://t.cn/R52UtGw 1)网格搜索法不好 2)各个超参随机独立采样,例如对数域的均匀采样;Random Search for Hyper-Parameter Optimization [Bergstra & Bengio, JMLR12] http://t.cn/zOVVuEC 3)贝叶斯优化;Algorithms for Hyper-Parameter Optimization …全文: http://m.weibo.cn/2536116592/3979821350811906…全文: http://m.weibo.cn/2536116592/3979821350811906
posted @ 2016-05-29 13:09 杰哥 阅读(253) | 评论 (0) | 编辑 收藏
 
[zz] 机器学习与数据挖掘的学习路线图
http://blog.csdn.net/baimafujinji/article/details/49891221


应部分朋友要求,特奉上“机器学习与数据挖掘的学习路线图”,供有兴趣的读者研究。

说起机器学习和数据挖掘,当然两者并不完全等同。如果想简单的理清二者的关系,不妨这样来理解,机器学习应用在数据分析领域 = 数据挖掘。同理,如果将机器学习应用在图像处理领域 = 机器视觉。当然这只是一种比较直白的理解,并不能见得绝对准确或者全面。我们权且这样处理。而且在本文后面若提到这两个名词,我们所表示的意思是一致的。

但无论是机器学习,还是数据挖掘,你一定听说过很多很多,名字叼炸天的传说中的,“算法”,比如:SVM,神经网络,Logistic回归,决策树、EM、HMM、贝叶斯网络、随机森林、LDA... ....其实还是很多很多!无论你排十大算法还是二十大算法,总感觉只触及到了冰山一角!真是学海无涯啊- -!!

当然,学习机器学习看书是必备的,总不能靠冥想吧。。。

有的书介绍机器学习,会是这样一种思路:就是单独的一个一个的算法介绍,介绍个十几个,一本书的篇幅差不多也就完了。

李航博士的那本《统计学习方法》基本属于这种套路。当然,该书在国内是备受推崇的一本。客观上讲,国人写这方面的书很少,而李博士的著作也不像其他那种大学教材一样东拼西凑,可谓良心之作。但就本书的思路来说,我认为:如果读者就单独的某一个算法想有所了解,参考该书应该会有收获。但系统化上还是优化空间的,比如从一个算法到另外一个算法,之间的联系是什么,推动算法更新和升级的需求又在哪里?

另外一种该类型的书,会把算法按照它们的实现的功能和目的,分成比如 Regression、Classification、Clustering等等等等的几类,然后各种讲可以实现聚类的算法有A、B、C,可以实现回归的有D、E、F。。。而且我们也知道,机器学习又可分为有监督、无监督以及半监督的,或者又可分为贝叶斯派和概率派两大阵营,所以按类别来介绍其中的算法也是一种很常见的思路。

这样的书代表作是Pang-Ning Tan, Michael Steinbach 和Vipin Kumar的那本《数据挖掘导论》,这样的书基本上对于构建一个大概的机器学习体系还是有裨益的。但是就初学者而言,其实这个体系还可以再优化。这也是我根据个人的一些经验想向各位介绍的一个基本的学习路线图,在我看来知识应该是有联系的,而不是孤立的, 找到这种内部隐藏的线索就如同获得了阿里巴巴的口诀,才能开启更大的宝藏。

当然,正式学习之前,你所需要的预备知识(主要是数学)应该包括:微积分(偏导数、梯度等等)、概率论与数理统计(例如极大似然估计、中央极限定理、大数法则等等)、最优化方法(比如梯度下降、牛顿-拉普什方法、变分法(欧拉-拉格朗日方程)、凸优化等等)——如果你对其中的某些名词感到陌生,那么就说明你尚不具备深入开展数据挖掘算法学习的能力。你会发现到处都是门槛,很难继续进行下去。

第一条线路:

(基于普通最小二乘法的)简单线性回归 -> 线性回归中的新进展(岭回归和LASSO回归)->(此处可以插入Bagging和AdaBoost的内容)-> Logistic回归 ->支持向量机(SVM)->感知机学习 -> 神经网络(初学者可先主要关注BP算法)-> 深度学习

之所以把它们归为一条线路,因为所有这些算法都是围绕着 y = Σxiβi,这样一条简单的公式展开的,如果你抓住这条线索,不断探索下去,就算是抓住它们之间的绳索了。其中蓝色部分主要是回归,绿色部分主要是有监督的分类学习法。

基于普通最小二乘的线性回归是统计中一种有着非常悠久历史的方法,它的使用甚至可以追溯到高斯的时代。但是它对数据有诸多要求,例如特征之间不能有多重共线性,而且岭回归和LASSO就是对这些问题的修正。

当沿着第一条路线学完的时候,其实你已经攻克机器学习的半壁江山了!当然,在这个过程中,你一定时刻问问自己后一个算法与前一个的联系在哪里?最初,人们从哪里出发,才会如此设计出它们的。

第二条路线:

K-means  -> EM  -> 朴素贝叶斯 -> 贝叶斯网络 -> 隐马尔科夫模型(基本模型,前向算法,维特比算法,前向-后向算法) (->卡尔曼滤波)

这条线路所涉及的基本都是那些各种画来画去的图模型,一个学术名词是 PGM 。这条线的思路和第一条是截然不同的!贝叶斯网络、HMM(隐马尔科夫模型),也就是绿色字体的部分是这个线路中的核心内容。而蓝色部分是为绿色内容做准备的部分。K-means 和 EM 具有与生俱来的联系,认识到这一点才能说明你真正读懂了它们。而EM算法要在HMM的模型训练中用到,所以你要先学EM才能深入学习HMM。所以尽管在EM中看不到那种画来画去的图模型,但我还把它放在了这条线路中,这也就是原因所在。朴素贝叶斯里面的很多内容在,贝叶斯网络和HMM里都会用到,类似贝叶斯定理,先验和后验概率,边缘分布等等(主要是概念性的)。最后,卡尔曼滤波可以作为HMM的一直深入或者后续扩展。尽管很多machine learning的书里没把它看做是一种机器学习算法(或许那些作者认为它应该是信号处理中的内容),但是它也确实可以被看成是一种机器学习技术。而且参考文献[4]中,作者也深刻地揭示了它与HMM之间的紧密联系,所以红色的部分可以作为HMM的后续扩展延伸内容。


应用层面,R、MATLAB和Python都是做数据挖掘的利器,另外一个基于JAVA的免费数据挖掘工具是Weka,这个就只要点点鼠标,甚至不用编代码了。给一个软件界面的截图如下



可以参阅的书籍:

中文版(含翻译版)

1. 李航,统计学习方法

2. Pang-Ning Tan, Michael Steinbach  , Vipin Kumar, 数据挖掘导论

3. Peter Harrington 机器学习实践

英文版

4. Stuart Russell,  Peter Norvig, Artificial Intelligence : A Modern Approach(Third Edition)

5. Trevor Hastie, Robert Tibshirani,Jerome Friedman, The Elements of Statistical Learning:Data Mining, Inference, and Prediction

阅读记录:read twice
posted @ 2016-05-26 18:13 杰哥 阅读(164) | 评论 (0) | 编辑 收藏
 
What is the difference between weakly supervised learning and semi-supervised learning?
 通常弱监督和半监督都是对于两种label而言的 如果只有一种label 不存在弱监督的概念。比如物体检测 label是类别和位置 如果只给定类别不给定位置 相当于只用了偏弱的label 叫做弱监督。如果类别和位置都只用了部分样本 叫做半监督。如果label只有一种 比如物体分类 没有弱监督的概念 当只用部分样本时 叫做半监督问题。This is with Chong Wang's help and verified by Jingyu Liu.
posted @ 2016-05-25 23:07 杰哥 阅读(529) | 评论 (0) | 编辑 收藏
 
[zz]周志华:机器学习的两大派别
http://mp.weixin.qq.com/s?__biz=MzA4MTA5MjE5Mw==&mid=2651787969&idx=1&sn=68c1b0958b6a0c1c70d7543c0970ad50&scene=1&srcid=0519zoXZYKHoRqDA4qivrJDe#wechat_redirect

小编:近日邀请周志华老师为 52cs.org 写点小文章,特别想让他给机器学习降降温,让大家更客观更全面地选择自己的研究方向。周老师推荐了自己以前写的这篇文章给我,放在当下读这篇文章,一点不过时,希望对大家有所启迪。

机器学习现在是一大热门,研究的人特多,越来越多的新人涌进来。

不少人其实并没有真正想过,这是不是自己喜欢搞的东西,只不过看见别人都在搞,觉着跟大伙儿走总不会吃亏吧。

问题是,真有个“大伙儿”吗?就不会是“两伙儿”、“三伙儿”?如果有“几伙儿”,那到底该跟着“哪伙儿”走呢?

很多人可能没有意识到,所谓的machine learning community,现在至少包含了两个有着完全不同的文化、完全不同的价值观的群体,称为machine learning "communities"也许更合适一些。

第一个community,是把机器学习看作人工智能分支的一个群体,这群人的主体是计算机科学家。

现在的“机器学习研究者”可能很少有人读过1983年出的“Machine Learning: An Artificial Intelligence Approach”这本书。这本书的出版标志着机器学习成为人工智能中一个独立的领域。它其实是一部集早期机器学习研究之大成的文集,收罗了若干先贤(例 如Herbert Simon,那位把诺贝尔奖、图灵奖以及各种各样和他相关的奖几乎拿遍了的科学天才)的大作,主编是Ryszard S. Michalski(此君已去世多年了,他可算是机器学习的奠基人之一)、Jaime G. Carbonell(此君曾是Springer的LNAI的总编)、Tom Mitchell(此君是CMU机器学习系首任系主任、著名教材的作者,机器学习界没人不知道他吧)。Machine Learning杂志的创刊,正是这群人努力的结果。这本书值得一读。虽然技术手段早就日新月异了,但有一些深刻的思想现在并没有过时。各个学科领域总有 不少东西,换了新装之后又粉墨登场,现在热火朝天的transfer learning,其实就是learning by analogy的升级版。

人工智能的研究从以“推理”为重点到以“知识”为重点,再到以“学习”为重点,是有一条自然、清晰的脉络。人工智能出身的机器学习研究者,绝大部分 是把机器学习作为实现人工智能的一个途径,正如1983年的书名那样。他们关注的是人工智能中的问题,希望以机器学习为手段,但具体采用什么样的学习手 段,是基于统计的、代数的、还是逻辑的、几何的,他们并不care。

这群人可能对统计学习目前dominating的地位未必满意。靠统计学习是不可能解决人工智能中大部分问题的,如果统计学习压制了对其他手段的研 究,可能不是好事。这群人往往也不care在文章里show自己的数学水平,甚至可能是以简化表达自己的思想为荣。人工智能问题不是数学问题,甚至未必是 依靠数学能够解决的问题。人工智能中许多事情的难处,往往在于我们不知道困难的本质在哪里,不知道“问题”在哪里。一旦“问题”清楚了,解决起来可能并不 困难。

第二个community,是把机器学习看作“应用统计学”的一个群体,这群人的主体是统计学家。

和纯数学相比,统计学不太“干净”,不少数学家甚至拒绝承认统计学是数学。但如果和人工智能相比,统计学就太干净了,统计学研究的问题是清楚的,不象人工智能那样,连问题到底在哪里都不知道。在相当长时间里,统计学家和机器学习一直保持着距离。

慢慢地,不少统计学家逐渐意识到,统计学本来就该面向应用,而机器学习天生就是一个很好的切入点。因为机器学习虽然用到各种各样的数学,但要分析大 量数据中蕴涵的规律,统计学是必不可少的。统计学出身的机器学习研究者,绝大部分是把机器学习当作应用统计学。他们关注的是如何把统计学中的理论和方法变 成可以在计算机上有效实现的算法,至于这样的算法对人工智能中的什么问题有用,他们并不care。

这群人可能对人工智能毫无兴趣,在他们眼中,机器学习就是统计学习,是统计学比较偏向应用的一个分支,充其量是统计学与计算机科学的交叉。这群人对统计学习之外的学习手段往往是排斥的,这很自然,基于代数的、逻辑的、几何的学习,很难纳入统计学的范畴。

两个群体的文化和价值观完全不同。第一个群体认为好的工作,第二个群体可能觉得没有技术含量,但第一个群体可能恰恰认为,简单的才好,正因为很好地 抓住了问题本质,所以问题变得容易解决。第二个群体欣赏的工作,第一个群体可能觉得是故弄玄虚,看不出他想解决什么人工智能问题,根本就不是在搞人工智 能、搞计算机,但别人本来也没说自己是在“搞人工智能”、“搞计算机”,本来就不是在为人工智能做研究。

两个群体各有其存在的意义,应该宽容一点,不需要去互较什么短长。但是既然顶着Machine Learning这个帽子的不是“一伙儿”,而是“两伙儿”,那么要“跟进”的新人就要谨慎了,先搞清楚自己更喜欢“哪伙儿”。

引两位著名学者的话结尾,一位是人工智能大奖得主、一位是统计学习大家,名字我不说了,省得惹麻烦:

“I do not come to AI to do statistics”

“I do not have interest in AI”

阅读记录:read twice
posted @ 2016-05-21 18:09 杰哥 阅读(275) | 评论 (0) | 编辑 收藏
 
B2B、B2C、C2C、O2O、P2P分别是什么意思?
B=Business,即企业;C=Customers,即消费者
O2O即Online To Offline(在线离线/线上到线下)
P2P是英文person-to-person的缩写,意即个人对个人。

reference
http://zhidao.baidu.com/link?url=4UA9Zw7cxtqzoYcbRKnGgSNUssxeH5Z7H2gjJJYPsX44D2SDW8TtQO_nGHww0CGqU4LqR1_JLE1HWtmv2k2RTMfZIq8J_VJLcDFxo1Yj_o7
http://baike.baidu.com/link?url=ueBKPEiWOIanWnH1Vbe4drwxy_Rob3gcwPNEs_BJakTUdvwoYGF7VYqnJmmBfc-9WN4RfvfWM7ng3WR6nkApy_
http://baike.baidu.com/link?url=dV3StmbuNcIv1on7R6y4TmrKu3ortjLZkB5urlC1DbIDR3fh3u3UeqWh5O2PfFUTTxvCkCPnT0qrvBaXMy8ASq
posted @ 2016-05-19 12:57 杰哥 阅读(344) | 评论 (0) | 编辑 收藏
 
对话科大副教授韩春雨:“我很享受搞科研的过程”
http://he.xinhuanet.com/jujiao/20160513/3133419_m.html?r=7ydqE1Ou3nLsaEko7JyFGPcM1zqnhzaum8k1kbMLOdbvt&from=timeline&isappinstalled=0

摘要

由韩春雨及其团队发现的NgAgo技术,有望成为新一代“基因剪刀”。世界级的科学发现,“非知名学者”的身份,让韩春雨不仅在学术界“一鸣惊人”,更引发了媒体和大众的关注。

5月2日,世界顶级学术刊物《自然·生物技术》刊发河北科技大学生物科学与工程学院副教授韩春雨题为《NgAgo DNA单链引导的基因编辑工具》的论文。由韩春雨及其团队发现的NgAgo技术,有望成为新一代“基因剪刀”。世界级的科学发现,“非知名学者”的身份,让韩春雨不仅在学术界“一鸣惊人”,更引发了媒体和大众的关注。

5月11日,记者来到韩春雨的实验室。

笑时弯弯的眼睛里闪过一丝“狡黠”,韩春雨向记者做自我介绍时,喜欢套用周星驰电影《喜剧之王》中的经典台词“其实,我是一个演员”介绍自己:“其实,我是一名科学家。”

“我非常想和您资源共享,但现在实验室只有4个人,实在忙不过来。”

“每天都有一百多封邮件,抱歉无法及时给您回复。”

“合作的事情我们暂时不考虑,如果需要实验样本您可以来实验室拿。”

……

个子不高、圆寸发型、运动装,河北科技大学分子药物学研究室外走廊里,42岁的韩春雨边走边接电话,一个电话刚挂,下一个铃声又起。

5月11日晚7时,天色渐暗,但实验室里扎堆前来采访的记者还未散去。两名北京大学的博士也在等待,希望能拿到一些实验样本。

空气浴振荡器和离心机像平时一样传出低频噪音,但它们似乎不再是这间实验室的“主旋律”。

这座省部共建国家重点实验室大楼门厅里的成果展示栏里,还未来得及添上基因编辑技术相关内容,但韩春雨和他的NgAgo,已名声在外。

一切似乎来得太快。

“我是不是成‘网红’了?”

新闻纵深:什么时候感觉到,自己“红”了?

韩春雨:5月2日论文刊发几小时后,学术圈里的朋友就开始有打电话祝贺的。和我做同领域研究的上海科技大学黄行许教授,第二天就派了手下得力干将从上海坐飞机过来。一是祝贺,二是交流。在论文刊发后,MIT(麻省理工学院)的BBS上就开始有人讨论这个话题,引发了业内更广泛的关注。《生物通》等国内专业领域网站也开始陆续报道。

在学术圈里火了是有心理准备的。但到了5月8日,微信公众号“知识分子”采访和报道后,论文内容才被许多大众媒体关注,开始在网上广泛传播。

说实话,真的是很意外。我对学生们开玩笑说,我是不是成“网红”了?

新闻纵深:很多“圈外人”可能并不了解您的专业,您怎么看待大众对这一前沿科技成果的关注?

韩春雨:中国经济的发展正在由“制造”走向“创造”,高科技在中国的应用越来越广泛,大数据、人工智能等前沿技术都开始步入大众生活。大众对我的研究关注,其实是对科学的关注和追捧。以一个科学工作者的身份来看,这有利于科学知识的普及,当然是好事。

新闻纵深:享受这种“网红”的新身份吗?

韩春雨:那倒没有,当“网红”太累了。如果既能当“网红”,又不受打扰就好了。我的身份只有一个,照周星驰的话来说,其实,我是一名科学家。(笑)

新闻纵深:同行都来取经或索取样本,这会是负担吗?

韩春雨:索要这套技术系统的来电和邮件接连不断。在科学圈里大家都很友善,我当然也不会吝啬分享。但实验室人手太少是实际情况,我们正在加紧向Addgene(一个非营利性分子生物学科研工具平台)上传相关研究数据。不过这个过程需要时间,许多研究者等不及直接登门造访,我们也不会拒绝。

“这里就是我的MIT”

新闻纵深:许多人对“非知名学者”做出世界级成果感到惊讶。

韩春雨:我并非一些媒体所说的“野鸡大学”里的“草根学者”。读博士时,我师从中国科学院院士强伯勤,接触到当时如火如荼的人类基因组计划,这是当时世界科研的最前沿。我的博士毕业论文发表在《核酸研究》期刊上,今天来看也仍具水准。河北科技大学的实验室条件虽然不是顶尖的,但可以满足研究工作需要。

新闻纵深:大家注意到你没有海外教育的经历,这是个短板吗?

韩春雨:我背后这台电脑很方便接入互联网,有网络,世界就是平的。信息扁平化给了研究者更多机会,只要你努力,只要你善于思考,你就可能成为成功的科学家。

从这个角度而言,坐在这间实验室里和坐在MIT的实验室里没什么本质区别。你只要能把自己培养成MIT水准,你所在的地方就是“MIT”。所以我并不觉得留学经历是搞科研的必备条件。

新闻纵深:成果这么轰动,“慕名而来”的不少吧?

韩春雨:确实有。美国、瑞典、法国、韩国,一天能收到上百封来自全球的邮件,谈学术或谈合作。中日韩三国基因大会已邀请我去参加学术会议。也的确有一些机构来“挖角”。

新闻纵深:会另择高枝吗?

韩春雨:我不会离开河北科技大学,这里的环境很好。

新闻纵深:您所指的“好”有哪些呢?

韩春雨:河北科技大学给了我相当宽松的科研环境,给了我极大的学术自由度。实际上,在博士毕业论文发表后的十年里,我没有发表任何重要论文。

如果是在某些院校,可能没几年就被扫地出门了。河北科技大学则给了我潜下心来想自己事儿的机会。科研在这里也有退路:成果没出来时,还可以当一个好的授课老师。这里就是我的“MIT”。

新闻纵深:我们看到您的实验室条件有限。

韩春雨:我来到河北科技大学的时候,副教授职称都还没评下来。在大部分高校,一个副教授很难拥有自己的独立实验室。这里不仅给了我实验室,还提供了25万元的学科建设资金。在我决定在Ago上“搏一把”的时候,又提供了另一笔科研经费。加上我申请到的国家自然科学基金、国家科技重大专项等,有约40万元可供自由支配的资金,可以满足实验室日常运转。

“我坚信自己想找的东西一定存在”

新闻纵深:有没有“成功秘诀”这回事?

韩春雨:要原创,不跟随。在发表这篇论文前,我一直全情投入,跟踪基因编辑的主流技术——CRISPR/Cas9的进展。我们曾使用这一技术变异了一些植物。但在准备将这一过程梳理成型时,国外顶级学术杂志连续推出了两篇同类论文,让我们原有的计划彻底作废。

接下来的一段时间,我们又当过一次跟随者,我们希望通过自己更精巧的设计改进CRISPR技术。但在此过程中,又是一位基因编辑领域的先驱科学家发表了一篇论文,列出几十种技术改进的可能性,其中就包括我们当时的想法。

花了这么多钱,每天干到凌晨两三点,再度失败非常令人沮丧。我们下定决心,一定要原创,不能再跟随。

新闻纵深:如何找到原创点?

韩春雨:机会总是给有准备的人。就像两方打仗,谁也不敢贸然动手,这时突然发现对方的一个弱点,你去攻,就能赢。2014年2月,一篇关于TtAgo的文章给了我机会,当时一些研究者据此实验但接连失败。

在下功夫多看了很多文章后,我猜测温度可能是一个被人忽视的敏感因素,于是我把高温菌排除,只留下常温菌。虽然初期也受挫,但我坚信自己想找的东西一定存在。果然,两个月后,它出现了。

新闻纵深:科学的直觉?

韩春雨:应该说是科学的哲学引领了我。别人发表的文章,不仅有知识、实验的条件,更有聪明的“思维”和聪明的“哲学”。我喜欢学习这些文章中的聪明之处,所有科学实践都应该有理论指导,才能知行合一。这是科研最大的乐趣,也是我最终完成“一个科学家自我修养”的原因。

新闻纵深:还记得成功的那一天吗?

韩春雨:2014年5月,我们就做出了主结果。我们用了非常正确的策略。我们预测,我们设计,我们验证。最终,我们发现了Ago可以切割基因组。

我信奉一句话——临事而惧、好谋而成。那一刻,我觉得,我终于从一个科技工作者变成了科学家。回家时是凌晨两点多,校门都锁了,我跳墙头出去的,跳得特轻松。

“科学家是一种生活方式”

新闻纵深:公众眼中的科学家似乎缺少世俗生活,您呢?

韩春雨:我喜欢的事多着呢。比如收藏紫砂壶,我最贵重的藏品价值6000块钱。我也喜欢古琴,心里烦的时候,抚上一曲,就能平静下来。

新闻纵深:也经常刷微信朋友圈吗?

韩春雨:基本不会,三个月前我才第一次注册了QQ和微信,这也是为了论文刊发前的沟通需要。此前我没有QQ、微信,也没有微博。联系我基本靠喊。(笑)

新闻纵深:房、车、薪水,是您会考虑的问题吗?

韩春雨:我2008年就有了车,一辆富康。学校分配给我130平方米的房子,但离学校远,不方便干活。最后我选了离实验室走路5分钟不到的一套58平方米的房子,58平方米是使用面积,住起来并不小,外面建筑面积90平方米的商品房可能也就这么大。一个月几千块薪水,够用。

新闻纵深:有人为了项目经费“报账”发愁,您怎么看?

韩春雨:我没有遇到这个问题。实验室经费刚够花,这次因为论文审查周期拖了几个月,把我们实验室经费“拖光”了,我还赊来40万元左右的实验材料。经费是为了搞科研申请的,空手套白狼不行,这是知识分子的本分。

新闻纵深:有人认为地方大学应该去做应用型研究,基础研究更应该靠“国家队”,您怎么看?

韩春雨:显然,我持坚决反对态度。

新闻纵深:接下来仍是一段“科学苦旅”吗?

韩春雨:不会。我很有成就感。实际上,我做科研的过程一点都不“苦逼”,我很享受搞科研的过程。

虽然会遇到失败,但我充满了斗志,在实验室里,我觉得自己是打不倒的人。更重要的是,这是一种生活方式。比成功更重要的是拥有自己热爱的生活方式。科学家就是一种生活方式,而不是外在头衔。

拿我来说,3年前这样,现在这样,以后还是这样。

原始创新需要 更多“小作坊”

记者手记

在许多人眼里,韩春雨的成功,是个“计划外”。

有些杂乱的试剂架上,一些饮料瓶子混杂其间:一个饮料瓶上贴着块白胶布,写着“银染固定液”,另一个可乐瓶上贴的则是“PBS”。

这间让韩春雨觉得“够用”的实验室,看起来更像一个“小作坊”,很难提振外行人对它的信心。

实验楼里的“主要研究方向”和“重要课题”展示栏里,难觅基因编辑的字样。展示栏里韩春雨所承担的两个主要科研项目,似乎也与如今横空出世的惊人发现关系不大。

也正因如此,“计划外”蹦出来的NgAgo和韩春雨,让人措手不及地“吓了一跳”。

当然,错愕之后,不仅学术界兴奋,闻“诺奖级突破”名声而来的“圈外”喝彩和掌声也不绝于耳。十年不发论文甘坐冷板凳的韩春雨,和看似“小作坊”一样的实验室,一时朝圣者众。

但更应该被关注的是,韩春雨是不是偶然和个例?在同样条件的实验室和工作岗位上,韩春雨式的成功能否被再次乃至不断复制?

与屠呦呦式举国体制下的科研重大突破不同,韩春雨的成功来自“小作坊”的“小兵团”作战。

以重大科技专项为代表的举国体制,所体现的集中力量办大事的优势不言而喻。从“两弹一星”到航空航天,“大计划”帮助我们快速从落后者成为同行者,再一路跻身领先者。这一模式的成功,往往是循着“目标明确,跟随超越”的路径。

而韩春雨的创新路径则不同。

中科院院士邵峰在微信公众号“知识分子”发表署名文章认为,NgAgo这种“小作坊”模式,特别适合探索性研究——你不确切知道要做出什么样的研究成果,也不知道到底能不能做成,这反而更容易激发人的创造力,绝大部分诺贝尔奖成果也都是诞生于这样的“小作坊”和单个实验室研究。

个人的创新欲望是“小作坊”模式成功的原动力,韩春雨称其为“科学家生活方式”。创新能力已大幅提升的中国,迫切需要创新由“跟随”转向“原创”,迫切需要更多韩春雨的出现和闪光。

但和“大计划”相比,“小作坊”仍缺少制度性关爱。论文考核、职称评判仍是许多高校院所“习惯性”衡量人才创新能力的方式。功利化的鲜花掌声难以温暖冷板凳上的坚守者。

倘若不是河北科技大学用才有方,韩春雨会不会如自己所言,因十年无论文业绩,在“学术GDP”考核中被扫地出门?

倘若不是韩春雨坚守“科学家生活方式”,世俗化者会不会“因斗米折腰”,在为“经费、职称、文章”而努力中迷失方向?

作为新创新模式的样板,从“小作坊”和“冷板凳”上生长出来的NgAgo,是答案,也是叩问。

文/本报记者 郭 伟
阅读记录:read twice

posted @ 2016-05-16 12:05 杰哥 阅读(242) | 评论 (0) | 编辑 收藏
 
Excel
excel表格填入身份证最后四位变成0怎么处理?
选中单元格,右键->设置单元格格式->数字->文本即可。(With Xikai Xu's help.)

excel中怎样制作下拉菜单 http://jingyan.baidu.com/article/3a2f7c2e554d6926aed61167.html?qq-pf-to=pcqq.c2c
Excel设置可多选下拉菜单
http://wenku.baidu.com/link?url=ARHr9DKQWJSLS2iBsEKGPJNNhRcyNgr6ojqPj8v7vLpZwmy9_rX5XDYrOBXw-uAn7OkVLFZW4DKZRw8j68PcNAglR-UvPP2P9Z8T89mqWIa&qq-pf-to=pcqq.c2c
posted @ 2016-05-06 09:59 杰哥 阅读(267) | 评论 (0) | 编辑 收藏
 
Endnote
在谷歌学术,搜索文章,点击"导入EndNote",出现迅雷下载链接,但又下载不下来,怎么解决?
迅雷->系统设置->高级设置->监视设置->监视浏览器 关闭即可。This is with Zun Wu's help.问他怎么知道的,他说上网搜。
posted @ 2016-04-21 18:06 杰哥 阅读(291) | 评论 (0) | 编辑 收藏
 
360wifi2怎么当做无线网卡使用?
http://zhidao.baidu.com/link?url=1RxcBggSFR9CpuvFTZCHhl1HkIv3L4LYaNgGHRnYkxWnR7AFud0Bg4YvRcGTe_ibG4vTPs_gpXfiTZFZSUPzyiNfJFP3OsBIZvwfP0HD_mC&qq-pf-to=pcqq.c2c

这个功能可以实现,方法步骤如下:

1、首先将360随身WIFI2代插入USB接口。

2、一般会自动安装驱动,但是如果没有安装驱动的话,可在360随身WIFI官网下载驱动安装。(http://wifi.360.cn/)

3、找到360随身WIFI的图标。并且右键点击。

4、选择“切换为无线网卡模式”,弹窗选择“切换为无线网卡”

5、现在就可以搜索WIFI,并连接上网。

posted @ 2016-03-16 15:29 杰哥 阅读(425) | 评论 (0) | 编辑 收藏
 
机器学习简史——经理人必读

http://www.almosthuman.cn/2016/02/29/p4lh1/
「机器人会梦见电子羊吗?」仍不失为一个好问题(译者注:《机器人会梦见电子羊吗?》(Do Androids Dream of Electric Sheep)为菲利普·迪克所著科幻小说,电影《银翼杀手》根据该小说改编而成),但是科学事实已经发展到开始与科幻小说相吻合的程度了。不,我们(目前)还没有造出挣扎于生存危机的自主机器人,但是我们距离人们所谓的「人工智能」确实越来越近了。机器学习是人工智能的一个分支,它的算法能够从数据和信息中进行自主学习。在机器学习中,计算机不需要被精确地编程,却可以不断改进自身的算法。

如今,机器学习算法让计算机能够和人类交流、自动驾驶汽车、写作并发表体育赛事报道以及搜寻恐怖分子嫌疑人。作者坚信机器学习将会深刻地影响绝大多数的行业及其就业情况,因此,每个经理人都应该对机器学习的概念及发展有一定程度的了解。这篇文章,作者将快速地回顾历史,以考察机器学习的源起及其最新突破。

turing test1950——阿兰·图灵创造了「图灵测试」来检验计算机是否具有真正的智能。计算机必须在测试中让一个人类相信它也是人类,才算是通过图灵测试。

1952——Arthur Samuel写出了第一个计算机学习程序,该程序用于国际跳棋比赛。IBM的计算机通过不断对局,学习哪些招式有助于赢得对局,并将这些招式纳入自己的程序中。

1957——Frank Rosenblatt设计出了第一个计算机神经网络——感知机(the perceptron),它模拟了人脑的运作方式。

42
最邻近算法

1967——「最近邻」算法(The nearest neighbor algorithm)出现,由此计算机可以进行简单的模式识别。它可以帮助旅行商制定旅游路线图,,即保证旅行商从任意城市出发,以最短的总路程遍历所有城市。

43
斯坦福车

1979——斯坦福大学的学生研发了「斯坦福车」(Standford Cart),它可以自动定位房间中的障碍物。

1981——Gerald Dejong提出了基于解释的学习(Explanation Based Learning,EBL)这一概念——通过分析数据并舍弃次要信息,计算机能够创造出一套它可以理解的规则。

1990年代——机器学习的方法从知识驱动转为数据驱动。科学家们开始研发能够让计算机通过分析海量数据,并从结果进行总结(「学习」)的程序。

441997——IBM的「深蓝」(Deep Blue)打败了国际象棋的世界冠军。

45
Geoffrey Hinton

2006——Geoffrey Hinton正式提出了「深度学习」的概念,它解释了那些能够让计算机「看见」并且区分图像和视频中的物体及文字的算法。

46
微软/Kinect

2010——微软的体感设备Kinect能以每秒30次的速度捕捉人类的20个特征,让人类得以通过动作和手势与计算机进行交流。

47
IBM Watson

2011——IBM的Watson在Jeopardy游戏中击败人类对手。

48
Google Brain

2011——谷歌大脑(Google Brain)项目启动,它的深层神经网络可以像猫一样识别并分类物体。

49
Google X 实验室

2012——谷歌的X实验室研发了能够自动浏览YouTube视频并识别出包含猫的部分的机器学习算法。

50
DeepFace

2014——Facebook研发了DeepFace,这个软件算法可以识别或者核实照片中的人物,它的水平已经达到和人类一致。

2015——亚马逊发布了自己的机器学习平台。

2015——微软创建了分布式机器学习工具包,它让机器学习问题能够在多台电脑间有效配置。

2015——超过3000名人工智能及机器人学研究者,受到史蒂芬·霍金、伊隆·马斯克及史蒂夫·沃兹尼亚克等许多人物的公开支持,签署了一份公开信,警告那些能在没有人类干预下锁定目标的自动化武器的危害。

512016——谷歌的人工智能算法打败了围棋专业选手。围棋这一中国的棋盘游戏被认为是世界上最复杂的游戏,比国际象棋难出许多倍。谷歌DeepMind 团队的AlphaGo算法在5局对弈中均取得胜利。

于是,我们正在向人工智能靠近吗?一些科学家认为这个问题本身就是错误的。他们认为计算机永远不会像人类那样「思考」,把计算机的计量分析和算法与人脑运作机制进行比较就像是拿苹果和橙子对比。

无论如何,计算机进行看、理解以及与世界交互的能力正飞速发展。而且随着我们所产生的数据量以指数倍增长,我们的计算机处理、分析——以及学习这些数据的能力也随之突飞猛进。

本文选自forbes,作者:Bernard Marr ,机器之心编译出品,编译:张诗玥
阅读记录:read twice

posted @ 2016-03-06 09:18 杰哥 阅读(178) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 4 5 6 7 8 9 10 11 12 Last