杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25667)
  • 2. arg min的含义是什么?(24468)
  • 3. latex问题集锦(19430)
  • 4. matlab命令窗口输出函数disp和display(17324)
  • 5. MATLAB字符串数组(15445)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

中央采购网买移动硬盘
网址:www.zycg.gov.cn(“中央采购”每个字的首字母即zycg),右侧快速通道有 信息类产品协议供货,点击进入,出现“信息类产品协议供货流程图”,点击“采购人网上查询商品”,选择“移动硬盘”,选择品牌,比如“  Seagate(希捷)”,选中喜欢的产品,只有登录才能查看价格,随便哪个供货商都可以
posted @ 2011-09-16 19:34 杰哥 阅读(464) | 评论 (0) | 编辑 收藏
 
邮寄一份文件到上海最快的方式
应该顺风快递比EMS稍快些,如何查找顺风快递的联系方式,百度搜索“合肥顺风快递”就能搜索到
posted @ 2011-09-13 16:17 杰哥 阅读(479) | 评论 (0) | 编辑 收藏
 
如果选购thinkpad
邻居rong zhu让我帮他买笔记本,6000左右,jia师兄建议买thinkpad edge系列,师弟xiaoming就是买的thinkpad edge(thinkpad e),到联想官网可以看到thinkpad e的所有型号,师弟讲看价格相对权威的是京东商城。搜索:thinkpad e,点击左侧的“笔记本”,价格5000-5999之间,尺寸14英寸,独立显卡
到时策略:到老家商店购买指定品牌,谈到和京东价格差不多即可
posted @ 2011-08-24 09:29 杰哥 阅读(499) | 评论 (0) | 编辑 收藏
 
除research想读的书(持续更新)和已读的书列表
形成习惯,每天晚饭后,下面的书读十分钟或书法,然后十分钟crazy English。
已读的书
:围城、挪威的森林;
除research想读的书(持续更新):明朝那些事(只读朱元璋、朱棣和朱由检三位)、中国皇帝大转、游子吟。
posted @ 2011-07-25 19:31 杰哥 阅读(204) | 评论 (0) | 编辑 收藏
 
[转贴]Google被封、gmail.com邮箱、gmail登录不了的办法

文/朱翊


   因为伟大的GFW和强悍无比的大棒政策,央视曝光谷歌中国提供低俗信息、谷歌公司不按照中国本地法律提供产品等等问题导致了Gmail的不稳定因素,因 此这些日子里Gmail邮箱的登录问题成了最近大家关心的焦点。无论是商业上的用户还是一般的普通用户,因为某些原因不能使用Gmail确实是一件相当恼 火的事情,面对于隔断在墙外的Gmail,要怎样才能实现顺利登陆呢?朱翊在网络上找到了一些办法,这里和大家一起分享,但需要说明的是,这些办法朱翊均 没有试过,所以请大家斟酌再三。


  说明:这些办法均转自“失落世界”,非我原创,并且为了保证版权问题,朱翊将采取全面复制粘贴的方法,若原作者不愿意的话,那么请留言告知朱翊,朱翊马上删除。下面是朱翊为大家寻找到的Gmail邮箱登陆解决方法:


------------原文分界线----------------

昨晚九点半左右开始,包括Google.com在内的绝大多数Google国际网站,例如Google.com、Gmail、Picasa、 Google Reader、Google Docs等,在国内无法正常访问,中国用户无法使用包括Gmail、谷歌阅读器等在内的多项Google服务。

据分析,这次 封锁Google的方式并不新鲜,是采用域名劫持(DNS劫持)的方法,通过技术手段,将Google的各类境外域名解析到一个错误的地址,使得 Google.com无法访问。前段时间,中央电视台曾经在多个栏目中指责Google,并要求其关闭境外网站搜索功能。


既然是域名劫持,那么解决方法也能简单。既然你不让我解析正确,那么我把Google域名的IP直接解析,跳过被劫持的DNS解析这个步骤,即可正常访问Google.com及Gmail。


你只需在你电脑C:WINDOWSsystem32driversetc里面打开hosts文件,另起一行加上

208.67.219.231 www.google.com74.125.91.83mail.google.com74.125.91.18 www.gmail.com74.125.91.99 www.picasa.com74.125.91.103 picasa.google.com

如果遇到不能修改就取消只读属性,经过这个步骤,所有Google服务均可访问。


Google被封的另一种解决办法:

这次Google被封是因为域名劫持,解决办法就是绕过默认域名解析服务器,直接修改hosts文件是一种方法,不过这种方法前提是必须知道对应的IP地址,有用Google服务众多,对应的服务器IP也众多,所以这种方法有一定的局限性。

下面是另一种解决方法,利用OpenDNS,OpenDNS提供免费DNS服务,口号是更安全、更快速、更智能。

具体方法如下:


对于宽带拨号用户来说


控制面板-网络和共享中心-网络连接,找到宽带上网的连接,右键打开属性面板。


Google被封解决办法


切换到“网络”,选择Interner协议(TCP/IP)、vista的话就选择版本4那个,再点击下面的属性或双击。


Google被封解决办法


不要选择自动获取DNS,而要选择“使用下面的DNS服务器地址”,首选DNS服务器和备用DNS服务器分别设置为208.67.222.222和208.67.220.220,


Google被封解决办法


完成后重新连接上网。

对于局域网用户,就是设置网上邻居中的本地连接了,设置方法和上面的差不多。大家寻找到的解决Gmail邮箱登陆问题的答案,但朱翊本人并没有尝试过,因 此希望大家在尝试之前,多多备份好自己的资料,同时也因为方法来源于网络,所以请大家备份上自己的数据,以免发生什么不可预测性的结果,朱翊仅为转载,不 承担任何后果。(朱翊/文)
posted @ 2011-06-29 20:19 杰哥 阅读(25667) | 评论 (3) | 编辑 收藏
 
[求助]有关AR人脸数据库
      AR人脸数据经常用到的是其中的一个子集共100个人,50男50女。从Aleix M Martinez的主页上(http://www2.ece.ohio-state.edu/~aleix/ARdatabase.html)下载的AR_warp_zip.zip是100个人,但每个人脸是165*120像素,我需要的是576*768像素的来做实验。
      从其余的8个文件夹来整合这100个人工作量太大。谁有这个库和我联系下好吗?非常感谢!
      今天我将这个求助发到小木虫的两个版:人工智能和图像处理。ustc信息学院的各个系版,mlchina(有了这个就是广撒网了)。其实这个问题是可以自己解决的,关键太耗时,估计要个几天时间。从AR_warp_zip中第一个人再分别到其余八个文件夹中找。从11:18到11:27就处理了三个人放在文件夹 G:\study\AR人脸数据库\test2(size 576 768),就是繁琐,纯体力活,自己是完全可以解决的。

AR人脸数据库的组成:两个阶段,每个阶段13个图片,7个表情和光照变化,3个墨镜3个围巾
如何利用AR人脸数据库做实验?
(1)Yi Ma‘s TPAMI(SRC),4.1.2节采用第一阶段的七个训练,第二阶段的测试; Lei Zhang(PolyU)的Metaface也是这么做的;SPP(Pattern recognition)的AR_fixed也是这么做实验的,AR_random是从14个中随机挑一半来训练。Yi Ma‘s TPAMI(SRC),Fig 13(e),根据Yang的回信:第一阶段的七个训练,两个阶段的墨镜和scarves做测试

几个版本的AR:
2DPCA:120个人,每个人26个图像,65个男性,55个女性,图像裁剪到50*40
SPP: 100个人,每个人14个图像(两个阶段,7个表情和光照变化)
posted @ 2011-06-22 11:29 杰哥 阅读(2765) | 评论 (1) | 编辑 收藏
 
为什么要用最近邻的理由
Face Recognition Using Laplacianfaces的7.2节
Different pattern classifiers have been applied for face recognition, including nearest-neighbor, Bayesian, Support Vector Machine, etc. In this paper, we apply the nearest-neighbor classifier for its simplicity.
posted @ 2011-05-24 22:04 杰哥 阅读(242) | 评论 (0) | 编辑 收藏
 
Zhanli师兄聊天提供的ntu的找RA地址
网址如下:
http://sce.ntu.edu.sg/AboutSCE/CareerOpportunities/Pages/job-research.aspx
http://www.eee.ntu.edu.sg/AboutEEE/Career/Pages/CareerOpportunities.aspx
posted @ 2011-05-09 11:40 杰哥 阅读(337) | 评论 (0) | 编辑 收藏
 
Photoshop使用
Photoshop 批处理
Photoshop 怎么 新建动作?Photoshop 菜单 窗口  动作 单击 下拉菜单的 新建动作 即可。
AR人脸数据库全部是raw后缀的图像,要转化成bmp格式的(jpg是有压缩的,有损失的(jpg2000 是小波压缩的,前面的是DCT压缩的),应该转化成bmp(是原始的位图,彩色每位就三个RGB值,黑白图像就灰度值)),一个一个转化太麻烦,下面介绍如何批量处理?
新建动作 记录 打开一个人的raw格式文件 动作上就会记录“打开”,存储为bmp,动作上就会记录“存储”,然后一定要关闭bmp文件,动作上就会出现“关闭”,一定要“停止记录”。
文件 自动 批处理 选择对应的动作,源文件夹及目标文件夹 即可。
Thanks to the guidance of Hu Xiuzhen(胡秀珍)!

posted @ 2011-02-16 15:17 杰哥 阅读(376) | 评论 (0) | 编辑 收藏
 
[zz] Logistic regression

Logistic regression example

This page works through an example of fitting a logistic model with the iteratively-reweighted least squares (IRLS) algorithm.  If you'd like to examine the algorithm in more detail, here is Matlab code together with a usage example.  (See also old code.)

A logistic model predicts a binary output y from real-valued inputs x according to the rule:

p(y) = g(x.w)
g(z) = 1 / (1 + exp(-z))
where w is a vector of adjustable parameters.  That is, the probability that y=1 is determined as a linear function of x, followed by a nonlinear monotone function (called the link function) which makes sure that the probability is between 0 and 1.  The logistic model is an example of a generalized linear model or GLIM; other GLIMs differ only in that they have different link functions.

The IRLS algorithm is Newton's method applied to the problem of maximizing the likelihood of some outputs y given corresponding inputs x.  It is an iterative algorithm; it starts with a guess at the parameter vector w, and on each iteration it solves a weighted least squares problem to find a new parameter vector.

Here is an example of a logistic regression problem with one input and one output:
 
[logistic regression example]

We are predicting the species of an iris (either I. versicolor, which we have coded as y=0, or I. virginica, which we have coded as y=1) from the length of one of its petals (on the x axis, in cm).  The crosses are our training data, which are measurements of the petals of irises whose species is known.  The monotonically increasing curve is our prediction: given a new petal measurement, what is the probability that it came from an I. virginica?  (This is not the maximum likelihood prediction curve; instead it is taken from one of the middle iterations of IRLS, before it has converged.)  The other curve is the estimated standard deviation of y.  If our predicted probability is p, then our predicted variance is p(1-p).  (It turns out that, in general, the variance is related to the derivative of the link function g'(w.x).)

At every iteration, IRLS builds and solves a weighted linear regression problem whose weights are the standard deviations of the training points.  Here is an example of such a problem:

[weighted least squares problem]

The straight line is the linear portion of our prediction; if we were to apply the link function g to the height of each point on the line, we would get the prediction curve in the previous picture.  The crosses are our training data again; the x values are the same, but the y values have been adjusted by the process described below so that they lie closer to a straight line.

An adjusted y value depends on several things: the original y value, the linear part of our prediction z=x.w, our prediction p=g(z), and the derivative v=g'(z).  It is given by the formula
adjusted_y = z + (y - p) / v
We can interpret this formula as stretching out the prediction error (y-p) according to the inverse variance: prediction errors on low-variance points become more important than prediction errors on high-variance points.  (This effect is partly counteracted by the lower weights of the low-variance points, but only partly.)  We can derive the formula by setting the derivative of our log likelihood to zero and performing a Taylor expansion of the resulting equations around our current estimate of w; rearranging terms in this Taylor expansion yields a set of normal equations in which the dependent variables are given by the above formula.

To summarize, the IRLS algorithm is Newton's method for fitting a GLIM by maximum likelihood.  It repeatedly updates a guess at the parameter vector by forming a weighted least squares problem.  The x values in this WLS problem are taken straight from the training data; the y values are adjusted from the training data according to the formula above; and the weights are sqrt(g'(x.w)).



This page was written by Geoff Gordon and last updated June 5, 2002.


posted @ 2011-01-11 10:19 杰哥 阅读(1042) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 24 25 26 27 28 29 30 31 32 Last