杰

杰哥好,哈哈!
要有魄力,即使失败,也不要让自己的人生平庸! 如果您觉得看过的文章还不错,请帮我点一个右边广告(没有任何副作用),谢谢!
 
 

常用链接

  • 我的随笔
  • 我的评论
  • 我参与的随笔

留言簿(57)

  • 给我留言
  • 查看公开留言
  • 查看私人留言

随笔分类

  • Matlab(58) (rss)
  • Optimization(7) (rss)
  • Python(4) (rss)
  • Search(30) (rss)
  • 名人(9) (rss)
  • 软件使用(Software)(66) (rss)
  • 学术(102) (rss)

随笔档案

  • 2021年3月 (2)
  • 2021年2月 (1)
  • 2021年1月 (1)
  • 2020年10月 (1)
  • 2020年9月 (1)
  • 2019年2月 (1)
  • 2018年10月 (1)
  • 2018年9月 (2)
  • 2018年8月 (1)
  • 2018年7月 (2)
  • 2018年6月 (1)
  • 2018年5月 (1)
  • 2018年4月 (1)
  • 2018年3月 (4)
  • 2018年2月 (2)
  • 2018年1月 (1)
  • 2017年12月 (4)
  • 2017年11月 (2)
  • 2017年9月 (2)
  • 2017年8月 (1)
  • 2017年7月 (1)
  • 2017年6月 (4)
  • 2017年5月 (3)
  • 2017年4月 (1)
  • 2017年1月 (1)
  • 2016年12月 (8)
  • 2016年11月 (3)
  • 2016年10月 (3)
  • 2016年9月 (2)
  • 2016年8月 (2)
  • 2016年7月 (4)
  • 2016年6月 (6)
  • 2016年5月 (7)
  • 2016年4月 (1)
  • 2016年3月 (3)
  • 2016年2月 (1)
  • 2016年1月 (2)
  • 2015年12月 (6)
  • 2015年11月 (3)
  • 2015年10月 (4)
  • 2015年9月 (3)
  • 2015年8月 (5)
  • 2015年7月 (6)
  • 2015年6月 (7)
  • 2015年5月 (8)
  • 2015年4月 (9)
  • 2015年3月 (4)
  • 2015年2月 (1)
  • 2015年1月 (3)
  • 2014年12月 (4)
  • 2014年11月 (2)
  • 2014年10月 (5)
  • 2014年9月 (3)
  • 2014年8月 (5)
  • 2014年7月 (7)
  • 2014年6月 (4)
  • 2014年5月 (1)
  • 2014年4月 (1)
  • 2014年3月 (2)
  • 2013年12月 (4)
  • 2013年11月 (3)
  • 2013年9月 (4)
  • 2013年8月 (3)
  • 2013年7月 (6)
  • 2013年6月 (4)
  • 2013年5月 (1)
  • 2013年4月 (1)
  • 2013年3月 (2)
  • 2013年2月 (1)
  • 2013年1月 (3)
  • 2012年12月 (3)
  • 2012年11月 (10)
  • 2012年10月 (11)
  • 2012年9月 (2)
  • 2012年8月 (6)
  • 2012年7月 (6)
  • 2012年6月 (4)
  • 2012年5月 (1)
  • 2012年4月 (3)
  • 2012年3月 (5)
  • 2012年1月 (1)
  • 2011年12月 (1)
  • 2011年11月 (4)
  • 2011年10月 (3)
  • 2011年9月 (3)
  • 2011年8月 (1)
  • 2011年7月 (1)
  • 2011年6月 (2)
  • 2011年5月 (2)
  • 2011年2月 (1)
  • 2011年1月 (3)
  • 2010年12月 (7)
  • 2010年11月 (5)
  • 2010年10月 (7)
  • 2010年9月 (3)
  • 2010年8月 (7)
  • 2010年7月 (7)
  • 2010年5月 (5)
  • 2010年3月 (6)
  • 2010年1月 (5)
  • 2009年12月 (5)
  • 2009年11月 (4)
  • 2009年10月 (5)
  • 2009年9月 (4)
  • 2009年8月 (1)
  • 2009年7月 (2)
  • 2009年6月 (3)
  • 2009年5月 (1)
  • 2009年4月 (3)
  • 2009年3月 (5)
  • 2009年2月 (2)
  • 2009年1月 (1)
  • 2008年12月 (1)
  • 2008年10月 (1)
  • 2008年9月 (1)
  • 2008年8月 (1)
  • 2008年7月 (4)
  • 2008年5月 (2)
  • 2008年1月 (1)
  • 2006年11月 (1)
  • 2006年4月 (1)

相册

  • 搞笑图片

Other

  • 安徽电力公司客服网站
  • 编程
  • 程序员联合开发网
  • 经典歌曲
  • 两全其美
  • 新雨丝
  • 中国工商银行
  • 中国建设银行
  • 中国建设银行信用卡
  • 中国农业银行

Paper submission

  • ACM Computing Surveys
  • AI in medicine
  • amino acids
  • Artificial Intelligence Review
  • Bioinformatics
  • BMCBioinformatics
  • conference Rankings
  • conference(CVPR)
  • conference(ICML)
  • conference(NIPS)
  • conferences
  • Current Bioinformatics
  • CVIU
  • Electronics Letters
  • IJCM
  • IJCV
  • IJPRAI
  • Image and Vision Computing
  • Neural Computing and Applications (NCA)
  • Neural Networks
  • Neurocomputing
  • Pattern Recognition
  • Pattern Recognition Letters
  • pieee
  • TASE
  • TBD
  • Tbiom
  • TCDS
  • TCSS
  • TCSVT
  • TCYB
  • TGRS
  • TIFS
  • TII
  • TIP
  • TKDE
  • TMM
  • TNNLS
  • TPAMI
  • TSMCS
  • TVT

福彩

  • 安徽福彩网
  • 双色球玩法规则介绍

留学相关

  • Google翻译
  • 爱词霸在线词典
  • 美国总领事馆
  • 普特英语听力
  • 太傻论坛
  • 在线科技词典

论坛

  • 科大bbs
  • 科学岛论坛
  • 模式识别爱好者论坛

搜索

  • arxiv
  • google ipv6
  • google台湾
  • google香港
  • google学术搜索
  • Journal citation reports (JCR)
  • scholarpedia
  • wikipedia维基百科
  • 北京天气预报
  • 电驴
  • 合肥天气预报
  • 乐乎(下载电影)
  • 微软学术搜索

学者

  • Dacheng tao
  • Deng Cai
  • Dengyong Zhou
  • dodo
  • Jian Yang
  • Jie Gui
  • Meina Kan
  • Tianyi Zhou
  • Tongliang Liu
  • Weifeng Liu
  • Xiaojin Zhu
  • yong xu (hit)
  • Zhen Lei (ia)
  • 桂卫华
  • 中科院水生所所长桂建芳

邮箱

  • 126邮箱abroad
  • 126邮箱国内
  • google 邮箱
  • hotmail
  • Seu (东南大学)
  • 科大校友邮箱
  • 科大邮箱
  • 中科院

中科大和中科院

  • Niu Group (inside)
  • Niu Group (Outside)
  • 合肥研究院图书馆
  • 智能所

搜索

  •  

最新评论

  • 1. re: Office 2010中删除Endnote web 插件
  • 真是救了我呀!
  • --ss
  • 2. re: metric learning(度量学习)
  • 76765
  • --656
  • 3. re: 全新的美国计算机学科排名[未登录]
  • 随便拉出一个来就能秒天朝的 北*大学,清*大学到火星...
  • --chipset
  • 4. re:【超智多能思维科学研究所】致 蒲慕明教授的eMail
  • 评论内容较长,点击标题查看
  • --江伟
  • 5. re: Adobe distiller: Cambria not found, using Courier. 报错解决办法
  • 解决了,谢谢!
  • --lyh

阅读排行榜

  • 1. [转贴]Google被封、gmail.com邮箱、gmail登录不了的办法(25667)
  • 2. arg min的含义是什么?(24468)
  • 3. latex问题集锦(19430)
  • 4. matlab命令窗口输出函数disp和display(17324)
  • 5. MATLAB字符串数组(15445)

评论排行榜

  • 1. K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)(13)
  • 2. LibSVM学习记录(6)
  • 3. 全国接听免费附加套餐(5)
  • 4. EndNote 乱码 解决方案(5)
  • 5. 孟岩blog理解矩阵一、二, 三(5)

Powered by: 博客园
模板提供:沪江博客
C++博客 | 首页 | 发新随笔 | 发新文章 | 联系 | 聚合 | 管理

归一化的神奇效果、histogram equilibrium
为什么要归一化?
见《视觉机器学习》的P159,为了提高训练过程的收敛程度

http://www.cad.zju.edu.cn/home/dengcai/Data/FaceData.html

We recomend to pre-process the data using either of the following two methods:

Nomalize each vector to unit
%===========================================
[nSmp,nFea] = size(fea);
for i = 1:nSmp
     fea(i,:) = fea(i,:) ./ max(1e-12,norm(fea(i,:)));
end
%===========================================

Scale the features (pixel values) to [0,1]
%===========================================
maxValue = max(max(fea));
fea = fea/maxValue;
%===========================================

灰度图的像素范围是0到255,以后不能用除以256了,除以255

(1)就采用Deng Cai网上公布的数据
20Newsgroup做SRDA的实验,

50%训练时的错误率

没有归一化: 18.1270±0.5453(alpha=1), 18.1312±0.5397(alpha=0.1);

normalize each data vector to unit :11.4483±0.2372(alpha=0.1);

5%训练时的错误率

没有归一化:  36.5823±0.8035(alpha=1), 36.3308±0.8237(alpha=0.1) 

normalize each data vector to unit : 27.4496±0.7606(alpha=0.1)


归一化比没有归一化分别好了7%,9%
归一化成2范数为1,每个样本都除以各自的2范数,可能破坏不同样本的同一特征的相对大小,那么这种归一化作用何在?假如样本归一化后SRDA公式(16)最优alpha是1,则不归一化(如果每个样本2范数在100左右),此时最优alpha应该在10000

(2)我的电脑目录:\蔡登代码\Spectral Regression\kernel\test_USPS(toronto)\Data,,如果USPS不进行预处理,效果非常的差

(3)除以256和每个样本都除以各自的2范数,20121003mingming gong做实验时发现这个问题,我利用我的程序重新做了测试,在Extended Yale B  10train分别除以256和每个样本都除以各自的2范数,准确率44.45 和53.43,差异非常大,每个样本都除以各自的2范数,这种归一化作用何在? 在Extended Yale B 上有光照变化非常大,这种有去除光照影响的变化,但这种对左侧光和右侧光没办法处理,真正做人脸识别去除光照影响,肯定有更好的方法,都处理各自的2范数,应该太simple了。 
见电脑目录:\other\matlab 2007a\work\DSPP(671MB)\Extended Yale B\Baseline的TestBaseline_NormalizeToUnit和TestBaseline_NormalizeUse256

(4)histogram equilibrium,论文Maximum margin criterion with tensor representation实验全用了;Unsupervised Discriminant Projection (PAMI 2007)第一节没用,其他两节用了。Regularized Correntropy for Robust Feature Selection的3.2节用了,3.1节没用。作用是什么?20130127 Prof. Ran He讲对去除光照有好处,但对于像墨镜和围巾这样的,没作用。matlab函数:histeq。

就用下面的matlab代码: Imag = imread('AR001-1.tif');J = histeq(Imag);J就代表经过直方图均衡化后的图,然后对J进行操作。Libing讲histeq不影响人脸像素的非负性,就相当于一个预处理步骤而已,后面可以接归一化到二范数是1也可以不接。未必加histeq一定效果好,有时反而会起负作用。这得到Libing 和Ran He的共同确认。

http://zhidao.baidu.com/question/37620215.html
histeq的作用是把“图像”的直方图均衡化。
简单的说,有些图像有太多的亮点或者有太多的暗点。histeq通过一个算法,把亮度重新分配,让人看得舒服自然。比如说原来的点都集中在暗处,1-25之间,histeq就可以把25亮度的点“拉”到255处,24“拉”到240处..最后图像的细节都回呈现在你面前。
posted @ 2009-04-17 10:52 杰哥 阅读(1329) | 评论 (0) | 编辑 收藏
 
搜索学术内容的技巧(要用英文)---下载MNIST DATABASE of handwritten digits 及各种数据集

原始网址:http://yann.lecun.com/exdb/mnist/,但不知怎么处理成matlab文件
用关键字:MNIST手写体数字 matlab           找不到
用关键字:MNIST matlab  mat  一下子就找到了网址http://www.cs.toronto.edu/~roweis/data.html


Isolet data set

原始网址:http://archive.ics.uci.edu/ml/datasets/ISOLET
isolet1+2+3+4.data.Z和isolet5.data.Z不知怎么处理成*.txt或者*.mat(matlab),*.z是unix下的压缩文件,uncompress   *.Z   这个是在UNIX下常用命令方式,就处理成文本文件了



USPS
(1) (Deng Cai, Xiaofei He, and Jiawei Han. "Efficient Kernel Discriminant Analysis via Spectral Regression", Department of Computer Science Technical Report No. 2888, University of Illinois at Urbana-Champaign (UIUCDCS-R-2007-2888), August 2007. )论文中5.1节提供的网址http://www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/multiclass.html#usps,该网址下载的数据格式是libsvm的数据格式,要编程序转换成matlab格式的
(2) http://www.cs.toronto.edu/~roweis/data.html   与上面的MNIST 网址相同
  

直接在window下将usps.bz2和usps.t.bz2解压缩就可以,用写字本打开比较好,保留回车符,自动分行。但记事本就不会这样. Meiling Hou 师妹帮我编写了一个转化成matlab的mat格式文件的程序:在我的电脑目录E:\备份\流行学习系列论文\蔡登论文\蔡登代码\Spectral Regression\data\USPS\Version1\Meiling Hou_code。以后采用USPS做实验,就采用USPS的Version1和Version2,不必采用其余的版本。其中Version1已经进行了预处理,如果再归一化成一范数,在SRKDA效果会变差。

posted @ 2009-04-16 12:02 杰哥 阅读(1924) | 评论 (0) | 编辑 收藏
 
希腊字母读音表
序号
大写
小写
英文注音
国际音标注音
中文注音
1
Α
α
alpha
a:lf
阿尔法
2
Β
β
beta
bet
贝塔
3
Γ
γ
gamma
ga:m
伽马
4
Δ
δ
delta
delt
德尔塔
5
Ε
ε
epsilon
ep`silon
伊普西龙
6
Ζ
ζ
zeta
zat
截塔
7
Η
η
eta
eit
艾塔
8
Θ
θ
thet
θit
西塔
9
Ι
ι
iot
aiot
约塔
10
Κ
κ
kappa
kap
卡帕
11
Λ
λ
lambda
lambd
兰布达
12
Μ
μ
mu
mju
缪
13
Ν
ν
nu
nju
纽
14
Ξ
ξ
xi
ksi
克西
15
Ο
ο
omicron
omik`ron
奥密克戎
16
Π
π
pi
pai
派
17
Ρ
ρ
rho
rou
肉
18
Σ
σ
sigma
`sigma
西格马
19
Τ
τ
tau
tau
套
20
Υ
υ
upsilon
jup`silon
宇普西龙
21
Φ
φ
phi
fai
佛爱
22
Χ
χ
chi
phai
西
23
Ψ
ψ
psi
psai
普西
24
Ω
ω
omega
o`miga
欧米伽
posted @ 2009-03-26 09:53 杰哥 阅读(923) | 评论 (0) | 编辑 收藏
 
Star

posted @ 2009-03-19 22:07 杰哥 阅读(367) | 评论 (0) | 编辑 收藏
 
A famous person

posted @ 2009-03-19 22:04 杰哥 阅读(377) | 评论 (0) | 编辑 收藏
 
K近邻分类器的matlab代码(Matlab code of k-nearest neighbors)

function rate = KNN(Train_data,Train_label,Test_data,Test_label,k,Distance_mark);

% K-Nearest-Neighbor classifier(K-NN classifier)
%Input:
%     Train_data,Test_data are training data set and test data
%     set,respectively.(Each row is a data point)
%     Train_label,Test_label are column vectors.They are labels of training
%     data set and test data set,respectively.
%     k is the number of nearest neighbors
%     Distance_mark           :   ['Euclidean', 'L2'| 'L1' | 'Cos'] 
%     'Cos' represents Cosine distance.
%Output:
%     rate:Accuracy of K-NN classifier
%
%    Examples:
%      
% %Classification problem with three classes
% A = rand(50,300);
% B = rand(50,300)+2;
% C = rand(50,300)+3;
% % label vector for the three classes
% gnd = [ones(300,1);2*ones(300,1);3*ones(300,1)];
% fea = [A B C]';
% trainIdx = [1:150,301:450,601:750]';
% testIdx = [151:300,451:600,751:900]';
% fea_Train = fea(trainIdx,:);
% gnd_Train = gnd(trainIdx);
% fea_Test = fea(testIdx,:);
% gnd_Test = gnd(testIdx);
% rate = KNN(fea_Train,gnd_Train,fea_Test,gnd_Test,1)
%
%
%
%Reference:
%
% If you used my matlab code, we appreciate it very much if you can cite our following papers:
% Jie Gui, Tongliang Liu, Dacheng Tao, Zhenan Sun, Tieniu Tan, "Representative Vector Machines: A unified framework for classical classifiers", IEEE  
% Transactions on Cybernetics.
    
%This code is written by Gui Jie in the evening 2009/03/11.
%If you have find some bugs in the codes, feel free to contract me
if nargin < 5
    error('Not enought arguments!');
elseif nargin < 6
    Distance_mark='L2';
end
 
[n dim]    = size(Test_data);% number of test data set
train_num  = size(Train_data, 1); % number of training data set
% Normalize each feature to have zero mean and unit variance.
% If you need the following four rows,you can uncomment them.
% M        = mean(Train_data); % mean & std of the training data set
% S        = std(Train_data);
% Train_data = (Train_data - ones(train_num, 1) * M)./(ones(train_num, 1) * S); % normalize training data set
% Test_data            = (Test_data-ones(n,1)*M)./(ones(n,1)*S); % normalize data
U        = unique(Train_label); % class labels
nclasses = length(U);%number of classes
Result  = zeros(n, 1);
Count   = zeros(nclasses, 1);
dist=zeros(train_num,1);
for i = 1:n
    % compute distances between test data and all training data and
    % sort them
    test=Test_data(i,:);
    for j=1:train_num
        train=Train_data(j,:);V=test-train;
        switch Distance_mark
            case {'Euclidean', 'L2'}
                dist(j,1)=norm(V,2); % Euclead (L2) distance
            case 'L1'
                dist(j,1)=norm(V,1); % L1 distance
            case 'Cos'
                dist(j,1)=acos(test*train'/(norm(test,2)*norm(train,2)));     % cos distance
            otherwise
                dist(j,1)=norm(V,2); % Default distance
        end
    end
    [Dummy Inds] = sort(dist);
    % compute the class labels of the k nearest samples
    Count(:) = 0;
    for j = 1:k
        ind        = find(Train_label(Inds(j)) == U); %find the label of the j'th nearest neighbors 
        Count(ind) = Count(ind) + 1;
    end% Count:the number of each class of k nearest neighbors
    
    % determine the class of the data sample
    [dummy ind] = max(Count);
    Result(i)   = U(ind);
end
correctnumbers=length(find(Result==Test_label));
rate=correctnumbers/n;






--------------------------------------------------以上是代码---------------------------------------------------------------------

余弦距离和余弦相似度的区别

餘弦相似度(cosine similarity)乃是傳統文件分類中,最常被拿來度量文件間距離的基本度量方法,其以兩個 d 維向量間的角度差異來度量該向量間的距離,所得數據介於 0 ~ 1 之間,當兩向量角度越相近時,所求出的餘弦距離越接近1;反之,則越接近 0。假設在 d 維空間中有兩點a = [a1, a2, …, ad],b =  [b1, b2, …,bd],則其餘弦相似度可表示為: 
cosineSimilarity(a,b) = dot(a,b) / (norm(a)*norm(b))   [我觉得这里说成cosineSimilarity,不应该说成cosineDistance。相似度越大,距离应该越小。比如,a和b夹角为0,此时最相似,相似度最大,距离最小]
 dot(a,b)  代表a和b的内积,因为向量内积定义为a·b = |a| × |b| × cosθ, (一般情况下,θ∈[0,π], http://baike.baidu.com/view/1485493.htm )。故这样定义不能满足在 0 ~ 1 之間,而是-1到1之间,有两种方式:
(1) 我下面的代码是正确的,用acos,将这个余弦转化为[0, π]之间的角度. 未必一定要限制在0 ~ 1 ,我的代码转化成[0, π],值越大代表其距离越大;
(2) cosineDistance(a,b) = 1- cosineSimilarity(a,b) = 1- dot(a,b) / (norm(a)*norm(b))。cosineDistance的范围就在[0 2]。
範例: 
a=[1 1 1]; b=[1 0 0]; 
cosineDistance = dot(a,b) / (norm(a)*norm(b))   
cosineDistance = 
    0.5774   [http://neural.cs.nthu.edu.tw/jang/books/dcpr/doc/02%E8%B7%9D%E9%9B%A2%E8%88%87%E7%9B%B8%E4%BC%BC%E5%BA%A6.pdf ,已经保存到电脑:距离与相似度.pdf]
"KDD17_Linearized GMM Kernels"的公式1是cosine的等价表示形式;“Min-Max Kernels 1503.01737”的公式1是Min-Max Kernel的标准定义

Minimal Local Reconstruction Error Measure Based Discriminant Feature Extraction and Classification的P3
For robustness, before classification, we generally need to normalize feature vectors, making the length of each feature vector to be 1, that is, x -> x /|| x || .
The normalized Euclidean distance is equivalent to the cosine distance.
(1) Lin Zhu 师弟讲将循环改为计算距离矩阵会节省时间,因为matlab循环很耗时,但大样本还必须用循环否则out of memory.想起以前上课jinsong老师也提供了一个KNN代码,不过他的也是用循环实现的.matlab有自带的函数knnclassify,论文Sparsity preserving projections的代码SPP_1NN.m中就用的该函数。在ASLAN上我的KNN和knnclassify识别率完全一样
(2) 极其重要注意点:倒数第四行程序不要用Result(i)   = ind;这对Yale等标号依次为1,2,3等没问题。对二分类1和-1就有问题。SRC_QC和SRC_QC2也是类似的,倒数第三行不能用Result(i) = index, 要用Result(i) = classLabel(index);   原来只修改了这一处,其实SRC_QC2的50行和SRC_QC的42行也要将ii修改为classLabel(ii)。正因为这个错误,才得出SRC在ASLAN上是50%错误率方差是0的错误结果。正确的SRC_QC2和SRC_QC程序在ASLAN目录
posted @ 2009-03-19 14:41 杰哥 阅读(9535) | 评论 (13) | 编辑 收藏
 
向量的旋转

向量的旋转

基础的2-D绕原点旋转

在2-D的迪卡尔坐标系中,一个位置向量的旋转公式可以由三角函数的几何意义推出。比如上图所示是位置向量R逆时针旋转角度B前后的情况。在左图中,我们有关系:

  x0 = |R| * cosA

  y0 = |R| * sinA

  =>

  cosA = x0 / |R|

  sinA = y0 / |R|

  在右图中,我们有关系:

  x1 = |R| * cos(A+B)

  y1 = |R| * sin(A+B)

  其中(x1, y1)就是(x0, y0)旋转角B后得到的点,也就是位置向量R最后指向的点。我们展开cos(A+B)和sin(A+B),得到

  x1 = |R| * (cosAcosB - sinAsinB)

  y1 = |R| * (sinAcosB + cosAsinB)

  现在把

  cosA = x0 / |R|

  sinA = y0 / |R|

  代入上面的式子,得到

  x1 = |R| * (x0 * cosB / |R| - y0 * sinB / |R|)

  y1 = |R| * (y0 * cosB / |R| + x0 * sinB / |R|)

  =>

  x1 = x0 * cosB - y0 * sinB

  y1 = x0 * sinB + y0 * cosB

  这样我们就得到了2-D迪卡尔坐标下向量围绕圆点的逆时针旋转公式。顺时针旋转就把角度变为负:

  x1 = x0 * cos(-B) - y0 * sin(-B)

  y1 = x0 * sin(-B) + y0 * cos(-B)

  =>

  x1 = x0 * cosB + y0 * sinB

  y1 = -x0 * sinB + y0 * cosB

  现在我要把这个旋转公式写成矩阵的形式,有一个概念我简单提一下,平面或空间里的每个线性变换(这里就是旋转变换)都对应一个矩阵,叫做变换矩阵。对一个点实施线性变换就是通过乘上该线性变换的矩阵完成的。好了,打住,不然就跑题了。

所以2-D旋转变换矩阵就是:

[cosA  sinA]      [cosA -sinA]
[-sinA cosA] 或者 [sinA cosA]

posted @ 2009-03-16 21:14 杰哥 阅读(3392) | 评论 (0) | 编辑 收藏
 
minimum distance classifier=nearest-centroid classifier=nearest mean classifier
杨健老师的论文KPCA Plus LDA: A Complete Kernel Fisher Discriminant Framework for Feature Extraction and Recognition   5.1节采用该分类器,Why can LDA be performed in PCA transformed space也采用该分类器,等同于叶杰平老师论文Generalized Linear Discriminant Analysis: A Unified Framework and Efficient Model Selection    IV节的nearest-centroid classifier(也即汪增福老师讲的平均样本法),定义如下:(摘自网页http://homepages.inf.ed.ac.uk/rbf/HIPR2/classify.htm)

Suppose that each training class is represented by a prototype (or mean) vector:

Eqn:eqncl1

where Eqn:eqnnj is the number of training pattern vectors from class Eqn:eqnomegj. In the example classification problem given above, Eqn:eqnmneed and Eqn:eqnmbolt as shown in Figure 2.




Figure 2 Feature space: + sewing needles, o bolts, * class mean

Based on this, we can assign any given pattern Eqn:eqnx to the class of its closest prototype by determining its proximity to each Eqn:eqnmj. If Euclidean distance is our measure of proximity, then the distance to the prototype is given by

Eqn:eqnclDJ

It is not difficult to show that this is equivalent to computing

Eqn:eqncl2

and assign Eqn:eqnx to class Eqn:eqnomegj if Eqn:eqndj yields the largest value.
显然,minimum distance classifier的效率要比nearest neighbor classifier (NN)要低,因为对于任意一个测试样本,前者只需要计算到训练样本的几个类心的距离,而nearest neighbor classifier (NN)要计算与所有训练样本的距离。杨健老师论文KPCA Plus LDA   5.2节也有原话:A minimum distance classifier is employed for computational efficiency.

Other reference:
Mar 24, 2012 gmail 附件讲义7.3节有minimum distance classifier的英文描述

posted @ 2009-02-22 10:31 杰哥 阅读(1174) | 评论 (0) | 编辑 收藏
 
英文投稿过程中的十种状态
1. Submitted to Journal 当上传结束后,显示的状态是Submitted to Journal,这个状态是自然形成的无需处理。
2. With editor 如果在投稿的时候没有要求选择编辑,就先到主编那里,主编会分派给别的编辑。这当中就会有另两个状态: ① Editor assigned 编辑分派 ② Editor Declined Invitation 编辑拒绝邀请,这时主编不得不将投稿文章重新分派给其它编辑。
3. Reviewer(s) invited 说明编辑已接手处理,正在邀请审稿人中。有时该过程会持续很长时间,如果其中原因是编辑一直没有找到合适的审稿人,这时投稿者可以向编辑推荐审稿人。
4. Under review 审稿人的意见已上传,说明审稿人已接受审稿,正在审稿中,这应该是一个漫长的等待(期刊通常会限定审稿人审稿时间,一般为一个月左右)。当然前面各步骤也可能很慢的,要看编辑的处理情况。如果被邀请审稿人不想审,就会decline,编辑会重新邀请别的审稿人。
5. required review completed 审稿结束,等编辑处理,该过程短则几天,长则无期,科学堂有一篇文章出现required review completed状态已近一个月了,还是没有消息。
6. Decision in Process 到了这一步就快要有结果了,编辑开始考虑是给修改还是直接拒,当然也有可能直接接受的,但可能性很小,呵呵。
7. Minor revision/Major revision 小修/大修,这个时候可以稍微庆祝一下了,因为有修改就有可能。具体怎么改就不多说了,谦虚谨慎是不可少的(因为修改后一般会再发给审稿人看,所以一定要细心的回答每一个审稿人的每一个问题,态度要谦逊,要让审稿人觉得他提的每个问题都很有水准的,然后针对他的问题,一个一个的做出答复,能修改的就修改,不能修改的给出理由,而且都要列出来,文章的哪一段哪一行修改了最好都说出来,记住:给审稿人减少麻烦就是给你自己减少麻烦!另注:有时,审稿人会在修改意见里隐讳里说出要你仔细阅读某几篇文献,这时可要注意了,其中某些文章可能就是评审者自己发表的,这时你最好在你的修改稿中加以引用),修改后被拒绝的例子也多不胜数的。
8. Revision Submitted to Journal 修改后重新提交,等待编辑审理。
9. Accepted 如果不要再审,只是小修改,编辑看后会马上显示这个状态,但如果要再审也会有上面的部分状态。一步会比较快,但也有慢的。看杂志的。
10. Rejected 相信大家见了Rejected,都会很郁闷。但也不要太灰心,耐心将评审意见看完,一般评审者会给出有益的建议,相信看后你会有所收获。

                                                                                                                           想撤稿没撤回来,原来with associate editor 是这个意思,晕
http://emuch.net/html/201104/3062287.html
撤稿信:
Dear Mrs. ***:
> We submitted the first manuscript entitled "********" to IEEE Transactions on Systems, Man, and Cybernetics--Part B: Cybernetics on 14-Mar-2010. Up to now, the manuscript has been always with Associate Editor. Therefore, We want to withdraw it and submit it to another journal, provided that the manuscript is not under review.
>
> Sincerely,
> Dr. ****
回信:
Dear Dr. ***,
   Manuscript Central lists papers as "with associate editor" until the AE has returned a recommendation.  Your paper is indeed under review, with some reviews already received.  I have contacted the AE to inquire about the status of a decision.  Please let me know if you still do not have a decision by April 20, and I will contact the EIC on your behalf.
Sincerely,
***
Editorial Assistant
原来with associate editor对有些期刊也有under review 的意思。
posted @ 2009-02-18 19:47 杰哥 阅读(4829) | 评论 (0) | 编辑 收藏
 
大师语录
                                                                                                                   什么年龄最出成果
路甬祥对浙江大学高度重视和大力扶持青年人才的培养和成长给予充分肯定。他说,现在国内很多研究机构的负责人都是有发展潜力的青年人,一些著名科学家则放在指导和顾问的位置。因为35岁左右的年轻人,正是发挥才能的时候,更易形成新的突破。而到了45岁以上,经验多了,考虑问题比较全面,更多地是要发挥管理和教学上的作用。因此,对年轻人来说,机遇很好,一定要抓住,不抓住就可能错过了。他对浙江大学组织学生志愿者与老教授们接对表示赞赏。老教授们虽然年纪大,但思想并不落后。与老教授们的交流,不仅学习到了他们为人师表的优良品德,还能学到很多课堂上学不到的东西。
    
                                                                                         张亚勤撰文:十年研发梦想一次次被自己超越

十年来,微软亚洲研究院和工程院取得了巨大的成就,但我期望下一个十年会更激动人心。除了发表文章、专利、技术和产品,我期望我们能做几件真正可以改变这个世界的事情。现在大家想起贝尔实验室,没有人记得它发表多少篇文章,人们记得的是它发明的晶体管、激光和光纤,这些技术改变了整个世界;我们今天想起施乐实验室,也想不起它获得了多少专利,想到的是图形界面和以太网,这些技术让今天我们的生活变得如此不同。我想这正是考验一个研发机构是否成功、是否有生命力的真正标准。


郭雷院士:“解题”人生
――记中科院数学与系统科学研究院院长郭雷院士
        郭雷很强调科研鉴赏力,他有一个原则:必须选择有实质性贡献意义的科研项目来做,而不仅是一些枝节性的工作。枝节性的研究容易出论文,实质性的贡献才能出成果。纵观郭雷的学术生涯,他用实际行动在二者间做了一个单选。他说,一个科学家值得自豪的应该是他的学术贡献,而不是科研的副产品;是他解决了什么,而不是他发表了多少论文,争到了多少项目、获得了多少荣誉。
       作为中国科学界的“名人”,常常有学生请他题字签名,而他总以这样三句相赠:诚实做人,认真做事,创造性地思考。这是他对研究生基本要求的“浓缩版”,也是他人生的真实写照。
posted @ 2009-01-03 19:05 杰哥 阅读(481) | 评论 (0) | 编辑 收藏
 
仅列出标题
共39页: First 31 32 33 34 35 36 37 38 39