http://antkillerfarm.github.io/
概率分布(2)
上一篇《概率分布(1)》写的意犹未尽,这里继续写。本篇主要关注
χ2 分布
设
服从自由度为n的
t分布
设
服从自由度为n的t分布(t distribution),记作
F分布
设
服从自由度为
显然:
假设检验
假设检验就是根据样本对所提出的假设
如果
这里的
下表是正态总体均值、方差的检验法表格:
|
|
检验统计量 |
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
上面这些和
上面这些都是正态样本的参数检验。
对于非参数检验或者非正态样本检验,其他的检验方法还有Wilcoxon signed-rank test、Kruskal–Wallis test、Friedman test等。
注:Frank Wilcoxon,1892~1965,美国化学家。康奈尔大学博士。先后供职于几家美国化工企业的研究机构。
William Henry (“Bill”) Kruskal,1919~2005,美国数学家。哥伦比亚大学博士,芝加哥大学教授。
Milton Friedman,1912~2006,美国经济学家。哥伦比亚大学博士,芝加哥大学教授。1976年获诺贝尔经济学奖。芝加哥学派第二代的领军人物。
Wilson Allen Wallis,1912~1998,美国经济学家。先后就读于明尼苏达大学和芝加哥大学,但是没有博士学位。罗彻斯特大学校长。从艾森豪威尔到里根的历届共和党总统的顾问。Milton Friedman的至交。其父Wilson Dallam Wallis为美国人类学家,明尼苏达大学教授。
一元线性回归的显著性检验
假设y关于x的回归具有形式
这里使用t检验法进行假设检验。
首先,不加证明的给出如下结论:
推论1:
推论2:
推论3:
推论4:
推论5:
推论6:若
其中,
由推论4可得:
即:
由推论2和5、公式2和3,可得:
即:
当假设
不显著的原因可能有以下几种:
1.影响y取值的,除了x,还有其他不可忽略因素。
2.y与x的关系不是线性的,存在其他的关系。
3.y与x不存在关系。
KS检验
Kolmogorov–Smirnov test用于对样本是否属于某种分布进行假设检验。
注:Andrey Nikolaevich Kolmogorov,1903~1987,二十世纪俄国最伟大的数学家之一。莫斯科州立大学博士和教授。俄罗斯科学院院士,挪威科学院和英国皇家学会外籍院士。沃尔夫奖获得者(1980年)。他在数学的许多领域都有重要贡献,以他的名字命名的理论竟有30项之多。
由于Nobel Prizes没有数学奖,因此数学界的最高奖一般有三个:
1.Fields Medal。获奖难度最高,因为有40岁的年龄限制。在国内比较知名的丘成桐、陶哲轩都是该奖的获奖者。
不过他们还不是最屌的。Grigori Perelman(Poincaré conjecture的证明者)直接拒绝了Fields Medal。除此之外,他还拒绝了EMS Prize和Millennium Prize,其中后者奖金高达100万美元,而且还不知道下一个获奖者什么时候诞生(该奖不是年度奖,而是数学难题奖,数学难题的解决周期,你懂的)。
Perelman犹如一个特立独行的隐士,谁的账都不买,包括名利。他将他的伟大证明随手扔进arXiv这样一个非正规网站,但却被《Science》评为年度科学突破。数学界已经很多年没有这样的荣誉了。
补充一下,Perelman就读的中学是Kolmogorov创建的。
2.Abel Prize。和Nobel Prizes的规则相同,由于不限年龄,水平是最高的。缺点是这个奖是2001年才创建的,影响力略差。
3.Wolf Prize。在Abel Prize创建之前,被誉为数学界的Nobel Prizes。Nikolai Vasilyevich Smirnov,1900~1966,俄国数学家。莫斯科大学博士,斯塔克罗夫数学研究所研究员。
Vladimir Andreevich Steklov,1864~1926,俄国数学家、物理学家。哈尔科夫大学博士,其导师是圣彼得堡学派第二代人物中,仅次于Andrey Markov的Aleksandr Lyapunov。哈尔科夫大学和圣彼得堡大学教授,1919年创建斯塔克罗夫数学研究所。
斯塔克罗夫数学研究所是一家专职研究没有教学任务和科研任务的研究机构。Grigori Perelman在这里,曾有6年时间没有发表一篇论文。二十世纪俄罗斯绝大多数的数学发现都源自这里。
上图的红线是某随机变量假设分布的CDF,而蓝线是该随机变量样本的累积分布曲线,即ECDF(Empirical Distribution Function)。
显然若假设正确的话,两条曲线应该是基本重合的。反之,若两条曲线差异较大,则该假设检验不成立。这就是KS检验的基本原理。
KS检验的统计量定义如下:
其中
KS检验更深入的解释,涉及到布朗运动和维纳过程,这里不再赘述。
自相关&互相关&卷积
1.自相关(Autocorrelation)。这个最简单,就是平移之后,自己和自己比。显然当平移为0的时候,自相关值最大,因此这类操作通常用于信号的检测。信号接收端模拟发射端的信号序列,对实际接收到的信号进行相关操作,只有当两者的序列接近重合时,才会检测到信号峰值。
2.互相关(Cross-correlation)。检测两个序列的相似度,显然两者越相似,互相关值越大。这在统计学方面用的比较多。
3.卷积(Convolution)。卷积主要用于线性时不变系统的信号处理。相比于互相关操作,卷积有个旋转180度的操作,这里解释一下它的物理意义。
例如,当一个拳击选手遭到对方连续两次击打身体的同一部位时,第二次被击打时他感觉到的疼痛是第一次被击打所遗留的疼痛与第二次被击打的疼痛之和。即:
其中,
4.这三个操作在离散域最终都可以变为求和操作,也就是向量内积运算。我们一般使用