要求两周之内看完林轩田机器学习基石和技法,速度是要的,但是感觉看得太快我会不久就会忘记。因此记录一下梗概,顺便写写看视频时解决的不懂的地方(有种思想就是把知识传播给更多人,有时候就是靠大佬们善意的一句提点才懂的,也感谢视频底下和弹幕有很多大佬在解释)

视频有b站搬运还有YouTube上的,YouTube要翻墙,最好还是b站吧。然后视频是国语的,也是为了让更多人方便学到。
b站:
林轩田机器学习基石
林轩田机器学习技法
YouTube:
林轩田机器学习基石
林轩田机器学习技法

最后,这个是一定会更完的,因为这两部65集大型连续剧,两周内死也会看完的 = =、

1
简单介绍一下机器学习(其实就是冇做笔记哈哈哈)

2
机器学习:
模拟人脑的学习过程
从资料出发->ML->改进性能测量 improved performance measure

例子:
人如何辨认树:不是讲规则,而是人多次观察,去辨认出树

ML也一样,在某些应用会让机器自己去分析资料,自己去学习

有的系统做不到把规则写下来(比如上火星)
要靠机器人和环境的互动来得到更好的表现

授机器以鱼不如授机器以渔

3个关键点判断适不适合机器学习

  1. 有某些performance measure(衡量工作的指标)要机器去学习,有某种规则、潜在的模式去预测
  2. 目标不知道怎么把规则写下来
  3. 有数据去输入

3
讲了些ML可以应用的方面

可能的机器学习模型:
各个特征加权输入

4
机器学习例子:银行根据用户资料,决定是否发卡

f 是事物的客观规律,f(x)-> y,但是根据机器学习的三个前提,f无法或者很难列出来
这时候机器学习会学到一个规律g,来尽量拟合这个f
有:g ∈ H = {hk},hk表示各种拟合f的规律(各种特征、条件),把所有拟合的规律构成集合H
H就是所有方法的集合,当然这些方法、规律有好有坏

我们要求机器从模型集合H中选最好的g来让g尽量拟合客观模型f
林轩田机器学习基石(Machine Learning Foundations)笔记林轩田机器学习基石(Machine Learning Foundations)笔记
林轩田机器学习基石(Machine Learning Foundations)笔记
林轩田机器学习基石(Machine Learning Foundations)笔记
5
讲述机器学习和数据挖掘、人工智能、统计学的异同

总结什么是机器学习:利用数据,想要找的一个函数g,这个函数
和目标函数f是很接近的

component 组成:A takes D and H to get g

6
x = (x1,x2, … xd)表示用户的各种特征,threshold表示阈值
y = { +1(good) , -1(bad) } ,注意 0 的情况很少见,而且也没有多大意义
h ∈ H
h(x) = sign(求和(1~d)wixi - threshold)
= sign(求和(0~d)wi
xi) 注:x0 = 1 , w0 = threshold
h(x)可以表示一条直线,划分o(+1)和 x(-1)
林轩田机器学习基石(Machine Learning Foundations)笔记
林轩田机器学习基石(Machine Learning Foundations)笔记
林轩田机器学习基石(Machine Learning Foundations)笔记
(一维的线性分类器,高维度的也类似(???不大懂怎么类似法,好像画不出来?))

7
尽量让 g ≈ f on D上
以下在二维平面内:

需要找到一条线尽量拟合f

有那么一个(知错能改的)思路(PLA):
(perceptron learning algorithm 感知学习算法)
从一条线g0出发,想办法慢慢让他变得更好
t 代表第t轮
出现错误开始修正
wt+1 ← wt + yn(t)xn(t)
直到没有找出错误
(知错能改善莫大焉演算法)
【疑问:为什么是y
x
找到一些网址:https://zhuanlan.zhihu.com/p/30641772
b站东博士评论也有讲,不过看不大懂】
林轩田机器学习基石(Machine Learning Foundations)笔记
! 我懂了,里头y只是-1或者1而已,如果w和x的夹角>90°
假设一开始有w0,x0,y0
则w0内积(或者说点乘)x0 < 0,sign(w0·x0)= -1 ,如果y0此时等于+1
就上面那张图的情况,就有sign(w0
x0)!= y0
(sign函数不知道百度百科就行了)
因此,因为x0平移一下就是那个虚线,那么,w0+x0(虚线),就得到紫色那个:w0 + y0x0 即 w0+x0,成为新的w,记为w1
这么做的话,w1和x0的夹角就<90°,内积自然>0,sign(w1*x0) = 1 = y0
w更新成功,接下来按照思路不断更新知道每个数据都不会分错为止
林轩田机器学习基石(Machine Learning Foundations)笔记
注意,划分线(划分粉色和蓝色)的时候,线的方向取的是和w的方向垂直的方向,一下子没懂,看了弹幕才知道
因为w和x夹角为锐角的就是O,为钝角的就是X嘛,因此分界线就是90度的方向

关于知错能改算法:
这个方法会停下来吗?
停下来后确定的g真的很拟合f吗
(可能只是拟合了训练集)

习题答案:
选3是因为wt+1 = wt + ynxn
左右两边乘个yn
xn
就可以知道yn*wt+1(T)xn >= ynwt(T)xn
这个式子表示的是第6课的那个公式w
x,分数-门槛值
跟前置比后者跟yn更加拟合,说明更新出来的g真的在接近f

8
证明PLA收敛性:
林轩田机器学习基石(Machine Learning Foundations)笔记
林轩田机器学习基石(Machine Learning Foundations)笔记
最后,习题里面证明PLA的收敛性的constant是什么:
https://www.cnblogs.com/porco/p/4605597.html
具体怎么证明没有看,constant就等于 = p/R^2

相关文章: