对我们来说,我们从来不缺都是data,但是缺的是有label的data,所以需要semi-supervised Learning
这里unlabel data是只告诉我们function Model的输入,但是不告诉输出,而且unlabeled data远大于labels data

李宏毅 DeepLearning-2017-Semi-supervised Learning
unlabeled data伴随着一些分布的假设,semi-supervised Learning 是否有用决定于你的假设是否有用(精确和符合实际)

李宏毅 DeepLearning-2017-Semi-supervised Learning
方法:

李宏毅 DeepLearning-2017-Semi-supervised Learning
传统的监督学习的分布
李宏毅 DeepLearning-2017-Semi-supervised Learning
计算新的MODEL
李宏毅 DeepLearning-2017-Semi-supervised Learning
原本只有label data的时候,每一笔的data的likelihood都是可以算出来的,
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
衡量分布是否集中的方法:Entropy of yu,越小越好,越小越集中,拉姆达表示是偏向unlabeled data多一点还是小一点
李宏毅 DeepLearning-2017-Semi-supervised Learning
SVM穷举unlabeled data 的可能得label,得到margin最大,world loss最小
李宏毅 DeepLearning-2017-Semi-supervised Learning
第二种方法:
李宏毅 DeepLearning-2017-Semi-supervised Learning
x的分布是不集中的,有些集中有些分散,X1->X2比较简单到达,中间有high density region,很有可能X1,X2有相同的label
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
第三种方法:一同聚类,然后lable 他
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
如何建设graph
相似度计算函数f(x,x’)
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
相连的线上point的S然后相加,来判断谁更SMOOTH
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning
李宏毅 DeepLearning-2017-Semi-supervised Learning

相关文章:

  • 2022-12-23
  • 2021-09-19
  • 2021-07-04
  • 2022-01-19
  • 2021-07-12
  • 2021-10-02
  • 2021-12-14
  • 2021-05-03
猜你喜欢
  • 2021-05-04
  • 2021-09-23
  • 2021-07-13
  • 2021-10-07
  • 2021-10-06
  • 2021-04-29
  • 2021-10-29
相关资源
相似解决方案