这本书厉害了!加州大学伯克利分校最新研究成果总结

这本书厉害了!加州大学伯克利分校最新研究成果总结

新书速递

 

导读:在目前的研究现状中,机器学习的研究还没有一个坚实的理论框架,不能为分析提供基础,也不能为实验运行提供指导。今天为大家介绍《机器学习的数学理论》。这本书试图确定并解决在现代机器学习、人工智能、深度神经网络等方面具有重大研究兴趣的各个领域中存在的问题,这些技术可以完成非凡的任务,但是如何使用它们高度依赖的基本概念仍然是一个谜。

这本书厉害了!加州大学伯克利分校最新研究成果总结

梯度下降法是一种广泛应用于神经网络训练的方法。当使用梯度下降法时,无论是收敛到局部最小值还是全局最小值,都存在的一个挑战是缺乏关于该算法何时收敛的指导性准则。本书试图解决这个关键问题。本书为读者提供了新的理论框架,可以用于收敛性分析。

 

本书也代表了作者和合作者在机器学习领域数学方面的重大贡献。在整本书中,我们确保读者能够很好地理解和感受梯度下降技术的理论框架,以及在神经网络训练中使用这些理论框架的方法。为了强调这一点,书中使用了我们最近的一些研究成果,以及其他研究人员正在探索的综合成果。当阅读本书的各个章节时,读者会接触到各种非常重要的应用,比如子空间聚类和时间序列分析。本书力求达到理论与应用的平衡,因此,书中会同时给出理论以及相关应用。我们希望在机器学习领域为读者提供正确的工具,使阅读更加精彩,同时对读者产生巨大的影响。

 

与诸如Goodfellow、Bengio和Courville的《深度学习》等现有书籍相比,本书更深入地定义和展示了梯度下降领域的最新研究成果,使之成为学生和专业人士更为全面的工具。此外,本书还将这些概念与诸如子空间聚类和时间序列数据之类的应用联系起来,使其成为该领域中更好的选择。

 

适合谁读?

本书的目标读者涵盖从事机器学习的所有人,无论是学生、教授、行业专家,还是独立研究人员。编撰本书的目的是为日常研究活动提供一本方便的手册。

有哪些内容?

本书重点研究机器学习的数学理论。第一部分探讨了在非凸优化问题中,选择梯度下降步长来避免严格鞍点的最优性和自适应性。第二部分提出了在非凸优化中寻找局部极小值的算法,并利用牛顿第二定律在一定程度上得到无摩擦的全局极小值。第三部分研究了含有噪声和缺失数据的子空间聚类问题,这是一个由随机高斯噪声的实际应用数据和含有均匀缺失项的不完全数据激发的问题;还提出了一种新的具有粘性网正则化的VAR模型及其等价贝叶斯模型,该模型既考虑了稳定的稀疏性,又考虑了群体选择。

  

卖点

  • 比“花书”更新、更深入的研究成果。

  • 深入研究机器学习的各种数学理论。

  • 分四个部分介绍,让读者轻松驾驭复杂的理论。

  • 包括对合成和实时应用时间序列数据进行的广泛实证研究。

这本书厉害了!加州大学伯克利分校最新研究成果总结

扫码了解详情并购买

这本书厉害了!加州大学伯克利分校最新研究成果总结

更多精彩回顾

书讯 |9月书讯(下)| 开学季,读新书

书讯 |9月书讯(上)| 开学季,读新书

资讯 |TIOBE 9 月编程语言:C++ 突起、Java 流行度下降

上新 | 一本书带你吃透Nginx应用与运维
书单 | 开学季——计算机专业学生必读的10本畅销经典

干货 | 用户画像从0到100的构建思路

收藏 | 更新!更薄!更精华:《JavaScript编程精解》来了

视频 | 大佬出镜推荐不可不读系列——程序员陈彼得

赠书 |【第22期】网络安全在身边|最强学习书单整理

这本书厉害了!加州大学伯克利分校最新研究成果总结

这本书厉害了!加州大学伯克利分校最新研究成果总结

点击阅读全文购买

相关文章:

  • 2021-10-08
  • 2021-05-04
  • 2021-07-09
  • 2021-08-22
  • 2021-11-10
  • 2021-07-02
  • 2022-01-14
  • 2021-06-14
猜你喜欢
  • 2021-05-18
  • 2021-12-03
  • 2022-01-10
  • 2022-12-23
  • 2021-08-29
  • 2021-04-08
  • 2021-06-14
相关资源
相似解决方案