今天给同学们推荐一本专为高级本科生或刚毕业的学生设计的机器学习教材——《理解机器学习:从理论到算法》。
这本教材的内容十分丰富,但没有陷入“科普”式的堆砌材料的写作方式,由于作者是该领域的权威专家,因此在介绍各种理论和算法时,时刻不忘将不同理论、算法的对比与作者自身的研究成果传授给读者,使读者不至于对如此丰富的理论和算法无所适从。
中文版+英文版PDF已经打包好了,需要的同学看文末
书籍内容
教材介绍了机器学习中重要的理论和关键的算法,讨论了学习的计算复杂度、凸性和稳定性、PAC-贝叶斯方法、压缩界等概念,并介绍了一些重要的算法范式,包括随机梯度下降、神经元网络以及结构化输出。
全书共分为四大块:
第一部分旨在对学习的根本问题给出初步的严谨回答。作者描述了PAC学习模型的一种泛化,还描述了经验风险最小化(ERM)、结构风险最小化(SRM)和最小描述长度(MDL)学习规则。作者使用ERM、SRM和MDL规则来量化学习所需的数据量,并通过推导出一个“无免费午餐”定理来展示学习可能失败的方式。
值得一提的是,这部分的内容非常有特色,也是非常重要的一部分。部分内容从更高的观点和更深的层次探讨机器学习的许多理论基础,引入对指导理论研究和实际应用都至关重要的概率近似正确(PAC)学习理论。从某种意义上来说,只有懂得了该部分,才可能透彻地理解和更好地运用其他章节的内容。
第二部分描述了各种学习算法。对于某些算法,作者首先呈现一个更通用的学习原则,然后展示该算法是如何遵循该原则的。
前两部分集中在PAC模型上,第三部分则通过介绍更多样的学习模型扩展了范围。
最后,教材的第四部分致力于高级理论。
目录:
-
Introduction
- Part I: Foundations
-
A gentle start
-
A formal learning model
-
Learning via uniform convergence
-
The bias-complexity trade-off
-
The VC-dimension
-
Non-uniform learnability
-
The runtime of learning
-
- Part II: From Theory to Algorithms
-
Linear predictors
-
Boosting
-
Model selection and validation
-
Convex learning problems
-
Regularization and stability
-
Stochastic gradient descent
-
Support vector machines
-
Kernel methods
-
Multiclass, ranking, and complex prediction problems
-
Decision trees
-
Nearest neighbor
-
Neural networks
-
- Part III: Additional Learning Models
-
Online learning
-
Clustering
-
Dimensionality reduction
-
Generative models
-
Feature selection and generation
-
- Part IV: Advanced Theory
-
Rademacher complexities
-
Covering numbers
-
Proof of the fundamental theorem of learning theory
-
Multiclass learnability
-
Compression bounds
-
PAC-Bayes
-
- Appendices
-
Technical lemmas
-
Measure concentration
-
Linear algebra
-
页面展示
关注下方《学姐带你玩AI》🚀🚀🚀
回复“硬核书”获取中文版+英文版完整PDF
码字不易,欢迎大家点赞评论收藏