机器学习面试笔试知识点-线性回归、逻辑回归Logistics Regression和支持向量机SVM
- 一、线性回归
-
- 1.线性回归的假设函数
- 2.线性回归的损失函数(Loss Function)
-
- 两者区别
- 3.简述岭回归与Lasso回归以及使用场景
- 4.什么场景下用L1、L2正则化
- 5.什么是ElasticNet回归
- 6.ElasticNet回归的使用场景
- 7.线性回归要求因变量服从正态分布?(持保留态度)
- 二、逻辑回归(Logistics Regression)
-
- 1.本质:极大似然估计
- 2.激活函数:Sigmoid
- 3.损失函数:对数损失函数(log loss)
- 4.代价函数:交叉熵(Cross Entropy):
- 5.可以进行多分类吗?
- 6.逻辑回归优缺点
-
- 优
- 缺
- 7.逻辑回归有哪些应用
- 8.逻辑回归为什么要对特征进行离散化。
- 机器学习中的最优化方法
-
- 1.梯度下降法
- 2.牛顿法
- 3.拟牛顿法
- 4.共轭梯度法
- 三、支持向量机(SVM)
-
- 函数间隔
- 几何间隔(geometrical margin)
- 1.损失函数:合页损失函数(Hinge loss)
- 2.为什么要将求解SVM的原始问题转换为其对偶问题?
- 3.支持向量
- 4.带核的SVM为什么能分类非线性问题
- 5.SVM的应用
- 6. 如何选择核函数?
- 7.LR和SVM的联系与区别
- 8.加入松弛变量的SVM的训练误差可以为0吗?
一、线性回归
1.线性回归的假设函数
2.线性回归的损失函数(Loss Function)
MSE(均方误差)
通过梯度下降法或正规方程
求出使得代价函数最小的参数
两者区别
3.简述岭回归与Lasso回归以及使用场景
目的