精益修身
2022/11/22阅读:24主题:橙心
机器学习数学基础学习笔记
机器学习数学基础学习笔记
1、 微积分
1.1 导数
一阶导数,是函数 的切线斜率
二阶导数,是切线斜率的变化速度,即曲线的弯曲程度,也称为“曲率”(curvature)
1.2 偏导数
-
偏导数,是多元函数 关于某个自变量 的导数,定义为:
-
梯度向量,gradient vector 将多元函数 的所有偏导数写成一个列向量,即是梯度向量。
-
二阶偏导数
-
混合偏导数
混合偏导数和求导顺序无关,二阶偏导数连续的时候,则有
-
海塞矩阵 多元函数的所有二阶偏导数就是海塞矩阵(Hessian Matrix):
-
雅各比矩阵 假定有值函数:
雅各比矩阵就是值函数的梯度向量,其重要意义在于它表现了一个多变数向量函数的最佳线性逼近。
1.3 方向导数 directional derivative
梯度和方向向量的点乘,就是方向导数 方向导数需要除以方向向量的模
-
命题1:梯度向量
-
命题2:梯度向量和contour set 正交
1.4 向量微分
-
线性函数的微分 -
二次型的微分
-
复合函数的向量微分
2、最优化
2.1 一元最优化
-
无条件 一阶条件(first order condition): -
最小化: -
最大化:
2.2 多元最优化
问题:
二阶条件:海塞矩阵半正定,表明在局部最小值处,函数是凸函数(convex function)。
2.2 约束极值问题
-
单个约束条件 问题:
解决办法:构造拉格朗日函数Lagrangian function 几何解释;
在最优解
-
多个约束条件 与单个类似 问题:
构造拉格朗日函数:
一阶条件:
其中
-
-
目标函数的梯度向量是各约束条件梯度向量的线性组合, -
约束极值问题的最优解
-
非负约束 问题:

最优解有两种情况,要么是内点解(interior solution),要么是角点解(corner solution)。 在内点解时,
此为互补松弛条件(complementary slachness conditions): 最优化的一阶条件:
-
不等式约束 问题:
库恩塔克条件:
2.3 最优化算法
-
梯度下降法: -
最速下降法: 每次迭代都求最优的步长 -
牛顿-拉夫森法 令
牛顿法是二阶收敛,效率更高,但是如果初始值选择不恰当,有可能会不收敛。
3、线性代数
3.1 范数
1-范数是曼哈顿距离; 2-范数是欧几里得距离; 2-范数的平方就是内积。
3.2 向量空间
-
列空间由列向量张成(sppanned),其维度等于列秩 -
行空间由行向量张成,其维度等于行秩
3.3 谱分解
将矩阵A分解为n个外积
参考文献
-
陈强. 机器学习及python应用[M]北京:高等教育出版社, 2021
分类:
后端标签:
后端作者介绍