一、逻辑回归
1. 逻辑回归模型
2. 求对数似然
3. 梯度更新
二、SVM
参考: https://www.pianshen.com/article/15821257925/
1. 函数间隔和几何间隔
2. 目标函数的推导
3. 引入拉格朗日函数
4. 证明原始问题与对偶问题的关系(此步可省)
5. 求最优解
三、GBDT
每一颗树都去拟合上一颗树的loss对上一棵树的导数(如果loss是最小二乘,即为残差)
四、XGBoost
1. 推导过程梳理
2. 目标函数的构建
3. 叠加式训练
4. 使用泰勒级数近似目标函数
5. 重新定义一棵树
6. 树的复杂度定义
7. 新的目标函数
8. 寻找最好的split
五、softmax反向传播
六、self-attention归一化