线性回归(Linear Regression)

线性回归是将输入通过线性变换映射到输出的模型:

y^=x1θ1+x2θ2++xnθn+b

其中,

  • y^ 是预测输出;
  • x 是输入特征;
  • θ 是权重变量;
  • b 是偏置项。

使用线性代数进行描述:

y^=θx+b=θx+b

θx 是向量点积,θx 是矩阵乘法。

为了简化描述,把 bθ 合并在 w 中:

w=[b,θ1,θ2,,θn]

输入则相应地变为:

x=[1,x1,x2,,xn]

从而表达式可以简化为:

y^=wx=wx

线性回归通常使用均方误差(Mean Squared Error,MSE)作为损失函数:

MSE(θ)=1mi=1m(y^iyi)2

θ 的最优解可以通过求逆矩阵的方法求得,也可以使用梯度下降法逼近。

正则化(Regularization)

通过添加正则项对模型的损失函数施加约束,以降低过拟合风险。

通过添加不同的正则项,线性回归可演变成多种回归。

岭回归(Ridge Regression)

正则项为 L2 范数。

J(θ)=MSE(θ)+α12i=1nθi2

其中 α 用来控制正则化程度。

添加 L2 正则化后,θ 的分布会向 0 点集中。

Lasso 回归(Lasso Regression)

正则项为 L1 范数。

J(θ)=MSE(θ)+αi=1n|θi|

添加 L1 正则项后,θ 的分布会变得更加稀疏,也就是会让一些 θ 变为 0,另一些保留。这不经意间完成了特征选择。

弹性网络(Elastic Net)

介于岭回归和 Lasso 回归之间。

J(θ)=MSE(θ)+1r2αi=1nθi2+rαi=1n|θi|

其中 r 用来控制混合比。