首发于SIGAI
机器学习与深度学习习题集答案-2

机器学习与深度学习习题集答案-2

其它机器学习、深度学习算法的全面系统讲解可以阅读《机器学习-原理、算法与应用》,清华大学出版社,雷明著,由SIGAI公众号作者倾力打造。

本文PDF全文链接:机器学习与深度学习习题集答案-2

本文是机器学习和深度学习习题集答案的第2部分,也是《机器学习-原理、算法与应用》一书的配套产品。此习题集可用于高校的机器学习与深度学习教学,以及在职人员面试准备时使用。


第8章 线性判别分析

1.解释LDA的原理。

LDA是有监督的降维算法,它将数据向量向最大化类间差异,最小化类内差异的方向投影。

2.推导两个类和二维时LDA的投影矩阵计算公式。

假设有n个样本,它们的特征向量为 x_{i} ,这些样本属于两个类。属于类 C_{1} 的样本集为 D_{1} ,有 n_{1} 个样本;属于类 C_{2} 的样本集为 D_{2} ,有 n_{2} 个样本。投影向量为 w ,所有向量对该向量做投影可以得到一个标量

y=\mathbf{w}^{\mathrm{T}} \mathbf{x}


投影运算产生 n 个标量,分属于与 C_{1}C_{2} 相对应的两个集合 Y_{1}Y_{2}

类间差异用投影后两个类的中心的距离而定义

\left|\widetilde{m}_{1}-\widetilde{m}_{2}\right|=\left|\mathbf{w}^{\mathrm{T}}\left(\mathbf{m}_{1}-\mathbf{m}_{2}\right)\right|


其中投影之前每类样本的均值为

\mathbf{m}_{i}=\frac{1}{n_{i}} \sum_{\mathbf{x} \in D_{i}} \mathbf{x}


类内差异由每个类的类内散布之和而定义,类内散布定义为

\tilde{s}_{i}^{2}=\sum_{y \in Y_{i}}\left(y-\tilde{m}_{i}\right)^{2}


LDA寻找投影方向的目标是使得类间差异与类内差异的比值最大化

L(\mathbf{w})=\frac{\left(\widetilde{m}_{1}-\widetilde{m}_{2}\right)^{2}}{\underset{S_{1}}{\sim}_{1}^{2}+\widetilde{S}_{2}^{2}}


定义类内散布矩阵为

\mathbf{S}_{i}=\sum_{\mathbf{x} \in D_{i}}\left(\mathbf{x}-\mathbf{m}_{i}\right)\left(\mathbf{x}-\mathbf{m}_{i}\right)^{\mathrm{T}}


总类内散布矩阵为:

S_{W}=S_{1}+S_{2}


各个类的类内散布可以写成

\begin{aligned} \tilde{s}_{i}^{2} &=\sum_{\mathbf{x} \in D_{i}}\left(\mathbf{w}^{\mathrm{T}} \mathbf{x}-\mathbf{w}^{\mathrm{T}} \mathbf{m}_{i}\right)^{2} \\ &=\sum_{\mathbf{x} \in D_{i}} \mathbf{w}^{\mathrm{T}}\left(\mathbf{x}-\mathbf{m}_{i}\right)\left(\mathbf{x}-\mathbf{m}_{i}\right)^{\mathrm{T}} \mathbf{w} \\ &=\mathbf{w}^{\mathrm{T}} \mathbf{S}_{i} \mathbf{w} \end{aligned}


各类的散布之和可以写成

\tilde{s}_{1}^{2}+\tilde{s}_{2}^{2}=W^{T}S_{W}W


各类样本的均值之差可以写成

\left(\widetilde{m}_{1}-\widetilde{m}_{2}\right)^{2}=\left(\mathbf{w}^{\mathrm{T}}\left(\mathbf{m}_{1}-\mathbf{m}_{2}\right)\right)^{2}=\mathbf{w}^{\mathrm{T}}\left(\mathbf{m}_{1}-\mathbf{m}_{2}\right)\left(\mathbf{m}_{1}-\mathbf{m}_{2}\right)^{\mathrm{T}} \mathbf{w}


如果定义类间散布矩阵

S_{B}=(m_{1}-m_{2})(m_{1}-m_{2})^{T}


则类间差异可以写成

\left(\widetilde{m}_{1}-\widetilde{m}_{2}\right)^{2}=w^{T}S_{B}W


要优化的目标函数可以写为

L(\mathbf{w})=\frac{\mathbf{w}^{\mathrm{T}} \mathbf{S}_{B} \mathbf{w}}{\mathbf{w}^{\mathrm{T}} \mathbf{S}_{W} \mathbf{w}}


这个最优化问题的解不唯一,如果 W^{*} 是最优解,将它乘上一个非零系数K之后, kW^{*}

还是最优解。可以加上一个约束条件消掉冗余,同时简化问题。为 w 加上如下约束

w^{T}S_{W}W=1


上面的最优化问题转化为带等式约束的极大值问题:

maxW^{T}S_{B}W\\W^{T}S_{W}W=1


用拉格朗日乘数法求解。构造拉格朗日乘子函数:

L(\mathbf{w}, \lambda)=\mathbf{w}^{\mathrm{T}} \mathbf{S}_{B} \mathbf{w}+\lambda\left(\mathbf{w}^{\mathrm{T}} \mathbf{S}_{W} \mathbf{w}-1\right)


w 求梯度并令梯度为0,可以得到:


\mathbf{S}_{B} \mathbf{w}+\lambda \mathbf{S}_{W} \mathbf{W}=0

\mathbf{S}_{B} \mathbf{w}=\lambda \mathbf{S}_{W} \mathbf{W}

如果 S_{W}

可逆,上式两边左乘 S^{-1}_{w}

后可以得到

S^{-1}_{W}S_{B}w=\lambda w


\lambda 是矩阵 S^{-1}_{w}S_{B} 的特征值, w

为对应的特征向量。假设 \lambda 和w是上面特征值问题的解,代入目标函数可以得到

\frac{\mathbf{w}^{\mathrm{T}} \mathbf{S}_{B} \mathbf{w}}{\mathbf{w}^{\mathrm{T}} \mathbf{S}_{w} \mathbf{w}}=\frac{\mathbf{w}^{\mathrm{T}}\left(\lambda \mathbf{S}_{w} \mathbf{w}\right)}{\mathbf{w}^{\mathrm{T}} \mathbf{S}_{w} \mathbf{w}}=\lambda

这里的目标是要让该比值最大化,因此最大的特征值 \lambda 及其对应的特征向量是最优解。

3.解释LDA降维算法的流程。

首先计算投影矩阵,流程为:

1.计算各个类的均值向量与总均值向量。

2.计算类间散布矩阵 S_{B} ,类内散布矩阵 S_{W}

3.计算矩阵乘法 S_{W}^{-1}S_{B}

4.对 S_{W}^{-1}S_{B} 进行特征值分解,得到特征值和特征向量。

5.对特征值从大到小排序,截取部分特征值和特征向量构成投影矩阵。

接下来进行降维,流程为:

1.将样本减掉均值向量。

2.左乘投影矩阵,得到降维后的向量。

4.解释LDA重构算法的流程。

1.输入向量左乘投影矩阵的转置矩阵。

2.加上均值向量,得到重构后的结果。

5.LDA是有监督学习还是无监督学习?

LDA利用了每个样本的类别标签,是有监督学习算法。

第9章 人工神经网络

1.神经网络为什么需要激活函数?

保证神经网络的映射是非线性的,如果不使用激活函数,无论神经网络有多少层,其所表示的复合函数还是一个线性函数。

2.推导sigmoid函数的导数计算公式。

sigmoid函数定义为

f(x)=\frac{1}{1+e^{-x}}

其导数为

\begin{aligned} f^{\prime}(x) &=-\frac{1}{\left(1+e^{-x}\right)^{2}}\left(1+e^{-x}\right)^{\prime} \\ &=-\frac{1}{\left(1+e^{-x}\right)^{2}}\left(e^{-x}\right)^{\prime} \\ &=-\frac{1}{\left(1+e^{-x}\right)^{2}}\left(e^{-x}\right)(-x)^{\prime} \\ &=\frac{e^{-x}}{\left(1+e^{-x}\right)^{2}} \end{aligned}


\frac{e^{-x}}{\left(1+e^{-x}\right)^{2}}=\frac{1}{1+e^{-x}} \frac{e^{-x}}{1+e^{-x}}=\frac{1}{1+e^{-x}}\left(1-\frac{1}{1+e^{-x}}\right)


因此

f^{'}(x)=f(x)(1-f(x))


3.激活函数需要满足什么数学条件?

激活函数需要满足:

1.非线性。保证神经网络实现的映射是非线性的。

2.几乎处处可导。保证可以用梯度下降法等基于导数的算法进行训练。

3.单调递增或者递减。保证满足万能逼近定理的要求,且目标函数有较好的特性。

4.为什么激活函数只要求几乎处处可导而不需要在所有点处可导?

如果将激活函数的输入值看作连续型随机变量,如果激活函数几乎处处可导,则在训练时激活函数的输入值落在不可导点处的概率为0。

5.什么是梯度消失问题,为什么会出现梯度消失问题?

在用反向传播算法计算误差项时每一层都要乘以本层激活函数的导数

\boldsymbol{\delta}^{(l)}=\left(\mathbf{W}^{(l+1)}\right)^{\mathrm{T}} \boldsymbol{\delta}^{(l+1)} \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)


如果激活函数导数的绝对值小于1,多次连乘之后误差项很快会衰减到接近于0,参数的梯度值由误差项计算得到,从而导致前面层的权重梯度接近于0,参数无法有效的更新,称为梯度消失问题。

6.如果特征向量中有类别型特征,使用神经网络时应该如何处理?

通常采用one hot编码,而不直接将类别编号整数值作为神经网络的输入。

7.对于多分类问题,神经网络的输出值应该如何设计?

类别标签通常采用one hot编码,输出层的神经元个数等于类别数。

8.神经网络参数的初始值如何设定?

一般用随机数进行初始化。

9.如果采用欧氏距离损失函数,推导输出层的梯度值。推导隐含层参数梯度的计算公式。

使用均方误差,则优化的目标为:

L(W)=\frac{1}{2 m} \sum_{i=1}^{m}\left\|h\left(\mathbf{x}_{i}\right)-\mathbf{y}_{i}\right\|^{2}


下面对单个样本的损失进行推导。神经网络每一层的变换为

\begin{aligned} &\mathbf{u}^{(l)}=\mathbf{W}^{(l)} \mathbf{x}^{(l-1)}+\mathbf{b}^{(l)}\\ &\mathbf{x}^{(l)}=f\left(\mathbf{u}^{(l)}\right) \end{aligned}


对单个样本 (x_{i},y_{i}) 的损失函数为

L\left(W, \mathbf{x}_{i}, \mathbf{y}_{i}\right)=\frac{1}{2}\left\|h\left(\mathbf{x}_{i}\right)-\mathbf{y}_{i}\right\|^{2}


如果第 l 层是输出层,损失函数对输出层的临时变量的梯度为

\nabla_{\mathbf{u}^{(l)}} L=\left(\nabla_{\mathbf{x}^{(l)}} L\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)=\left(\mathbf{x}^{(l)}-\mathbf{y}\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)


损失函数对输出层权重的梯度为

\nabla_{\mathbf{w}^{(i)}} L=\left(\mathbf{x}^{(l)}-\mathbf{y}\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)\left(\mathbf{x}^{(l-1)}\right)^{\mathrm{T}}


损失函数对偏置项的梯度为

\nabla_{\mathbf{b}^{(i)}} L=\left(\mathbf{x}^{(i)}-\mathbf{y}\right) \odot f^{\prime}\left(\mathbf{u}^{(i)}\right)


如果第 l 层是隐含层,则有

\mathbf{u}^{(l+1)}=\mathbf{W}^{(l+1)} \mathbf{x}^{(l)}+\mathbf{b}^{(l+1)}=\mathbf{W}^{(l+1)} f\left(\mathbf{u}^{(l)}\right)+\mathbf{b}^{(l+1)}


假设梯度 \nabla_{\mathbf{u}^{(l+1)}} L 已经求出,有

\nabla_{\mathbf{u}^{(l)}} L=\left(\nabla_{\mathbf{x}^{(l)}} L\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)=\left(\left(\mathbf{W}^{(l+1)}\right)^{\mathrm{T}} \nabla_{\mathbf{u}^{(+1)}} L\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)

通过 \nabla_{\mathbf{u}^{(l+1)}} L 可以递推地计算出 \nabla_{\mathbf{u}^{(l)}} L ,递推的终点是输出层,输出层的梯度值之前已经算出。根据 \nabla_{\mathbf{u}^{(l)}} L 可以计算出 \nabla_{\mathbf{w}^{(l)}} L\nabla_{\mathbf{b}^{(l)}} L ,因此可以计算出任意层权重与偏置的梯度值。

定义误差项为损失函数对临时变量 u 的梯度

\boldsymbol{\delta}^{(l)}=\nabla_{\mathbf{u}^{(l)}} L=\left\{\begin{array}{ll} {\left(\mathbf{x}^{(l)}-\mathbf{y}\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)} & {l=n_{l}} \\ {\left(\mathbf{W}^{(l+1)}\right)^{\mathrm{T}}\left(\boldsymbol{\delta}^{(l+1)}\right) \odot f^{\prime}\left(\mathbf{u}^{(l)}\right)} & {l \neq n_{l}} \end{array}\right.


从输出层开始,利用上面的递推公式可以计算出每一层的误差项。根据每一层的误差项可以计算出损失函数对该层权重矩阵以及偏置项的梯度。对权重矩阵的梯度为

\nabla_{\mathbf{w}^{(i)}} L=\mathbf{\delta}^{(l)}\left(\mathbf{x}^{(l-1)}\right)^{\mathrm{T}}


对偏置项的梯度为

\nabla_{\mathbf{w}^{(i)}} L=\mathbf{\delta}^{(l)}


计算出损失函数对每一层参数的梯度值之后,可以用梯度下降法进行参数更新。

10.如果采用softmax+交叉熵的方案,推导损失函数对softmax输入变量的梯度值。

softmax变换为

y_{i}^{*}=\frac{\exp \left(x_{i}\right)}{\sum_{k=1}^{K} \exp \left(x_{k}\right)}


其中 x 是本层的输入向量, y^{*} 是概率估计向量, y 是样本的真实标签值。交叉熵损失函数定义为

L=-y^{T}log y^{*}


样本的类别标签中只有一个分量为1,其他都是0,这在第11.4节中已经介绍过。假设标签向量的第 j 个分量为1,该函数的导数为:

\frac{\partial L}{\partial x_{i}}=-\frac{1}{y_{j}^{*}} \frac{\partial y_{j}^{*}}{\partial x_{i}}


下面分两种情况讨论。如果 i=j

y_{i}=1

,有:

\begin{aligned} \frac{\partial L}{\partial x_{i}} &=-\frac{1}{y_{i}^{*}} \times \frac{\exp \left(x_{i}\right) \sum_{k=1}^{K} \exp \left(x_{k}\right)-\exp \left(x_{i}\right) \exp \left(x_{i}\right)}{\left(\sum_{k=1}^{K} \exp \left(x_{k}\right)\right)^{2}} \\ &=-\frac{\sum_{k=1}^{K} \exp \left(x_{k}\right)}{\exp \left(x_{i}\right)} \times \frac{\exp \left(x_{i}\right)\left(\sum_{k=1}^{K} \exp \left(x_{k}\right)-\exp \left(x_{i}\right)\right)}{\left(\sum_{k=1}^{K} \exp \left(x_{k}\right)\right)^{2}} \\ &=-\frac{\sum_{j=k}^{K} \exp \left(x_{k}\right)-\exp \left(x_{i}\right)}{\sum_{k=1}^{K} \exp \left(x_{k}\right)}=-\left(1-y_{i}^{*}\right)=y_{i}^{*}-y_{i} \end{aligned}


否则有:

\frac{\partial L}{\partial x_{i}}=\frac{1}{y_{j}^{*}} \times \frac{\exp \left(x_{j}\right) \exp \left(x_{i}\right)}{\left(\sum_{k=1}^{K} \exp \left(x_{k}\right)\right)^{2}}=\frac{\sum_{k=1}^{K} \exp \left(x_{k}\right)}{\exp \left(x_{j}\right)} \times \frac{\exp \left(x_{j}\right) \exp \left(x_{i}\right)}{\left(\sum_{k=1}^{K} \exp \left(x_{k}\right)\right)^{2}}=\frac{\exp \left(x_{i}\right)}{\sum_{k=1}^{K} \exp \left(x_{k}\right)}=y_{i}^{*}


此时 y_{i}=0 。将两种情况合并起来写成向量形式为:

\nabla_{\mathbf{x}} L=y^{*}-y


11.解释动量项的原理。

动量项累积了之前的权重更新值,加上此项之后的参数更新公式为

W_{t+1}=W_{t}+V_{t+1}


其中 V_{t+1}

是动量项,计算公式为

V_{t+1}=-\alpha \nabla_{W} L\left(W_{t}\right)+\mu V_{t}


它是上一时刻的动量项与本次梯度值的加权平均值,其中 \alpha 是学习率, \mu 是动量项系数。如果按照时间 t 进行展开,则第 t 次迭代时使用了从1到 t 次迭代时的所有梯度值,且老的梯度值安 \mu^{t} 的系数指数级衰减。动量项是为了加快梯度下降法的收敛,它使用历史信息对当前梯度值进行修正,以抵消在病态条件问题上的来回震荡。

12.列举神经网络的正则化技术。

典型的正则化技术包括:

L1,L2或者谱正则化

Dropout

提前终止

13.推导ReLU函数导数计算公式。

ReLU函数定义为

f(x)=max(0,x)


它在0点处不可导,如果忽略该点,导数为

\operatorname{ReLU}^{\prime}(x)=\left\{\begin{array}{ll} {1} & {x>0} \\ {0} & {x \leq 0} \end{array}\right.


14.神经网络训练时的目标函数是否为凸函数?

一般情况下不是凸函数。因此面临局部极小值和鞍点问题。

第10章 支持向量机

1.推导线性可分时SVM的原问题:

\begin{aligned} &\min \frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}\\ &y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \geq 1 \end{aligned}


假设训练样本集有 l 个样本,特征向量 x_{i}n 维向量,类别标签 y_{i} 取值为+1或者-1,分别对应正样本和负样本。支持向量机预测函数的超平面方程为

w^{T}x+b=0


首先要保证每个样本都被正确分类。对于正样本有


w^{T}x+b\geq0

对于负样本有

w^{T}x+b<0


由于正样本的的类别标签为+1,负样本的类别标签为-1,可以统一写成

y_{i}(w^{T}x_{i}+b)\geq0


第二个要求是超平面离两类样本的距离要尽可能大。根据点到平面的距离公式,每个样本离分类超平面的距离为

d=\frac{\left|\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right|}{\|\mathrm{w}\|}


上面的超平面方程有冗余,将方程两边都乘以不等于0的常数,还是同一个超平面,利用这个特点可以简化求解的问题。对 wb 加上如下约束

\min _{x_{i}}\left|\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right|=1


可以消掉这个冗余。这样对分类超平面的约束变成

y_{i}(w^{T}x_{i}+b)\geq1


分类超平面与两类样本之间的间隔为

\begin{aligned} d(\mathrm{w}, b) &=\min _{x_{i}, y_{i}=1} d\left(\mathrm{w}, b ; \mathrm{x}_{i}\right)+\min _{x_{i}, y_{i}=1} d\left(\mathrm{w}, b ; \mathrm{x}_{i}\right) \\ &=\min _{x_{i}, y_{i}=1} \frac{\left|\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right|}{\|\mathrm{w}\|}+\min _{x_{i}, y_{i}=1} \frac{\left|\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right|}{\|\mathrm{w}\|} \\ &=\frac{1}{\|\mathrm{w}\|}\left(\min _{x_{i}, y_{i}=-1}\left|\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right|+\min _{x_{i}, y_{i}=1}\left|\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right|\right) \\ &=\frac{2}{\|\mathrm{w}\|} \end{aligned}


目标是使得这个间隔最大化,这等价于最小化下面的目标函数

\frac{1}{2}\|\mathrm{w}\|^{2}


加上前面定义的约束条件之后,求解的优化问题可以写成

min\frac{1}{2}W^{T}W\\y_{i}(w^{T}x_{i}+b)\geq1


2.证明线性可分时SVM的原问题是凸优化问题且Slater条件成立

min\frac{1}{2}W^{T}W\\y_{i}(w^{T}x_{i}+b)\geq1


目标函数的Hessian矩阵是 n 阶单位矩阵,是严格正定矩阵,因此目标函数是严格凸函数。可行域是由线性不等式围成的区域,是一个凸集。因此这个优化问题是一个凸优化问题。

由于假设数据是线性可分的,因此一定存在 wb 使得不等式约束严格满足。如果 wb

是一个可行解

y_{i}(w^{T}x_{i}+b)\geq1


2w2b 也是可行解,且是严格可行的

y_{i}(2w^{T}x_{i}+2b)\geq2\geq1


Slater条件成立。

3.推导线性可分时SVM的对偶问题

\begin{aligned} &\min _{\alpha} \frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}-\sum_{i=1}^{l} \alpha_{i}\\ &\alpha_{i} \geq 0, i=1, \ldots, l\\ &\sum_{i=1}^{l} \alpha_{i} y_{i}=0 \end{aligned}


为原问题造拉格朗日函数

L(\mathrm{w}, b, \alpha)=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\sum_{i=1}^{l} \alpha_{i}\left(y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)-1\right)


约束条件为 \alpha_{i}\geq0

先固定住拉格朗日乘子 \alpha ,调整 wb ,使得拉格朗日函数取极小值。把 \alpha 看成常数,对 wb

求偏导数并令它们为0,得到如下方程组

\begin{aligned} &\frac{\partial L}{\partial b}=0\\ &\nabla_{\mathrm{w}} L=0 \end{aligned}


从而解得

\begin{aligned} &\sum_{i=1}^{l} \alpha_{i} y_{i}=0\\ &\mathrm{w}=\sum_{i=1}^{l} \alpha_{i} y_{i} \mathrm{x}_{i} \end{aligned}


将上面两个解代入拉格朗日函数消掉 wb


\begin{array}{l} {\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\sum_{i=1}^{l} \alpha_{i}\left(y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)-1\right)} \\ {\quad=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\sum_{i=1}^{l}\left(\alpha_{i} y_{i} \mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+\alpha_{i} y_{i} b-\alpha_{i}\right)} \\ {\quad=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\sum_{i=1}^{l} \alpha_{i} y_{i} \mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}-\sum_{i=1}^{l} \alpha_{i} y_{i} b+\sum_{i=1}^{l} \alpha_{i}} \\ {\quad=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\mathrm{w}^{\mathrm{T}} \sum_{i=1}^{l} \alpha_{i} y_{i} \mathrm{x}_{i}-b \sum_{i=1}^{l} \alpha_{i} y_{i} b+\sum_{i=1}^{l} \alpha_{i}} \\ {\quad=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\mathrm{w}^{\mathrm{T}} \mathrm{w}+\sum_{i=1}^{l} \alpha_{i}} \\= {-\frac{1}{2}\left(\sum_{i=1}^{l} \alpha_{i} y_{i} \mathrm{x}_{i}\right)^{\mathrm{T}}\left(\sum_{j=1}^{l} \alpha_{j} y_{j} \mathrm{x}_{j}\right)+\sum_{i=1}^{l} \alpha_{i}} \end{array}


接下来调整乘子变量 \alpha ,使得目标函数取极大值

\max _{\alpha}-\frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}+\sum_{i=1}^{l} \alpha_{i}


这等价于最小化下面的函数

\min _{\alpha}-\frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}-\sum_{i=1}^{l} \alpha_{i}


约束条件为

\begin{aligned} &\alpha_{i} \geq 0, i=1, \dots, l\\ &\sum_{i=1}^{l} \alpha_{i} y_{i}=0 \end{aligned}


4.证明加入松弛变量和惩罚因子之后,SVM的原问题是凸优化问题且Slater条件成立:

\begin{aligned} &\min \frac{1}{2} \mathbf{w}^{\mathrm{T}} \mathbf{w}+C \sum_{i=1}^{l} \xi_{i}\\ &y_{i}\left(\mathbf{w}^{\mathrm{T}} \mathbf{x}_{i}+b\right) \geq 1-\xi_{i}\\ &\xi_{i} \geq 0, i=1, \dots, l \end{aligned}


目标函数的前半部分是凸函数,后半部分是线性函数显然也是凸函数,两个凸函数的非负线性组合还是凸函数。上面优化问题的不等式约束都是线性约束,构成的可行域显然是凸集。因此该优化问题是凸优化问题。

如果令 w=0,b=0,\xi_{i}=2 ,这是一组可行解,且有

y_{i}\left(\mathbf{w}^{\mathrm{T}} \mathbf{x}_{i}+b\right)=0>1-\xi_{i}=1-2=-1


不等式条件严格满足,因此上述问题满足Slater条件。

5.推导线性不可分时SVM的对偶问题:

\begin{aligned} &\min _{\alpha} \frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}-\sum_{i=1}^{l} \alpha_{i}\\ &0 \leq \alpha_{i} \leq C\\ &\sum_{j=1}^{l} \alpha_{j} y_{j}=0 \end{aligned}


构造拉格朗日函数:

L(\mathrm{w}, b, \alpha, \xi, \beta)=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}+C \sum_{i=1}^{l} \xi_{i}-\sum_{i=1}^{l} \alpha_{i}\left(y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)-1+\xi_{i}\right)-\sum_{i=1}^{l} \beta_{\ell} \xi_{i}


首先固定住乘子变量 \alpha\beta ,对 w,b,\xi 求偏导数并令它们为0,得到如下方程组

\begin{aligned} &\frac{\partial L}{\partial b}=0\\ &\nabla_{\xi} L=0\\ &\nabla_{\mathrm{w}} L=0 \end{aligned}


解得

\begin{aligned} &\sum_{i=1}^{l} \alpha_{i} y_{i}=0\\ &\alpha_{i}+\beta_{i}=C\\ &\mathrm{w}=\sum_{i=1}^{l} \alpha_{i} y_{i} \mathrm{x}_{i} \end{aligned}


将上面的解代入拉格朗日函数中,得到关于 \alpha\beta 的函数

\begin{aligned} &L(\mathrm{w}, b, \alpha, \xi, \beta)=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}+C \sum_{i=1}^{l} \xi_{i}-\sum_{i=1}^{l} \alpha_{i}\left(y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)-1+\xi_{i}\right)-\sum_{i=1}^{l} \beta_{i} \xi_{i}\\ &=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}+C \sum_{i=1}^{l} \xi_{i}-\sum_{i=1}^{l} \beta_{i} \xi_{i}-\sum_{i=1}^{l} \alpha_{i} \xi_{i}-\sum_{i=1}^{l} \alpha_{i}\left(y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)-1\right)\\ &=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}+\sum_{i=1}^{l}\left(C-\alpha_{i}-\beta_{i}\right) \xi_{i}-\sum_{i=1}^{l}\left(\alpha_{i} y_{i} \mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+\alpha_{i} y_{i} b-\alpha_{i}\right)\\ &=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\sum_{i=1}^{l} \alpha_{i} y_{i} \mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}-\sum_{i=1}^{l} \alpha_{i} y_{i} b+\sum_{i=1}^{l} \alpha_{i}\\ &=\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}-\mathrm{w}^{\mathrm{T}} \mathrm{w}+\sum_{i=1}^{l} \alpha_{i}\\ &=-\frac{1}{2} \mathrm{w}^{\mathrm{T}} \mathrm{w}+\sum_{i=1}^{l} \alpha_{i}\\ &=-\frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}+\sum_{i=1}^{l} \alpha_{i} \end{aligned}


接下来调整乘子变量求解如下最大化问题

\max _{\alpha}-\frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}+\sum_{i=1}^{l} \alpha_{i}


由于 \alpha_{i}+\beta_{i}=C 并且 \beta_{i}\geq0 ,因此有 \alpha_{i}\leq C 。这等价与如下最优化问题

\begin{aligned} &\min _{\alpha} \frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}-\sum_{i=1}^{l} \alpha_{i}\\ &0 \leq \alpha_{i} \leq C\\ &\sum_{j=1}^{l} \alpha_{j} y_{j}=0 \end{aligned}


6.证明线性不可分时SVM的对偶问题是凸优化问题:

\begin{aligned} &\min _{\alpha} \frac{1}{2} \sum_{i=1}^{l} \sum_{j=1}^{l} \alpha_{i} \alpha_{j} y_{i} y_{j} \mathbf{x}_{i}^{\mathrm{T}} \mathbf{x}_{j}-\sum_{i=1}^{l} \alpha_{i}\\ &0 \leq \alpha_{i} \leq C\\ &\sum_{j=1}^{l} \alpha_{j} y_{j}=0 \end{aligned}


为了简化表述,定义矩阵 Q ,其元素为

Q_{ij}=y_{i}y_{j}X^{T}_{i}x_{j}


对偶问题可以写成矩阵和向量形式

\begin{aligned} &\min _{\alpha} \frac{1}{2} \alpha^{\mathrm{T}} \mathrm{Q} \alpha-\mathrm{e}^{\mathrm{T}} \alpha\\ &0 \leq \alpha_{i} \leq C\\ &\mathrm{y}^{\mathrm{T}} \alpha=0 \end{aligned}


其中 e 是分量全为1的向量, y 是样本的类别标签向量。 Q 可以写成一个矩阵和其自身转置的乘积

Q=X^{T}X


矩阵 X 为所有样本的特征向量分别乘以该样本的标签值组成的矩阵:

\mathrm{X}=\left[y_{1} \mathrm{x}_{1}, \ldots, y_{l} \mathrm{x}_{l}\right]


对于任意非0向量 x 有:

x^{T}Qx=x^{T}(X^{T}X)x=(Xx)^{T}(Xx)\geq0


因此矩阵 Q 半正定,它就是目标函数的Hessian矩阵,目标函数是凸函数。上面问题的等式和不等式约束条件都是线性的,可行域是凸集,故对偶问题也是凸优化问题。

7.用KKT条件证明SVM所有样本满足如下条件:

\begin{aligned} &\alpha_{i}=0 \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \geq 1\\ &0<\alpha_{i}<C \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)=1\\ &\alpha_{i}=C \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \leq 1 \end{aligned}


将KKT条件其应用于原问题,对于原问题中的两组不等式约束,必须满足

\begin{aligned} &\alpha_{i}\left(y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)-1+\xi_{i}\right)=0, i=1, \dots, l\\ &\beta_{i} \xi_{i}=0, i=1, \ldots, l \end{aligned}


对于第一个方程,如果 \alpha_{i}>0

,则必须有 y_{i}(W^{T}x_{i}+b)-1+\xi_{i}=0

,即

y_{i}(W^{T}x_{i}+b)=1-\xi_{i}


而由于 \xi_{i}\geq0

,因此必定有

y_{i}(W^{T}x_{i}+b)\leq1


再看第二种情况。如果 \alpha_{i}=0 ,则对 y_{i}(W^{T}x_{i}+b)-1+\xi_{i}

的值没有约束。由于有 \alpha_{i}+\beta_{i}=C 的约束,因此 \beta_{i}=C ;又因为 \beta_{i}\xi_{i}=0 的限制,如果 \beta_{i}>0 ,则必须有 \xi_{i}=0 。由于原问题中有约束条件 y_{i}(W^{T}x_{i}+b)\geq1-\xi_{i} ,而 \xi_{i}=0 ,因此有

y_{i}(W^{T}x_{i}+b)\geq1


对于 \alpha_{i}>0 的情况,我们又可以细分为 \alpha_{i}<C\alpha_{i}=C 。如果 \alpha_{i}<C ,由于有 \alpha_{i}+\beta_{i}=C 的约束,因此有 \beta_{i}>0 ,因为有 \beta_{i}\xi_{i}=0 的约束,因此 \xi_{i}=0 ,不等式约束 y_{i}(W^{T}x_{i}+b)\geq1-\xi_{i} 变为 y_{i}(W^{T}x_{i}+b)\geq1 。由于 0<\alpha_{i}<C 时既要满足 y_{i}(W^{T}x_{i}+b)\leq1 又要满足 y_{i}(W^{T}x_{i}+b)\geq1 ,因此有

y_{i}(W^{T}x_{i}+b)=1


将三种情况合并起来,在最优点处,所有的样本都必须要满足下面的条件

\begin{aligned} &\alpha_{i}=0 \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \geq 1\\ &0<\alpha_{i}<C \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)=1\\ &\alpha_{i}=C \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \leq 1 \end{aligned}


8.SVM预测函数中的 b 值如何计算?

根据KKT条件,在最优解处有

\begin{aligned} &\alpha_{i}=0 \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \geq 1\\ &0<\alpha_{i}<C \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right)=1\\ &\alpha_{i}=C \Rightarrow y_{i}\left(\mathrm{w}^{\mathrm{T}} \mathrm{x}_{i}+b\right) \leq 1 \end{aligned}


根据第二种情况可以计算出 b 的值。任意满足第二种情况的训练样本均可以计算出此值。

9.解释核函数的原理,列举常用的核函数。

如果样本线性不可分,可以对特征向量进行映射将它转化到更高维的空间,使得在该空间中线性可分。核映射 \phi 将特征向量变换到更高维的空间

z=\phi(x)


在对偶问题中计算的是两个样本向量之间的内积,映射后的向量在对偶问题中为

z^{T}_{i}z_{j}=\phi(x_{i})^{T}\phi(x_{j})


直接计算这个映射效率太低,而且不容易构造映射函数。如果映射函数选取得当,存在函数 k ,使得下面等式成立

K(x_{i},x_{j})=\phi(x_{i})^{T}\phi(x_{j})


这样只需先对向量用函数 k 进行计算,这等价于先对向量做核映射然后再做内积,这将能有效的简化问题的求解。

线性核:

K(x_{i},x_{j})=x^{T}_{i}x_{j}


多项式核:

K(x_{i},x_{j})=(\gamma x^{T}_{i}x_{j}+b)^{d}


径向基函数核/高斯核:

K\left(\mathrm{x}_{i}, \mathrm{x}_{j}\right)=\exp \left(-\gamma\left\|\mathrm{x}_{i}-\mathrm{x}_{j}\right\|^{2}\right)


sigmoid核:

K(x_{i},x_{j})=tanh(\gamma x_{i}^{T}x_{j}+b)


10.什么样的函数可以作为核函数?

一个对称函数 K(x,y) 是核函数的条件是对任意的有限个样本的样本集,核矩阵半正定。核矩阵的元素是由样本集中任意两个样本的内积构造的一个数

K_{ij}=K(x_{i},x_{j})


11.解释SMO算法的原理。

SMO算法是一种分治法,每次挑选出两个变量进行优化,这个子问题可以得到解析解,而一个带等式和不等式约束的二次函数极值问题。

12.SMO算法如何挑选子问题的优化变量?

第一个变量的选择方法是在训练样本中选取违反KKT条件最严重的那个样本。首先遍历所有满足约束条件 0<\alpha_{i}<C 的样本点,检查它们是否满足KKT条件。如果都满足KKT条件,则遍历整个训练样本集,判断它们是否满足KKT条件,直到找到一个违反KKT条件的变量 \alpha_{i}

找到这个变量之后,接下来寻找 \alpha_{j} ,选择的标准是使得 \alpha_{j} 有足够大的变化,选择使得 丨E_{i}-E_{j}丨 最大的 \alpha_{j} 。由于 \alpha_{i} 已经确定,因此 E_{i} 已知。如果 E_{i}>0 ,则选择最小的 E_{j} ;否则选择最大的 E_{j} 。其中

E_{i}=u_{i}-y_{i}


以及

u_{i}=\sum_{j=1}^{l} y_{j} \alpha_{j} K\left(\mathrm{x}_{i}, \mathrm{x}_{j}\right)+b


13.证明SMO算法中子问题是凸优化问题。

两个变量的目标函数的Hessian为

\left[\begin{array}{ll} {Q_{i i}} & {Q_{i j}} \\ {Q_{j i}} & {Q_{i j}} \end{array}\right]


如果是线性核,这个矩阵也可以写成一个矩阵和它的转置的乘积形式

\left[\begin{array}{c} {y_{i} \mathbf{x}_{i}^{\mathrm{T}}} \\ {y_{i} \mathbf{x}_{i}^{\mathrm{T}}} \end{array}\right]\left[y_{i} \mathbf{x}_{i}, y_{i} \mathbf{x}_{j}\right]=\mathbf{A}^{\mathrm{T}} \mathbf{A}


矩阵 A 为训练样本特征向量乘上类别标签形成的矩阵。显然这个Hessian矩阵是半正定的,因此必定有 \eta\geq0 。如果是非线性核,因为核函数相当于对两个核映射之后的向量做内积,因此上面的结论同样成立。

14.证明SMO算法能够收敛。

无论本次迭代时 \alpha_{i}\alpha_{j} 的初始值是多少,通过上面的子问题求解算法得到是在可行域里的最小值,因此每次求解更新这两个变量的值之后,都能保证目标函数值小于或者等于初始值,即函数值下降,所以SMO算法能保证收敛。

15.SVM如何解决多分类问题?

对于多分类问题,可以用二分类器的组合来解决,有以下几种方案:

1对剩余方案。对于有 k 个类的分类问题,训练 k 个二分类器。训练时第 i 个分类器的正样本是第 i 类样本,负样本是除第 i 类之外其他类型的样本,这个分类器的作用是判断样本是否属于第 i 类。在进行分类时,对于待预测样本,用每个分类器计算输出值,取输出值最大那个作为预测结果。对于3个类的分类问题,这种方案如下图所示


其中黑色样本为待预测样本,三条线分别为此方案的3个分类器。

1对1方案。如果有 k 个类,训练 C_{k}^{2} 个二分类器,即这些类两两组合。训练时将第 i 类作为正样本,其他各个类依次作为负样本,总共有 k(k-1)/2

种组合。每个分类器的作用是判断样本是属于第 i 类还是第 j 类。对样本进行分类时采用投票的方法,依次用每个二分类器进行预测,如果判定为第 m 类,则 m类的投票数加1,得票最多的那个类作为最终的判定结果。对于3个类的分类问题,这种方案如下图所示


其中黑色样本为待预测样本,三条线分别为此方案的3个分类器。

编辑于 01-18

文章被以下专栏收录