博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
实现机器学习的循序渐进指南V——支持向量机
阅读量:3527 次
发布时间:2019-05-20

本文共 5735 字,大约阅读时间需要 19 分钟。

目录


 可访问 ,获取本系列完成文章列表。

介绍

支持向量机(SVM)是一种基于特征空间最大边距的分类器。SVM的学习策略是使边际最大,可以转化为凸二次规划问题。在学习SVM算法之前,我先介绍一些术语。

功能边距定义为:对于给定的训练集T和超平面(w,b),超平面(w,b)和样本(xi, yi)之间的功能边距为:

超平面(w,b)和训练集T之间的功能边距是的最小值

功能边距表示分类结果的置信水平。如果超参数(w,b) 按比例变化,例如,(w,b)变为(2w,2b)。虽然超平面没有改变,但功能边距消耗增加了一倍。因此,我们在w上应用一些禁令来定义超平面,例如规范化||w|| = 1。然后,边界称为几何边距:对于给定的训练集T和超平面(w,b),超平面(w,b) 和样本(xi, yi)之间的功能边距为:

类似地,超平面(w,b) 和训练集T之间的几何边距是的最小值

现在,我们可以得出功能边距与几何边距之间的关系:

SVM模型

SVM模型由优化问题,优化算法和分类组成。

优化问题

当数据集可线性分离时,支持向量是最接近超平面的样本,如下所示。

对样品H1H2是之间的支持向量。在H1H2之间的距离被称为硬边距。然后,SVM的优化问题是:

当数据集不是线性可分时,训练集中的一些样本不满足函数余量大于或等于1的条件。为了解决这个问题,我们为每个样本(xi, yi)添加一个松弛变量。然后,约束是: 

同时,为每个松弛变量添加成本。目标函数是:

其中C惩罚系数。当C规模很大时,对错误分类的惩罚将会增加,然而对错误分类的惩罚将会减少。然后,SVM的优化问题是:

支撑向量位于边距的边界上或边界和超平面之间,如下所示。在这种情况下,边距为软边距

当数据集不是线性可分的时,它需要应用内核技巧将数据从原始空间转换为特征空间。内核技巧的函数叫做内核函数,定义如下:

其中是从输入空间到特征空间的映射,即

内核技巧的代码如下所示:

def kernelTransformation(self, data, sample, kernel):        sample_num, feature_dim = np.shape(data)        K = np.zeros([sample_num])        if kernel == "linear":  # linear function            K = np.dot(data, sample.T)        elif kernel == "poly":  # polynomial function            K = (np.dot(data, sample.T) + self.c) ** self.n        elif kernel == "sigmoid":  # sigmoid function            K = np.tanh(self.g * np.dot(data, sample.T) + self.c)        elif kernel == "rbf":  # Gaussian function            for i in range(sample_num):                delta = data[i, :] - sample                K[i] = np.dot(delta, delta.T)            K = np.exp(-self.g * K)        else:            raise NameError('Unrecognized kernel function')        return K

应用内核技巧后,SVM的优化问题是:

其中是拉格朗日因子。

优化算法

用传统的凸二次规划算法求解SVM优化问题是可行的。但是,当训练集很大时,算法将花费很长时间。为了解决这个问题,Platt提出了一种称为顺序最小优化SMO)的有效算法。

SMO是一种启发式算法。当所有变量都遵循KKT条件时,优化问题就解决了。否则,选择两个变量并修复其他变量,并用两个变量构造凸二次规划问题。问题有两个变量:一个选择违反KKT条件的alpha,另一个选择由约束决定。表示,是变量,修复。因此,有如下方法计算:

如果确定,则相应地确定。在SMO的每次迭代中,更新两个变量直到问题解决。然后,SVM的优化问题是:

当只有两个变量时,它是一个简单的二次规划问题,如下所示:

因为约束是:

,因为

优化值如下:

 

其中LH是对角线的下限和上限,其计算公式为:

未切割的优化值如下:

 

其中E 1E 2是预测值g(x)和实际值之间的差值。g(x)定义为:

 

 

到目前为止,我们为获得可行的解决办法:

 

SMO中有两个循环,即外循环和内循环。

外部循环中,选择违反KKT条件的alpha,即

首先,按照搜索样本。如果所有样本都遵循该条件,则搜索整个数据集。

内部循环,先搜索,这使得最大。如果所选择的值没有减少,请首先在边距边界上搜索样本。如果选择的值减少,请停止搜索。否则,搜索整个数据集。如果我们在搜索整个数据集后找到可行的,我们将选择一个新的

在每次迭代中,我们通过如下算式更新b

为方便起见,我们必须存储的值,其计算方法如下:

 

搜索和更新代码如下所示:

def innerLoop(self, i):        Ei = self.calculateErrors(i)        if self.checkKKT(i):            j, Ej = self.selectAplha2(i, Ei)          # select alpha2 according to alpha1            # copy alpha1 and alpha2            old_alpha1 = self.alphas[i]            old_alpha2 = self.alphas[j]            # determine the range of alpha2 L and H      in page of 126            # if y1 != y2    L = max(0, old_alpha2 - old_alpha1),                              H = min(C, C + old_alpha2 - old_alpha1)            # if y1 == y2    L = max(0, old_alpha2 + old_alpha1 - C),                              H = min(C, old_alpha2 + old_alpha1)            if self.train_label[i] != self.train_label[j]:                L = max(0, old_alpha2 - old_alpha1)                H = min(self.C, self.C + old_alpha2 - old_alpha1)            else:                L = max(0, old_alpha2 + old_alpha1 - self.C)                H = min(self.C, old_alpha2 + old_alpha2)            if L == H:                # print("L == H")                return 0            # calculate eta in page of 127 Eq.(7.107)            # eta = K11 + K22 - 2K12            K11 = self.K[i, i]            K12 = self.K[i, j]            K21 = self.K[j, i]            K22 = self.K[j, j]            eta = K11 + K22 - 2 * K12            if eta <= 0:                # print("eta <= 0")                return 0            # update alpha2 and its error in page of 127 Eq.(7.106) and Eq.(7.108)            self.alphas[j] = old_alpha2 + self.train_label[j]*(Ei - Ej)/eta            self.alphas[j] = self.updateAlpha2(self.alphas[j], L, H)            new_alphas2 = self.alphas[j]            self.upadateError(j)            # update the alpha1 and its error in page of 127 Eq.(7.109)            # new_alpha1 = old_alpha1 + y1y2(old_alpha2 - new_alpha2)            new_alphas1 = old_alpha1 + self.train_label[i] *                           self.train_label[j] * (old_alpha2 - new_alphas2)            self.alphas[i] = new_alphas1            self.upadateError(i)            # determine b in page of 130 Eq.(7.115) and Eq.(7.116)            # new_b1 = -E1 - y1K11(new_alpha1 - old_alpha1) -                              y2K21(new_alpha2 - old_alpha2) + old_b            # new_b2 = -E2 - y1K12(new_alpha1 - old_alpha1) -                              y2K22(new_alpha2 - old_alpha2) + old_b            b1 = - Ei - self.train_label[i] * K11 * (old_alpha1 - self.alphas[i]) -                         self.train_label[j] * K21 * (old_alpha2 - self.alphas[j]) + self.b            b2 = - Ej - self.train_label[i] * K12 * (old_alpha1 - self.alphas[i]) -                         self.train_label[j] * K22 * (old_alpha2 - self.alphas[j]) + self.b            if (self.alphas[i] > 0) and (self.alphas[i] < self.C):                self.b = b1            elif (self.alphas[j] > 0) and (self.alphas[j] < self.C):                self.b = b2            else:                self.b = (b1 + b2)/2.0            return 1        else:            return 0

分类

我们可以使用优化的参数进行预测,该参数由下式给出:

 

for i in range(test_num):    kernel_data = self.kernelTransformation(support_vectors, test_data[i, :], self.kernel)    probability[i] = np.dot(kernel_data.T, np.multiply                     (support_vectors_label, support_vectors_alphas)) + self.b    if probability[i] > 0:        prediction[i] = 1    else:        prediction[i] = -1

结论与分析

SVM是一种比以前的算法更复杂的算法。在本文中,我们简化了搜索过程,使其更容易理解。最后,让我们将我们的SVMSklearn中的SVM进行比较,检测性能如下所示:

检测性能比sklearn更差,这是因为我们的SVM中的SMOsklearn更简单。

可以在找到本文中的相关代码和数据集。

有兴趣的小伙伴可以查看或者。

 

原文地址:

转载地址:http://fizhj.baihongyu.com/

你可能感兴趣的文章
小甲鱼Python第十三讲(戴上了枷锁的列表)
查看>>
小甲鱼Python第十四讲(各种奇葩的内置方法)
查看>>
小甲鱼Python第十五讲(格式化)
查看>>
小甲鱼Python第十七讲(Python的乐高积木)
查看>>
小甲鱼Python第十八讲(函数:灵活即强大)
查看>>
小甲鱼Python第十九讲(函数,我的地盘听我的)
查看>>
小甲鱼python第二十讲(内嵌函数和闭包)
查看>>
小甲鱼Python第二十一讲(lambda表达式)
查看>>
小甲鱼Python第二十二讲(递归)
查看>>
小甲鱼Python第二十三讲、第二十四讲(递归-这帮小兔崽子、汉诺塔)
查看>>
小甲鱼Python第二十五讲、第二十六讲(字典)
查看>>
小甲鱼Python第二十七讲(集合)
查看>>
2020光学期刊一区二区影响因子发布(科睿唯安)
查看>>
可调谐半导体激光器的窄线宽测试及压缩
查看>>
matlab中 %d,%f,%c,%s
查看>>
常见的光纤接头汇总
查看>>
半导体激光器—问题整理(二)
查看>>
科研日记7.31
查看>>
问题整理3
查看>>
zemax仿真二向色镜
查看>>