前面简单介绍了以下线性可分SVM,本质上前面介绍的SVM属于硬间隔SVM,因为我们已经知道存在一个超平面 \(S:\omega \cdot x + b = 0\) 可以将所有的样本数据完美分开。但是实际上,并不是所有的样本数据都这么完美。有时候存在这种情况,给定一个样本数据集,绝大多数的样本都是线性可分的,但是存在某些特别的样本是线性不可分的。例如,如果我们将 \(y = 0\) 这条直线看作一个分类的超平面, \(y = 0\) 以上的点标记为1, \(y = 0\) 以下的点标记为-1,那么绝大多数的样本点符合这个规则,但是有一些点位于 \(y = 0\) 以上,却被标记为-1,有些点位于 \(y = 0\) 以下,却被标记为了1,这样就会导致整个数据集线性不可分。
支持向量机(support vector machines,简称SVM)是一种非常高效的分类器,在神经网络出现前,SVM被称为最强分类器。SVM的核心思想就是,对于两个类别的数据,每个数据点都可以抽象为多维空间中的一个坐标点,每一个点都对应于一个标签。那么我们已经知道这两个类别可以被一个超平面相隔开,即在超平面的一侧是一个类别,另一侧是另一个类别。很明显。在绝大多数情况下,这样的超平面并不唯一。其中,将两个类别分开,并且距离两个类别中离超平面最近的若干个点距离之和最大的那一个超平面则最能满足我们的要求。因为有这样的一个超平面,所有当我们引入一个新的样本数据时,我们就有最高的把握可以将这个新的样本点分类正确。这就是SVM的核心思想。
Update your browser to view this website correctly. Update my browser now