### 支持向量机(SVM)通俗导论 #### 1.0 什么是支持向量机SVM **支持向量机**(Support Vector Machine, SVM)是一种在数据挖掘领域广泛应用的监督式学习方法,主要应用于分类和回归分析。它的核心思想是在特征空间中寻找一个最优分类超平面,该超平面能够最大化不同类别之间的间隔,以此来提高模型的泛化能力。 SVM最初由Vapnik等人在1990年代中期提出,并基于统计学习理论发展而来。SVM的主要目标是通过最小化结构风险来提高学习机的泛化能力,实现经验风险和置信范围的同时最小化,从而即使在小样本情况下也能获得较好的预测性能。 在最简单的形式下,SVM是一种二分类模型,它试图在特征空间中找到一个线性分类器,这个分类器能够最大化不同类别之间的间隔。这种间隔最大化的学习策略通常可以通过求解一个凸二次规划问题来实现。 #### 1.1 线性分类器 在深入理解SVM之前,需要首先理解线性分类器的基本概念。线性分类器是指在一个n维空间中,通过找到一个分类超平面来划分数据集。这个超平面可以用以下形式表示: \[ w^Tx + b = 0 \] 其中,\(w\) 是权重向量,\(x\) 是输入特征向量,\(b\) 是偏置项。如果 \(w^Tx + b > 0\),则分类为一类;如果 \(w^Tx + b < 0\),则分类为另一类。这里,\(y\) 通常被赋值为1或-1,分别代表两个不同的类别。 ##### 1.1.1 分类标准 选择1和-1作为类别标记的原因,主要是为了简化数学处理和便于后续的理论推导。这种标记方式源自于logistic回归,logistic回归是一种常用的二分类模型,其输出被视为属于某一类别的概率估计。 ##### 1.1.2 1或-1分类标准的起源:Logistic回归 Logistic回归是一种基于概率的分类模型,其目标是从特征中学习出一个0/1分类模型。具体来说,模型将特征的线性组合作为自变量,并通过logistic函数(或称为sigmoid函数)将其映射到区间(0,1)上。这样,映射后的值可以解释为属于某个类别的概率。 形式上,假设函数可以表示为: \[ h_\theta(x) = g(\theta^Tx) \] 其中, \[ g(z) = \frac{1}{1+e^{-z}} \] 是logistic函数。这里的\(h_\theta(x)\)是特征\(x\)属于类别\(y=1\)的概率估计。当\(h_\theta(x) > 0.5\)时,分类结果为1;反之,则为0。 在logistic回归中,通过调整参数\(\theta\)来最大化训练样本中正例和反例的区分度。具体而言,正例的特征应使得\(\theta^Tx > 0\),而反例的特征则应使得\(\theta^Tx < 0\)。 ##### 1.1.3 形式化表示 在SVM中,我们将结果标签从0/1转换为-1/1,以更好地适应后续的数学推导。同时,将\(\theta^Tx\)替换为\(w^Tx + b\)的形式,其中\(w\)是权重向量,\(b\)是偏置项。这样,线性分类器可以重写为: \[ y = \text{sign}(w^Tx + b) \] 其中,\(\text{sign}\)函数用于确定\(w^Tx + b\)的符号,即如果\(w^Tx + b > 0\),则\(y = 1\);如果\(w^Tx + b < 0\),则\(y = -1\)。 通过以上对SVM基础概念的理解,我们可以进一步探讨如何构建和支持向量机模型,包括如何解决非线性可分问题以及如何通过核技巧扩展SVM的应用范围。
- 粉丝: 56
- 资源: 4
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助