【机器学习】支持向量机(个人笔记)

news/2024/10/4 9:33:19

目录
  • SVM 分类器的误差函数
    • 分类误差函数
    • 距离误差函数
    • C 参数
  • 非线性边界的 SVM 分类器(内核方法)
    • 多项式内核
    • 径向基函数(RBF)内核

源代码文件请点击此处!

SVM 分类器的误差函数

SVM 使用两条平行线,使用中心线作为参考系 \(L: \ w_1x_1 + w_2x_2 + b = 0\)。我们构造两条线,一条在上面,一条在下面,分别为:

\[L+: \ w_1x_1 + w_2x_2 + b = 1 \\ L-: \ w_1x_1 + w_2x_2 + b = -1 \]

分类器由 \(L+\)\(L-\) 组成。为训练 SVM,我们需要为由两条线组成的分类器构建一个误差函数,期望达成的目标有两个:

  • 两条线中的每一条都应尽可能对点进行分类。
  • 两条线应尽可能彼此远离。

误差函数表示如下:

\[误差 = 分类误差 + 距离误差 \]

分类误差函数

\((x_1, x_2)\) 的预测函数为

\[\hat{y} = step(w_1x_1 + w_2x_2 + b) \]

显然这是一个离散感知器,其中:

\[y = step(x) = \begin{cases} 0, x \leq 0 \\ 1, x > 0 \end{cases} \]

定义分类误差函数如下:

\[\begin{cases} 0, 错误分类 \\ |w_1x_1 + w_2x_2 + b|, 正确分类 \end{cases} \]

例如,考虑标签为 \(0\) 的点 \((4,3)\),两个感知器给出的预测为:

\[L+: \hat{y} = step(2x_1 + 3x_2 - 7) = 1 \\ L-: \hat{y} = step(2x_1 + 3x_2 - 5) = 1 \]

可以看到两个感知器均预测错误,此时分类误差为:

\[|2x_1 + 3x_2 - 7| + |2x_1 + 3x_2 - 5| = 22 \]

距离误差函数

若两个线性方程如下:

\[L+: \ w_1x_1 + w_2x_2 + b = 1 \\ L-: \ w_1x_1 + w_2x_2 + b = -1 \]

根据两条平行直线间的距离公式:

\[d = \frac{|C_1 - C_2|}{\sqrt{A^2 + B^2}} \]

则这两条平行线的垂直距离为:

\[d = \frac{2}{\sqrt{w_1^2 + w_2^2}} \]

此为距离误差。注意到,当 \(w_1^2 + w_2^2\) 很大时,\(d\) 很小;当 \(w_1^2 + w_2^2\) 很小时,\(d\) 很大。因此 \(w_1^2 + w_2^2\) 是一个很好的误差函数。

C 参数

很多时候我们希望 SVM 分类器能侧重于分类误差或距离误差其中一个方面,那么我们可以使用 C 参数:

\[误差 = C \cdot 分类误差 + 距离误差 \]

C 参数如何控制两者的呢?

  • C 很大:误差公式以分类误差为主,SVM 分类器更侧重于对点进行正确分类;
  • C 很小:误差公式以距离误差为主,SVM 分类器更侧重于保持线之间的距离。

下面是一个例子:

svm_c_001 = SVC(kernel='linear', C=0.01)
svm_c_001.fit(features, labels)svm_c_100 = SVC(kernel='linear', C=100)
svm_c_100.fit(features, labels)

上图为 C=0.01 的情况,下图为 C=100 的情况:

image

image

非线性边界的 SVM 分类器(内核方法)

多项式内核

  • 在变量 \(x_1, x_2\) 使用 2 阶多项式内核,就需要计算这些单项式:\(x_1, x_2, x_1^2, x_1x_2, x_2^2\),然后尝试把它们线性组合起来,比如通过检查发现这是一个有效的分类器公式:\(x_1^2 + x_2^2 = 1\)
  • 这相当于将二维平面映射到一个五维平面,即点 \((x_1, x_2)\) 到点 \((x_1, x_2, x_1^2, x_1x_2, x_2^2)\) 的映射
  • 类似地,在变量 \(x_1, x_2\) 使用 3 阶多项式内核,就需要计算这些单项式:\(x_1, x_2, x_1^2, x_1x_2, x_2^2, x_1^3, x_1^2x_2, x_1x_2^2, x_2^3\),然后尝试把它们线性组合起来,通过检查发现一个有效的分类器公式

代码如下:

svm_degree_2 = SVC(kernel='poly', degree=2)
svm_degree_2.fit(features, labels)
print("[Degree=2] Accuracy=", svm_degree_2.score(features, labels))svm_degree_4 = SVC(kernel='poly', degree=4)
svm_degree_4.fit(features, labels)
print("[Degree=4] Accuracy=", svm_degree_4.score(features, labels))

当分类器为 2 阶多项式的运行结果:

image

当分类器为 4 阶多项式的运行结果:

image

径向基函数(RBF)内核

径向基函数:

  • 当变量只有一个时,最简单的径向基函数为 \(y = e^{-x^2}\),此函数看起来像标准正态分布,函数凸起处为 \(x=0\)
  • 当变量有 2 个时,最简单的径向基函数为 \(z = e^{-(x^2 + y^2)}\),此函数看起来像标准正态分布,函数凸起处为 \((0,0)\)
  • 当变量有 \(n\) 个时,基本径向基函数为 \(y = e^{-(x_1^2 + ... + x_n^2)}\)\(n\) 维凸点以 0 为中心
  • 若希望以点 \((p_1, ..., p_n)\) 为中心凸起,则基本径向基函数为 \(y = e^{-[(x_1-p_1)^2 + ... + (x_n-p_n)^2]}\)
  • 添加 \(\gamma\) 参数:\(y = e^{-\gamma[(x_1-p_1)^2 + ... + (x_n-p_n)^2]}\),用于控制拟合程度(形象理解,即调整凸起程度
    • \(\gamma\) 值非常小时,模型会欠拟合
    • \(\gamma\) 值非常大时,模型会严重过拟合,合适的 \(\gamma\) 值非常重要

相似度公式:

  • 对于点 \(p\) 和点 \(q\)\(相似度(p,q) = e^{-距离(p,q)^2}\)
  • 一维数据集中,点 \(x_1\) 和点 \(x_2\) 的相似度为 \(e^{-(x_1-x_2)^2}\)
  • 二维数据集中,点 \(A(x_1, y_1)\) 和点 \(B(x_2, y_2)\) 的相似度为 \(e^{-[(x_1-x_2)^2 + (y_1-y_2)^2]}\)
  • 若该数据集有 \(n\) 个数据点,则应计算 \(n^2\) 个相似度;每个点到自身的相似度一定为 1;距离越近,相似度越高

有了相似度公式,就可以定义分类器了。假设数据集有 \(n\) 个数据点 \(X_i\),每个点对应标签 \(L_i\)(取值为 0 或 1),则对于点 \(X\) 的分类预测如下:

\[\hat{y} = step[\sum^n_{i=1} (-1)^{L_i - 1} \cdot e^{-距离(X, X_i)^2}] \]

形象理解:这相当于在一个二维平面上,为标记为 0 的点添加了一个“山谷”,为标记为 1 的点添加了一个“山峰”。对每个点都如此操作,最后使用阈值 0 画出一个“海岸线”,这就是最后的分类边界(boundary)。

代码如下:

svm_gamma_01 = SVC(kernel='rbf', gamma=0.1)
svm_gamma_01.fit(features, labels)
print("[Gamma=0.1] Accuracy=", svm_gamma_01.score(features, labels))svm_gamma_1 = SVC(kernel='rbf', gamma=1)
svm_gamma_1.fit(features, labels)
print("[Gamma=1] Accuracy=", svm_gamma_1.score(features, labels))svm_gamma_10 = SVC(kernel='rbf', gamma=10)
svm_gamma_10.fit(features, labels)
print("[Gamma=10] Accuracy=", svm_gamma_10.score(features, labels))svm_gamma_100 = SVC(kernel='rbf', gamma=100)
svm_gamma_100.fit(features, labels)
print("[Gamma=100] Accuracy=", svm_gamma_100.score(features, labels))

\(\gamma=0.1\) 时的运行结果:

image

\(\gamma=1\) 时的运行结果:

image

\(\gamma=10\) 时的运行结果:

image

\(\gamma=100\) 时的运行结果:

image

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hjln.cn/news/44460.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

使用PyTorch Profiler进行模型性能分析,改善并加速PyTorch训练

如果所有机器学习工程师都想要一样东西,那就是更快的模型训练——也许在良好的测试指标之后 加速机器学习模型训练是所有机器学习工程师想要的一件事。更快的训练等于更快的实验,更快的产品迭代,还有最重要的一点需要更少的资源,也就是更省钱。 熟悉PyTorch Profiler 然后就…

AI智能文案助手ChatMoney:一键打造抖音爆款视频,助你轻松吸引千万级流量!

本文由 ChatMoney团队出品引言 看着抖音上别人的视频轻松破百万点赞,是不是心里痒痒的?想知道他们是怎么做到的?其实,他们可能只是比您先一步掌握了这个秘密武器——ChatMoney。这不仅仅是一个工具,它是您抖音视频流量变现的加速器。 您是否已经厌倦了平淡无奇的文案,看着…

抖音爆款制造机!用ChatMoney,一键生成爆款视频文案,轻松获得千万流量!

本文由 ChatMoney团队出品引言 看着抖音上别人的视频轻松破百万点赞,是不是心里痒痒的?想知道他们是怎么做到的?其实,他们可能只是比您先一步掌握了这个秘密武器——ChatMoney。这不仅仅是一个工具,它是您抖音视频流量变现的加速器。 您是否已经厌倦了平淡无奇的文案,看着…

从游戏场景看,ByteHouse存算分离架构如何实现降本增效

ByteHouse 是火山引擎推出的云原生数据仓库,其存算分离架构为游戏公司提供了新解法。它将计算资源和存储资源独立扩展,实现了读写分离,优化了资源利用效率,使得整体性能提升了 4 倍以上。经过几十年发展,中国游戏产业逐步迈向成熟与稳健的新阶段。根据中国音数协游戏工委的…

AI的杀手级应用会是一个“超级能干的同事”!RAG会造就超级智能么?

什么是RAG技术 RAG是一种结合生成模型和检索系统的技术。它通过检索相关信息并将其融入生成过程,使得模型不仅依赖内部训练数据,还能利用外部信息来提升回答的准确性和广度。RAG技术的核心在于将大规模预训练的语言模型与信息检索系统(如搜索引擎或数据库)有效结合,从而增…

WPF/C#:程序关闭的三种模式

本文介绍了WPF程序关闭的三种模式。ShutdownMode枚举类型介绍 ShutdownMode是一个枚举类型,它定义了WPF应用程序的关闭方式。这个枚举类型有三个成员:OnLastWindowClose:当最后一个窗口关闭或者调用System.Windows.Application.Shutdown方法时,应用程序会关闭。 OnMainWind…

在WEPAPI接口无法查询物料分组

数据分组仅有业务对象没有实体表, 所以接口不能直接访问数据分组BOS_FORMGROUP通过表名反查业务对象标识, 接口中使用查询到的业务对象标识可正常查询到数据. 注意: 可能存在分组没有对应的业务对象的情况, 此时需要新建业务对象并设置对应的分组表.

Si24R05—高度集成的低功耗 2.4G+125K SoC 芯片

Si24R05是一款高度集成的低功耗SoC芯片,具有低功耗、Low Pin Count、宽电压工作范围,集成了13/14/15/16位精度的ADC、LVD、UART、SPI、I2C、TIMER、WUP、IWDG、RTC、无线收发器、3D低频唤醒接收器等丰富的外设。内核采用RISC-V RV32IMAC(2.6 CoreMark/MHz)。Si24R05提供了配…