当我们添加”机器”到任何东西,它看起来很酷…也许由于对使用这样一个术语暗示的”智能”和”自动化”的引入所作的假设。

所以,让我们把这一点,我们回到旧的,经典的矢量代数。这就像一个人用一堆棍子来找出在二维平面中放置哪一个对象,将一类对象与另一类对象分开,前提是类定义是已知的。

问题是必须选择哪个特定的形状和长度来显示类之间的最大对比度。

我们需要得出一个函数定义,使给定函数的值发生巨大变化(例如,从大正极值到大负值)。

在最简单的形式中,输出 Y 可以分别表示为两个独立矢量 K 和 X 的矢量乘积,其中我们必须计算向量 K 的值(给定输入矢量 X),以便它最大限度地减少计算近似 Yhat 和 Y 之间的误差。

R

Yhat<-tKX

您可能还喜欢:
R 要点.

(K)*(X)是广义的点积(即输入向量的”内部产物”)。使用 K 转置的 X 做点积等效于计算矢量 X 在矢量 K 上的投影。这是一个矢量投射在另一个矢量上的”阴影”。

简单地说,它是矢量 K 和 X 的加权值总和;对于 X 的每个观测值,其中必须计算给定值 X 的对应 K 值才能到达 Yhat,这与 Y 中存在的分类集最相似。

R

xxxxxxxxx
1
1
KN=XN

考虑到该计算将是一个数值,该计算需要的值必须提供足够的分界,以便分离 Y 中存在的不同类。 这种”分界”必须尽可能广泛,以免干扰个别阶级界限。

这种分界轮廓取决于我们操作的尺寸空间。

对于二维空间,它只是一个平面(Z1_X_Z2_Y_C)——想想一个DMZ区或一个”没有人的土地”,存在于共享边界的国家之间。此平面将评估为明显对比的值(一侧为-C,另一侧为 +C,两个类边界之间存在对称的分界)。

事实上,方程 Yhat_lt;-t(K)_X ,这与 : K1_X1_K2_X2_K3_X3_…KN_XN,对于N观测,实际上是这个平面,试图区分和分离两个类在两侧。

分界两侧的计算值对比更明显,将导致更明显的错误分类错误,进而使优化算法通过调整向量 K 的值来最小化此类错误。

R

xxxxxxxxx
1
K1=X1=K2=X2= 100,适用于 A

2
K1=X1+K2=X2=100,适用于B 
3

例如,计算值突然从 -100 切换到 +100,因为模型尝试区分 A 类和 B 类。

该算法的优化目标是最大化这种突然对比。

显然,平面可以区分线性分布类。如果我们无法想象一条线可以分开两个类而不弯曲或扭曲它,那么我们看看非线性解决方案,以达到提供最大的对比度。

问题类似于散步或开车记住重要的地标,以便我们可以把它带回或再次去那里。在此过程中,需要将访问的每个位置与一组以前确定的地标进行比较。

因此,我们需要一个相似性函数,该函数用二进制或布尔词来说明给定的观测值是否与给定的地标非常相似。

相似性函数通常可以表示为相似性(L、X)。

一种常用的形式是多项式,表示为:

R

1
((伽马=tx) )=L=c_#whereepsilon,c 是常量,使矢量积的系数更通用,并开放供选择以进行优化,而 a 是整数。

另一个流行的一般函数可以是高斯 – 一个采取的形式:

R

xxxxxxxxx
1
exp(Z=2/2[#where Z] (x_i_均值(x))/sd(x)

我们正在通过用 LM 替换均值(X) 来对其进行调整,其中 LM 是地标的矢量。然后,我们引入常量 epsilon(就像我们在多项式相似性函数中所做的那样),在本例中,该值为 (1/(2_sd(x)=2)

R

1
exp-伽马=K=2[#where K] (x_i_-LM_i)和伽马是常数 = (1/(2*(sd(x))=2)

显然,很难选择哪种相似函数最适合,以及各种常量的值应该是什么svm派上用场(在e1071包中)。

我们将在以前的数据集german_credit.csv上使用。(请参阅我上一篇文章

R

xxxxxxxxx
1
21
1
>

3
>最佳.svm信用度=. .y=NULL数据=训练=NULLgamma=NULLcoef0=NULL
4
成本=NULLnu=NULL类.权重=NULLepsilon=NULL内核="径向"
5

6
致电
7
最好

y = NULL,数据 + 火车 = NULL,

8
伽玛=NULLcoef0=NULL成本=NULLnu=NULL类.权重=NULL
9
epsilon=NULL内核="径向"
10

11

12
参数
13
SVM内核径向

15
成本 1
16
伽玛 0.05
17
埃西隆 0.1
18

19

20
支持向量 379
21

best(类似于高斯函数定义,此处所述)。

R

xxxxxxxxx
1
1
模型<-svm作为.因子可信赖性 )=.数据=火车成本=1,伽马=0.05epsilon=0.1,内核="径向"
2

R

xxxxxxxxx
1
30
1

2
混淆矩阵作为.因子dfcomp$可信赖性),作为.因子dfcomp$svm
3
混乱矩阵统计
4

5
参考资料
6
预测01
7
0 70125
8

10
精度0.7533
11
95%CI0.7170.7871
12
信息0.8438
13
P-=Acc>NIR1
14
15

16
麦克内马尔的测试P值:6.303e-16
17
18
19
20
21
22
流行率 : 0

1px;”•检测率 : 0.1151

24
25
26
27
''类 : 0
28

29
绘图(perf2)
30
abline(h=0.9395,col="RED",lty=2)
31

Evaluation of Model's Learning 模型学习的评价

进一步阅读

Comments are closed.