联系我们
- 地 址:北京市海淀区北四环西路9号 ,主 营:人脸识别,活体检测,身份证识别,银行卡识别,名片识别,车牌识别,OCR识别等及智能识别技术。
- 电 话:13146317170 廖经理
- 传 真:
- 邮 箱:398017534@qq.com
AI人工智能基础算法之感知器
AI人工智能基础算法之感知器
1. 引言
感知器(perceptron)是比较简单的二分类器,通过对训练样本集的学习,从而得到判别函数权值的解,产生线性可分的样本判别函数。该算法属于非参数算法,优点是不需要对各类样本的统计性质作任何假设,属于确定性方法。
虽然简单,感知器算法却是支持向量机(SVM)和神经网络算法的基础,为了之后更好地学习,感知器算法必须要了解地非常清楚。接下来,就开始介绍感知器算法。
2. 感知器分类模型
给定一个训练数据集T={(x1,y1),(x2,y3),⋯,(xN,yN)}T={(x1,y1),(x2,y3),⋯,(xN,yN)},xi∈Rn,yi∈{−1,1},i=1,2,⋯Nxi∈Rn,yi∈{−1,1},i=1,2,⋯N,
分类模型为,
hθ(x)=g(θTx+b)
hθ(x)=g(θTx+b)
其中θ是权值向量,x是输入向量,b是偏差,
g(z)={1z≥0,−1z<0.
g(z)={1z≥0,−1z<0.
直观上来看,对于一个对象而言,具有很多特征,这些特征对于我们的分类问题重要程度不一样,权值越大,表示这个特征和问题的相关性就越大;
偏差b的存在是为了表征那些被忽略的特征;
从几何上来看,偏差b的存在是为了使线性方程θTx+b=0θTx+b=0能够取到所有分隔平面(当只有一个特征输入时,该方程是直线;当时两个特征输入时,该方程是平面;当特征输入大于等于3个时,该方程为超平面)。
所以,如果特征选择比较好的话,b就会很小,因为所选的特征已经能够很好地表征问题了;否则,b就会很大,表明了选择的特征并不好。
3. 权值更新规则
首先需要定义一个损失函数,在使损失函数最小化的过程中,得到我们的权值向量θ和偏差b。由于是分类问题,自然不能按照输出值和真实值的误差进行权值的更新,比如说分隔线方程的输出一个是0.1,另一个是10000,经过g(z)二值化后的输出都是1,但是其中却差别很大。
那么利用样本点到分隔平面的距离来进行更新权值似乎是一个不错的选择,点xixi到分隔平面的距离为:
L1=∣∣θTxi+b∣∣∥θ∥
L1=|θTxi+b|‖θ‖
但是试想一下,权值向量θ和偏差b同时扩大同样的倍数,这个分隔平面并没有变,可是点到分隔平面的距离却变了,所以通常我们令‖θ‖=1,使权值不能随意扩大倍数,从而得到:
L2=∣∣θTxi+b∣∣
L2=|θTxi+b|
如何来表示这个绝对值呢?我们知道,对于分类正确的样本点是不需要对权值进行更新,那么只有误分类点才会更新权值。既然是误分类点,那么g(z)和真实值yiyi不相等,再由它们的取值范围{-1,1}可以得到- g(z)*{y_i}>0,也就是−(θTxi+b)∗yi>0−(θTxi+b)∗yi>0。
则L2L2可以由−(θTxi+b)∗yi−(θTxi+b)∗yi代替。
所以,损失函数可以定义为,
L(θ,b)=−∑xi∈Myi(θTxi+b)
L(θ,b)=−∑xi∈Myi(θTxi+b)
其中M为误分类点的集合。
找到了损失函数,只需要使损失函数最小化就好了。
这里可以采用梯度下降法(由于篇幅问题,这里不再详细介绍,我会再写一篇文章详细介绍梯度下降法,有兴趣的同学,请持续关注),损失函数L(θ,b)对θ,b求导可以得出,
∇θL(θ,b)=−∑xi∈Myixi∇bL(θ,b)=−∑xi∈Myi
∇θL(θ,b)=−∑xi∈Myixi∇bL(θ,b)=−∑xi∈Myi
所以对于误分类点(xi,yi)(xi,yi),对θ,b更新为,
θ←θ+ηyixib←b+ηyi
θ←θ+ηyixib←b+ηyi
其中η称之为学习率,形象地理解,因为导数相当于方向,只有方向没有步长,是没办法移动的。
4. 感知器算法训练步骤
输入:训练数据集T={(x1,y1),(x2,y3),⋯,(xN,yN)}T={(x1,y1),(x2,y3),⋯,(xN,yN)},
其中xi∈Rn,yi∈{−1,1},i=1,2,⋯Nxi∈Rn,yi∈{−1,1},i=1,2,⋯N;学习率η(0≤η≤1);
输出:θ,b;感知器模型hθ(x)=g(θTx+b)hθ(x)=g(θTx+b)。
(1) 选取初值θ0,b0θ0,b0
(2) 在训练集中选取数据(xi,yi)(xi,yi)
(3) 如果yi(θTxi+b)≤0yi(θTxi+b)≤0,
θ←θ+ηyixib←b+ηyi
θ←θ+ηyixib←b+ηyi
(4) 转至(2),直到训练集中没有误分类点。
5. 总结
感知器算法算法主要是针对线性可分的数据,但是当我们拿到比较复杂的数据时,并不能直接判断数据集是否线性可分,如果想要判断,这里可以提供一个思路:
(1)凭借经验来判断(这个对于没有实际经验的同学来说,很困难);
(2)判断不同样本的凸包,想象一下,正样本用一个圆包围起来,负样本用另一个圆包围起来,如果两个圆相交,那么这两种样本就不是线性可分,反之则是线性可分;当然凸包并不是用圆来表示的,这里只是为了形象地描述,想要了解凸包的同学,可以阅读相关论文。
当然,现实中的数据集大都不是线性可分的,所以感知器算法用得并不多,为了能够对线性不可分的数据进行分类,在感知器算法的基础上,产生了支持向量机和神经网络(超级强大的两种算法,在现实中应用很多)。
感知器(perceptron)是比较简单的二分类器,通过对训练样本集的学习,从而得到判别函数权值的解,产生线性可分的样本判别函数。该算法属于非参数算法,优点是不需要对各类样本的统计性质作任何假设,属于确定性方法。
虽然简单,感知器算法却是支持向量机(SVM)和神经网络算法的基础,为了之后更好地学习,感知器算法必须要了解地非常清楚。接下来,就开始介绍感知器算法。
2. 感知器分类模型
给定一个训练数据集T={(x1,y1),(x2,y3),⋯,(xN,yN)}T={(x1,y1),(x2,y3),⋯,(xN,yN)},xi∈Rn,yi∈{−1,1},i=1,2,⋯Nxi∈Rn,yi∈{−1,1},i=1,2,⋯N,
分类模型为,
hθ(x)=g(θTx+b)
hθ(x)=g(θTx+b)
其中θ是权值向量,x是输入向量,b是偏差,
g(z)={1z≥0,−1z<0.
g(z)={1z≥0,−1z<0.
直观上来看,对于一个对象而言,具有很多特征,这些特征对于我们的分类问题重要程度不一样,权值越大,表示这个特征和问题的相关性就越大;
偏差b的存在是为了表征那些被忽略的特征;
从几何上来看,偏差b的存在是为了使线性方程θTx+b=0θTx+b=0能够取到所有分隔平面(当只有一个特征输入时,该方程是直线;当时两个特征输入时,该方程是平面;当特征输入大于等于3个时,该方程为超平面)。
所以,如果特征选择比较好的话,b就会很小,因为所选的特征已经能够很好地表征问题了;否则,b就会很大,表明了选择的特征并不好。
3. 权值更新规则
首先需要定义一个损失函数,在使损失函数最小化的过程中,得到我们的权值向量θ和偏差b。由于是分类问题,自然不能按照输出值和真实值的误差进行权值的更新,比如说分隔线方程的输出一个是0.1,另一个是10000,经过g(z)二值化后的输出都是1,但是其中却差别很大。
那么利用样本点到分隔平面的距离来进行更新权值似乎是一个不错的选择,点xixi到分隔平面的距离为:
L1=∣∣θTxi+b∣∣∥θ∥
L1=|θTxi+b|‖θ‖
但是试想一下,权值向量θ和偏差b同时扩大同样的倍数,这个分隔平面并没有变,可是点到分隔平面的距离却变了,所以通常我们令‖θ‖=1,使权值不能随意扩大倍数,从而得到:
L2=∣∣θTxi+b∣∣
L2=|θTxi+b|
如何来表示这个绝对值呢?我们知道,对于分类正确的样本点是不需要对权值进行更新,那么只有误分类点才会更新权值。既然是误分类点,那么g(z)和真实值yiyi不相等,再由它们的取值范围{-1,1}可以得到- g(z)*{y_i}>0,也就是−(θTxi+b)∗yi>0−(θTxi+b)∗yi>0。
则L2L2可以由−(θTxi+b)∗yi−(θTxi+b)∗yi代替。
所以,损失函数可以定义为,
L(θ,b)=−∑xi∈Myi(θTxi+b)
L(θ,b)=−∑xi∈Myi(θTxi+b)
其中M为误分类点的集合。
找到了损失函数,只需要使损失函数最小化就好了。
这里可以采用梯度下降法(由于篇幅问题,这里不再详细介绍,我会再写一篇文章详细介绍梯度下降法,有兴趣的同学,请持续关注),损失函数L(θ,b)对θ,b求导可以得出,
∇θL(θ,b)=−∑xi∈Myixi∇bL(θ,b)=−∑xi∈Myi
∇θL(θ,b)=−∑xi∈Myixi∇bL(θ,b)=−∑xi∈Myi
所以对于误分类点(xi,yi)(xi,yi),对θ,b更新为,
θ←θ+ηyixib←b+ηyi
θ←θ+ηyixib←b+ηyi
其中η称之为学习率,形象地理解,因为导数相当于方向,只有方向没有步长,是没办法移动的。
4. 感知器算法训练步骤
输入:训练数据集T={(x1,y1),(x2,y3),⋯,(xN,yN)}T={(x1,y1),(x2,y3),⋯,(xN,yN)},
其中xi∈Rn,yi∈{−1,1},i=1,2,⋯Nxi∈Rn,yi∈{−1,1},i=1,2,⋯N;学习率η(0≤η≤1);
输出:θ,b;感知器模型hθ(x)=g(θTx+b)hθ(x)=g(θTx+b)。
(1) 选取初值θ0,b0θ0,b0
(2) 在训练集中选取数据(xi,yi)(xi,yi)
(3) 如果yi(θTxi+b)≤0yi(θTxi+b)≤0,
θ←θ+ηyixib←b+ηyi
θ←θ+ηyixib←b+ηyi
(4) 转至(2),直到训练集中没有误分类点。
5. 总结
感知器算法算法主要是针对线性可分的数据,但是当我们拿到比较复杂的数据时,并不能直接判断数据集是否线性可分,如果想要判断,这里可以提供一个思路:
(1)凭借经验来判断(这个对于没有实际经验的同学来说,很困难);
(2)判断不同样本的凸包,想象一下,正样本用一个圆包围起来,负样本用另一个圆包围起来,如果两个圆相交,那么这两种样本就不是线性可分,反之则是线性可分;当然凸包并不是用圆来表示的,这里只是为了形象地描述,想要了解凸包的同学,可以阅读相关论文。
当然,现实中的数据集大都不是线性可分的,所以感知器算法用得并不多,为了能够对线性不可分的数据进行分类,在感知器算法的基础上,产生了支持向量机和神经网络(超级强大的两种算法,在现实中应用很多)。