![Python机器学习(原书第3版)](https://wfqqreader-1252317822.image.myqcloud.com/cover/531/38458531/b_38458531.jpg)
2.1 人工神经元——机器学习的早期历史
在更详细地讨论感知器及其相关算法之前,让我们先简要地回顾机器学习的早期历史。为了设计人工智能,人们试图了解生物大脑的工作原理。Warren McCulloch和Walter Pitts于1943年首先发表了一篇论文,提出简化脑细胞的概念,即所谓的McCulloch-Pitts(MCP)神经元[1]。生物神经元是大脑中那些联结起来参与化学和电信号处理与传输的神经细胞,如图2-1所示。
![028-01](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/028-01.jpg?sign=1738887944-bTlBMTmv5ko8lUGDCc6LEfah2bjYn6ui-0-b6bb214a660c63b86b91f19cb357c7b4)
图 2-1
麦库洛和皮兹把神经细胞描述为带有二元输出的简单逻辑门。多个信号到达树突,然后整合到细胞体,并当累计信号量超过一定阈值时,输出信号将通过轴突。
在论文发表之后仅几年,Frank Rosenblatt就基于MCP神经元模型首先提出了感知器学习规则的概念[2]。根据其感知器规则,Rosenblatt提出了一个算法,它能先自动学习最优的权重系数,再乘以输入特征,继而做出神经元是否触发的决策。在监督学习和分类的场景下,这样的算法可以用来预测新数据点的类别归属。
2.1.1 人工神经元的正式定义
更准确地说,可以把人工神经元逻辑放在二元分类的场景,为简化操作,我们将这两个类分别命名为1(正类)和-1(负类)。然后定义决策函数(ϕ(z)),该函数接受特定输入值x的线性组合及其相应的权重向量w,两者计算的结果z为所谓的净输入z=w1x1+w2x2+…+wmxm:
![029-01](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/029-01.jpg?sign=1738887944-KDLaD7sHdz3Dv4a4TOsdawQ6erCGXc2x-0-7c110e2ebc612f1a859690a31c5adf9d)
如果某个特定样本的净输入值x(i)大于定义的阈值θ,则预测结果为1,否则为-1。在感知器算法中,决策函数ϕ(·)是单位阶跃函数的一个变体:
![029-02](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/029-02.jpg?sign=1738887944-7cHQaEBayKuPNWtQsfMm5w8Ya1Q1FXXw-0-704d177caa129540a4cb8d6c75eaaecc)
为了简化起见,我们把阈值θ放在等式的左边,权重零定义为w0=-θ,x0=1,这样就可以用更紧凑的方式来表达z:
z=w0x0+w1x1+…+wmxm=wTx
和
![029-03](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/029-03.jpg?sign=1738887944-WpVpSpRbRz2i3j10Z28dl0rV987bSyql-0-866fdfb5d47473ca9c10cce6ecfc13b4)
在机器学习文献中,我们通常把负的阈值或权重w0=-θ称为偏置。
线性代数基础:向量点积与矩阵转置
本书后续部分将经常用到线性代数的基本表达方法。例如,用向量点积的方法表示x和w的值相乘后再累加的结果,上标T表示转置,该操作将列向量转换为行向量,反之亦然:
![029-04](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/029-04.jpg?sign=1738887944-p6RLiDkb0cnx1B3jbVB2bI3l9GqZWWsp-0-c79afbf741867b448d4702f2c6394ac6)
例如:
![029-05](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/029-05.jpg?sign=1738887944-WB6XHgi2XtP82iZZVTFQL9VK7UOcF9b4-0-9fe1a86e1a3931ab4fc373a923911708)
转置操作也可以从矩阵的对角线上反映出来,例如:
![029-06](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/029-06.jpg?sign=1738887944-B6p8YsCF1bIvHYzxd3Z6ItGtGl9CjR5I-0-0828fd157808e23c01830f369556bd8a)
请注意,转置操作只严格定义在矩阵上。然而,在机器学习中,向量一词通常指n×1或者1×m矩阵。
本书仅涉及非常基本的线性代数概念,然而,如果需要做个快速回顾,可以看下Zico Kolter的Linear Algebra Review and Reference,该书可以从http://www.cs.cmu.edu/~zkolter/course/linalg/linalg_notes.pdf免费获得。
图2-2阐释了如何通过感知器的决策函数把净输入z=wTx(左图)转换为二元输出(-1或者1),以及如何区分两个可分隔的线性类(右图)。
![030-01](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/030-01.jpg?sign=1738887944-YDQSnM00Cm8gxegSqMz34mVatglOkP7z-0-15c3a0731df07971f9d67dbeab60d7a1)
图 2-2
2.1.2 感知器学习规则
MCP神经元和Rosenblatt阈值感知器模型背后的逻辑是,用还原论方法来模拟大脑神经元的工作情况:要么触发,要么不触发。因此,罗森布拉特的初始感知器规则相当简单,其感知器算法可以总结为以下几个步骤:
1)把权重初始化为0或者小的随机数。
2)分别对每个训练样本x(i):
a. 计算输出值。
b. 更新权重。
输出值为预先定义好的单位阶跃函数预测的分类标签,同时更新权重向量w的每个值wj,更准确的表达式为:
wj:=wj+Δwj
其中,Δwj是用来更新wj的值,根据感知器学习规则计算该值如下:
其中η为学习速率(一般是0.0~1.0之间的常数),y(i)为第i个训练样本的正确类标签,为预测的分类标签。需要注意的是,权重向量中的所有值将同时被更新,这意味着在所有权重通过对应更新值Δwj更新之前,不会重新计算
。具体来说,二维数据集的更新可以表达为:
![030-06](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/030-06.jpg?sign=1738887944-WsV84BHxLWQ30TQXKoDmKvGfPJnDj2i6-0-590371ff1285f9e7b0a2c4504be7cd6d)
在用Python实现感知器规则之前,让我们先做个简单的思考实验来说明该学习规则到底有多么简单。在感知器正确预测两类标签的情况下,保持权重不变,因为更新值为0:
![031-01](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/031-01.jpg?sign=1738887944-wSahcJKYQ2ZyV1w5L5q2FdE2rC4DRe7O-0-53cf153aae426278acac27a66b151b7a)
然而,如果预测有误,则权重应偏向阳或阴的目标类:
![031-02](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/031-02.jpg?sign=1738887944-05IkyG0AMK9mVgqQFp37W5rnNT0DWKnS-0-2109aebac7723543d6f9a09312bd3aa9)
为了能更好地理解乘积因子,让我们再来看下另外一个简单的示例,其中:
![031-04](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/031-04.jpg?sign=1738887944-bnn3H1LIWUfz7JNvpMv1HFMl8opPLEiG-0-f2f8ec3d67cc7adea22dfdb924ccd1c9)
假设,模型错把该样本判断为-1。在这种情况下,把相应的权重增加1,这样当下次再遇到该样本时,净输入
就会更偏向阳,从而更有可能超过单位阶跃函数的阈值,把该样本分类为+1:
Δwj=(1-(-1))0.5=(2)0.5=1
权重更新与成正比。例如,假设有另外一个样本
被错误地分类为-1,可以将决策边界推到更大,以确保下一次分类正确:
Δwj=(1(i)-(-1)(i))2(i)=(2)2(i)=4
重要的是,我们要注意只有两个类线性可分且学习速率足够小时,感知器的收敛性才能得到保证(感兴趣的读者可以在我的讲义找到数学证明,地址为:https://sebastianraschka.com/pdf/lecture-notes/stat479ss19/L03_perceptron_slides.pdf.)。如果不能用线性决策边界分离两个类,可以为训练数据集设置最大通过数(迭代次数)及容忍误分类的阈值,否则分类感知器将会永不停止地更新权重,如图2-3所示。
![031-09](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/031-09.jpg?sign=1738887944-DfDemWCfJDJujUbWmwal5Ozv4C8FG7ei-0-4636a6d166ff53fcb49deecb8362eb1b)
图 2-3
下载示例代码
可以直接从华章网站或下述网站下载示例代码:
https://github.com/rasbt/python-machine-learning-book-3rd-edition
在开始进入下一节进行实现之前,让我们先把刚所学到的知识用一个简单的图做个总结,以此说明感知器的一般概念,如图2-4所示。
![031-10](https://epubservercos.yuewen.com/CE1019/20240330708910706/epubprivate/OEBPS/Images/031-10.jpg?sign=1738887944-Diwa2iNNmlIKtssQ3bDgIu1vK8HEBv7b-0-82ef32877d6db3c47ef797d669aed978)
图 2-4
图2-4说明了感知器如何接收输入样本x,并将其与权重w结合以计算净输入。然后再把净输入传递给阈值函数,产生一个二元输出-1或+1,即预测的样本分类标签。在学习阶段,该输出用于计算预测结果的误差并更新权重。