《深度学习的数学》chap1 神经网络的思想
生物学上的神经元(neuron)
神经元形成网络
对于其他多个神经元传递过来的信号,如果它们的和
将神经元的工作在数学上抽象化,并以其为单位人工地形成网络, 这样的人工网络就是神经网络。将构成大脑的神经元的集合体抽象为数学模型,这就是神经网络的出发点。
“人教导机器”类型的人工智能无法胜任图像、语音的模式识别,因为要把所有东西都教给计算机是不现实的
解决方式就是 神经网络以及由其发展而来的深度学习
神经元的构成:细胞体、树突、轴突
如何对输入信号合并加工?
神经元固有的边界值:阈值
不超过阈值:忽略接收到的信号,不做反应
平时说到的神经敏感,是不是就是阈值太低? (待查)
超过阈值:细胞体做出反应,向与轴突连接的其他神经元传递信号,称为点火
点火的神经元输出信号是怎么样的?
输入信号的表示
输出信号的表示
点火条件的判定
以神经元的输入信号和为横轴,神经元的输出信号y为纵轴,当信号值和小于θ\thetaθ时,yyy值取0,反之yyy值取1
用函数式来表示
利用单位阶跃函数表示点火条件
根据点火与否,生物学上的神经元的输出 y 分别取值 1 和 0
神经元和神经单元
单位阶跃函数和Sigmoid函数的对比
sigmoid函数输出值的解释
这里的θ\thetaθ称为阈值,在生物学上是表现神经元特性的值。直观上讲,θ\thetaθ表示神经元的感受能力,若θ\thetaθ值较大,则神经元不易兴奋(感受迟钝),若值较小,则神经元容易兴奋(敏感)
变式 , 偏置bias
生物上的阈值
变式 : 内积
回顾神经单元
构成这个网络的各层称为 输入层、隐藏层、输出层,其中隐藏层也被称为中间层,各层分别执行特定的信号处理操作
输入层、隐藏层(中间层)、输出层
输入层
隐藏层
执行前面所复习过的处理操作 (1) 和 (2)。在神经 网络中,这是实际处理信息的部分
输出层
建立一个神经网络,用来识别通过4x3像素的图像读取的手写数字0和1。学习数据是64张图像,其中像素是单色二值
这个简单的神经网络的特征是,前一层的神经单元与下一层的所有 神经单元都有箭头连接,这样的层构造称为全连接层(fully connected layer)。这种形状对于计算机的计算而言是十分容易的。
输出层由两个神经单元构成,这是因为我们的题目是识别两种手写数字 0 和 1,需要一个在读取手写数字 0 时输出较大值(即反应较大)的 神经单元,以及一个在读取手写数字 1 时输出较大值的神经单元
例如,将 Sigmoid 函数作为激活函数使用。在这种情况下,读取数字 0 的图像时,输出层上方的神经单元的输出值比下方的神经单元的输出值大;而读取数字 1 的图像时,输出层下方的神经单元的输出值比上方的神 经单元的输出值大,如下图所示。像这样,根据输出层的神经单元的输 出的大小,对整个神经网络进行判断。
假设有一个如下图所示的恶魔组织,隐藏层住着3个隐藏恶魔A、B、C,输出层住着2个输出恶魔0和1。输入层有12个手下1~12为隐藏恶魔A、B、C服务。
注:这里将生物学中的特征提取细胞的工作抽象化为3个恶魔A、B、C。
最下层(输入层)的12个手下分别住在4×3像素图像的各个像素上,其工作是如果像素信号为OFF(值为0);就处于休眠状态;如果像素信号为ON(值为1)则变得兴奋,并将兴奋度信息传递给他们的主人隐藏恶魔A、B、C。
注:即便不是黑白二值像素的情况,处理方式也是相同的。
不过,隐藏恶魔A、B、C有不同的喜好。他们分别喜欢下图所示的模式A、模式B、模式C的图案。这个性质影响了神经网络的特性。(看清他们的不同“偏好”,就是我们最初所提及的设计者的预估。)
住在最上层的2个输出恶魔也是从住在下层的3个隐藏恶魔那里得到兴奋度信息。与隐藏恶魔一样,他们将得到的兴奋度信息进行整合,根据其值的大小,自己也变兴奋。然后,这些输出恶魔的兴奋度就成为整个恶魔组织的意向。如果输出恶魔0的兴奋度比输出恶魔1的兴奋度大,神经网络就判定图像的数字为0,反之则判定为1。
可见,恶魔的世界里也存在着人际关系。
隐藏恶魔A、B、C对模式有着各自的偏好,与12个手下有不同的交情。隐藏恶魔A的偏好是之前的模式A,因此与④、⑦性情相投。因为模式A的4号像素与7号像素是ON,所以理所当然地与对应的看守人④、⑦性情相投。
这里写的真好玩哈哈哈
同样地,手下⑤、⑧与隐藏恶魔B,手下⑥、⑨与隐藏恶魔C性情相投,因此他们之间传递兴奋度的管道也变粗了(下图)。
住在隐藏层的隐藏恶魔A、B、C与住在上层的2个输出恶魔也有着人际关系。由于某种羁绊,输出恶魔О与隐藏恶魔A、C性情相投,而输出恶魔1与隐藏恶魔B性情相投。
以上就是恶魔组织的所有人际关系。除了隐藏恶魔A、B、C有不一样的偏好以外,这是一个人类社会中到处都可能存在的简单的组织。
读到这里想到了 如果 下面一群人想去请一个人说一件事 , 众人说服都无效,还是得让亲近他的人去劝说哈哈哈, 然后就起到了点火激活的效果! 神经网络真是和生活息息相关捏!
例如,读入手写的0
于是,作为像素看守人的手下④、⑦和手下⑥、⑨看到这个图像非常兴奋
这时,兴奋的手下④、⑦向性情相投的隐藏恶魔A传递了较强的兴奋度信息,兴奋的手下⑥、⑨也向性情相投的隐藏恶魔C传递了较强的兴奋度信息。相对地,几乎没有手下向隐藏恶魔B传递兴奋度信息(下图)。
接收了来自手下的兴奋度信息的隐藏恶魔们会怎样呢?接收了较强的兴奋度信息的隐藏恶魔A和隐藏恶魔C自然也变兴奋了。另一方面,隐藏恶魔B变得怎样呢?因为几乎没有从手下接收到兴奋度信息,所以一直保持冷静。
住在最上层的输出恶魔变得怎样了呢?输出恶魔О由于与兴奋的隐藏恶魔A、C关系亲密,从而获得了较强的兴奋度信息,所以自己也兴奋起来了。相对地,输出恶魔1与隐藏恶魔A、C关系疏远,而与之关系亲密的隐藏恶魔B一直保持冷静,所以输出恶魔1没有获得兴奋度信息,因此也保持冷静。
这样一来,读取手写数字0的图像后,根据恶魔之间的连锁关系,最终得到了“输出恶魔О兴奋,输出恶魔1冷静”的结果。根据前文中的“如果输出恶魔0的兴奋度比输出恶魔1的兴奋度大,神经网络就判断图像的数字为0”,恶魔的网络推导出了0这个解答。
这里的噪声暂时没有get到
上一节考察了恶魔组织识别手写数字0、1的结构。将这个组织替换为神经网络,我们就能理解神经单元发挥良好的团队精神进行模式识别的结构。
首先,将恶魔看作神经单元。隐藏层住着3个隐藏恶魔A、B、C,可以解释为隐藏层有3个神经单元A、B、C。输出层住着2个输出恶魔0、1,可以解释为输出层有2个神经单元0、1。此外,输入层住着12个恶魔的手下,可以解释为输入层有12个神经单元(下图)。
接下来,将恶魔的“交情”看作神经单元的权重。隐藏恶魔 A 与手 下④、⑦性情相投,这样的关系可以认为是从输入层神经单元④、⑦指向隐藏层神经单元 A 的箭头的权重较大。同样地,隐藏恶魔 B 与手下⑤、 ⑧性情相投,可以认为是从输入层神经单元⑤、⑧指向隐藏层神经单元 B 的箭头的权重较大。隐藏恶魔 C 与手下⑥、⑨性情相投,可以认为是从 输入层神经单元⑥、⑨指向隐藏层神经单元 C 的箭头的权重较大。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kkuoC3yv-1669539044442)(https://cdn.jsdelivr.net/gh/xin007-kong/picture_new/img/20221127164409.png)]
隐藏恶魔 A、C 与上层的输出恶魔 0 性情相投,这个关系表示从隐藏层神经单元 A、C 指向输出层神经单元 0 的箭头的权重较大。同样地,隐藏恶魔 B 与输出恶魔 1 性情相投,这个关系表示从隐藏层神经单元 B 指 向输出层神经单元 1 的箭头的权重较大
这样解释的话,神经网络读入手写数字 0 时,神经单元 A 和 C 的输出值较大,输出层神经单元 0 的输出值较大。于是,根据神经网络整体 的关系,最终识别出数字 0。
在像这个神经网络那样前一层与下一层全连接的情况下,在输入 0 的图像时,原本不希望做出反应的隐藏层神经单元 B 以及输出层神经单元 1 也有信号传递,因此需要禁止这样的信号并使信号变清晰,这样的功能就是偏置,在恶魔组织中表现为“心的偏置”。
如上所述,权重和偏置的协力合作使得图像识别成为可能。这就是 “由神经网络中的关系得出答案” 的思想
住在输出层的输出恶魔的人数是2人。为了判断图像中的数字是0还是1,2人是合适的
住在隐藏层的隐藏恶魔的人数是3人。为什么是3人呢?如本节开头所讲的那样,这是由于存在某种预估,如下图所示
以上是在隐藏层部署3个神经单元的理由。通过让这个神经网络实际读取图像数据并得出令人信服的结论,可以确认这个预估的正确性。关于具体的确认方法,我们将在第3章考察。
可以认为,输入层神经单元相当于视细胞,隐藏层神经单元相当于视神经细胞,输出层神经单元相当于负责判断的大脑神经细胞群
在前面的 1- 5 节和 1- 6 节中,我们利用恶魔这个角色,考察了识别 输入图像的机制。具体来说,就是根据恶魔组织中的关系来判断。不过, 之前的讲解中事先假定了权重的大小,也就是假定了各层恶魔之间的人际关系。
神经网络的参数确定方法分为有监督学习和无监督学习。本书只介绍有监督学习。
有监督学习是指,为了确定神经网络的权重和偏置,事先给予数据,这些数据称为学习数据(也称为训练数据)。根据给定的学习数据确定权重和偏置,称为学习
那么,神经网络是怎样学习的呢?思路极其简单:计算神经网络得出的预测值与正解的误差,确定使得误差总和达到最小的权重和偏置。这在数学上称为模型的最优化
关于预测值与正解的误差总和,有各种各样的定义。本书采用的 是最古典的定义:针对全部学习数据,计算预测值与正解的误差的平方(称为平方误差),然后再相加。这个误差的总和称为代价函数(cost function),用符号 CT 表示(T 是 Total 的首字母)
利用平方误差确定参数的方法在数学上称为最小二乘法,它在统计学中是回归分析的常规手段
本书将在2-12节以回归分析为例来具体考察什么是最小二乘法。
另外,本书以手写数字的模式识别为例进行说明。因此,学习数据是图像数据,学习实例是图像实例。
计算预测值与正解的误差的平方(称为平方误差),然后再相加。这个误差的总和称为代价函数(cost function),用符号 CT 表示(T 是 Total 的首字母)
利用平方误差确定参数的方法在数学上称为最小二乘法,它在统计学中是回归分析的常规手段
本书将在2-12节以回归分析为例来具体考察什么是最小二乘法。
另外,本书以手写数字的模式识别为例进行说明。因此,学习数据是图像数据,学习实例是图像实例。
需要注意的是,神经网络的权重是允许出现负数的,但在用生物学进行类比时不会出现负数,也难以将负数作为神经传递物质的量。可以看出,神经网络从生物那里得到启发,又飞跃到了与生物世界不同的另一个世界。
上一篇: 下学期幼儿园中班教学工作总结
下一篇:描写蒲公英的样子的句子