第七单元 第3课《人工神经网络发展史》课件【清华版】人工智能通识( 中学)

资源下载
  1. 二一教育资源

第七单元 第3课《人工神经网络发展史》课件【清华版】人工智能通识( 中学)

资源简介

(共39张PPT)
第七单元 第3课
人工神经网络发展史
清华版(中学)

1
学习目标
3
新知讲解
5
拓展延伸
7
板书设计
2
新知导入
4
课堂练习
6
课堂总结
课后作业
8
01
教学目标
(1)了解人工神经网络的发展历程,从感知器到深度神经网络。
(2)了解不同神经网络结构的核心原理及其应用场景。
(3)探讨深度神经网络的强大学习能力及其对人工智能的影响。
02
新知导入
1. 人工神经网络的发展历程
从M-P模型(1943年)到感知机(1957年)、反向传播(1986年),再到深度学习(2006年后),神经网络经历了多次兴衰与突破。
02
新知导入
2. 技术演进的关键节点
人工神经网络从M-P模型的理论奠基,经历感知机的兴衰与反向传播的突破,最终推动深度学习的崛起。
02
新知导入
3. 当前影响与未来潜力
现代神经网络(如CNN、Transformer)在图像、语言等领域实现革命性应用,持续拓展AI边界,展现了通用智能的潜力。
03
新知讲解
1
感知器模型的兴起与衰落
1. 感知器模型的核心机制
感知器是M-P模型的扩展,通过 单层网络结构 (输入层+输出层)实现二分类,输出规则为:加权和>0输出1,否则输出-1。
03
新知讲解
1
感知器模型的兴起与衰落
2. 罗森布拉特的突破性贡献
1957年提出 权重可训练 的感知器,首次实现从数据中自主学习,开创“学习即智能”的新范式。
03
新知讲解
1
感知器模型的兴起与衰落
3. 线性可分的根本局限
感知器仅能解决 线性可分问题 (如用直线分类),无法处理异或(XOR)等非线性问题,这一缺陷被闵斯基严格证明。
03
新知讲解
1
感知器模型的兴起与衰落
4. 对AI发展的双重影响
感知器的短期挫折(AI寒冬)与长期价值(奠定深度学习基础)共同构成了神经网络发展的关键转折点。
03
新知讲解
1. 多层感知器(MLP)的结构创新
通过引入 隐藏层 和 非线性激活函数 (如Sigmoid、ReLU),MLP突破了感知器的线性局限,能够构建复杂非线性分类面,解决异或(XOR)等难题。
2
MLP的提出及BP算法
03
新知讲解
2. 反向传播(BP)算法的突破
核心思想 :利用误差反向传播,逐层调整权重(输出层→隐藏层→输入层);
两阶段流程 :前向传播计算输出,反向传播修正误差,通过迭代优化网络性能。
2
MLP的提出及BP算法
03
新知讲解
3. 算法复兴与深远影响
1986年辛顿等人将BP应用于MLP训练,解决了深层网络学习难题,直接推动神经网络研究从低谷走向复兴,为深度学习时代奠定基础。
2
MLP的提出及BP算法
03
新知讲解
3
多种神经网络的提出
1. 卷积神经网络(CNN)的核心设计
采用 局部连接 和 权重共享机制,高效提取图像等数据的局部特征,降低参数量的同时增强模式识别能力。
03
新知讲解
3
多种神经网络的提出
2. CNN的生物学启发与历史演进
受视觉皮层局部敏感机制启发,从福岛邦彦的神经认知机(1980)到杨立昆的LeNet-5(1990s),再到大数据时代的深度CNN(如ResNet),逐步推动计算机视觉革命。
03
新知讲解
3
多种神经网络的提出
3. 循环神经网络(RNN)的序列建模优势
通过 循环结构 保留历史信息(记忆功能),实现对序列数据(如语言、时间序列)的上下文依赖建模,适用于语义理解、预测等任务。
03
新知讲解
3
多种神经网络的提出
4. RNN的变体与突破性进展
从霍普菲尔德网络(1982)、乔丹/埃尔曼网络(1980s)到LSTM(1997),通过门控机制解决长程依赖遗忘问题,显著提升序列建模性能。
03
新知讲解
3
多种神经网络的提出
5. CNN的典型应用场景
广泛应用于图像分类、目标检测、人脸识别等视觉任务,成为处理空间局部相关性数据的标准工具。
03
新知讲解
3
多种神经网络的提出
6. RNN的典型应用场景
主导自然语言处理(如情感分析、机器翻译)、语音识别、时间序列预测(如股票走势)等需时序建模的领域。
03
新知讲解
3
多种神经网络的提出
7. 结构创新背后的共同原则
CNN(空间局部性)和RNN(时间依赖性)均通过 参数共享 和 结构化设计 ,高效处理高维数据,避免全连接网络的计算爆炸问题。
03
新知讲解
3
多种神经网络的提出
8. 对AI发展的整体推动
CNN和RNN等专用架构的出现,极大扩展了神经网络的应用边界,推动AI在视觉、语言、语音等领域的落地,为深度学习生态奠定基础。
03
新知讲解
4
深度神经网络
1. 深度学习的崛起与特征学习革命
2006年后,深层神经网络展现出强大的 分层特征提取能力 ,从底层(如边缘、纹理)到高层(如物体、语义)自动学习多尺度特征,摆脱了人工设计特征的局限。
03
新知讲解
4
深度神经网络
2. 自注意力机制的突破性创新
通过 自注意力机制 (如Transformer架构),实现对超长序列(如文本、语音)的高效建模,解决了传统RNN的梯度消失/爆炸问题,推动大模型(如GPT、BERT)时代的到来。
03
新知讲解
4
深度神经网络
3. 对AI发展的范式转变
技术层面 :从“特征工程”转向“端到端学习”;
应用层面 :推动计算机视觉、自然语言处理等领域的跨越式发展,奠定通用人工智能(AGI)的基础。
03
新知讲解
5
总结
1. 从感知器到多层网络的演进
感知器因线性不可分问题受限,而多层感知器(MLP)与反向传播(BP)算法结合,突破了这一局限,使神经网络具备解决复杂问题的能力。
03
新知讲解
5
总结
2. 专用网络结构的多元化发展
CNN(处理空间局部特征)、RNN(建模时序依赖)等结构相继出现,针对不同任务(图像、语言、语音)优化,极大扩展了神经网络的应用范围。
03
新知讲解
5
总结
3. 深度学习的复兴与当代成就
2006年后深度学习崛起,通过深层架构和端到端学习(如特征自动提取),在视觉、自然语言处理等领域取得突破性进展,为AI发展开启新篇章。
03
新知讲解





(1)CNN的限制与意义 :
限制 :强制局部连接(卷积核)和权重共享,放弃全连接;
意义 :降低参数量,高效提取图像等数据的局部特征(如边缘、纹理),解决MLP的空间冗余问题。
1. CNN和RNN在MLP基础架构上做了哪些限制?
04
课堂练习
一、判断题。
1. 感知器模型能够通过自动学习调整权重和阈值。 ( )
2. 多层感知器(MLP)通过引入隐藏层和非线性激活函数解决了线性不可分问题。 ( )
3. 卷积神经网络(CNN)主要用于处理时间序列数据。 ( )
4. 循环神经网络(RNN)能够很好地保留历史信息,适用于自然语言处理任务。 ( )
5. 深度学习崛起于2006年,主要得益于反向传播算法的提出。 ( )
×
×
×


04
课堂练习
二、选择题
1. 下列哪项是感知器模型的主要局限性?( )
A. 训练速度过慢 B. 只能处理线性可分问题 C. 需要大量标注数据 D. 无法进行二分类
2. 谁提出了反向传播(BP)算法在神经网络中的应用?( )
A. 罗森布拉特 B. 辛顿(Hinton)团队 C. 闵斯基 D. 图灵
3. CNN中的“卷积核”主要作用是:( )
A. 增加网络深度 B. 实现局部连接和权重共享 C. 加速训练过程 D. 处理序列数据
4. RNN相比MLP的主要优势是:( )
A. 处理图像数据 B. 建模序列数据的时序依赖 C. 解决线性可分问题 D. 减少参数数量
5. 深度学习的核心突破之一是:( )
A. 使用更小的网络 B. 人工设计特征 C. 端到端的特征自动学习 D. 增加数据标注量
B
C
B
B
B
04
课堂练习
三、填空题
1. M-P神经元模型的核心是 逻辑单元,通过加权求和与阈值比较来模拟神经元的激活。
2. 感知器模型仅能解决 问题,无法处理异或(XOR)等非线性任务。
3. 反向传播(BP)算法通过 传播误差,逐层调整神经网络权重。
4. 卷积神经网络(CNN)通过 和权重共享机制高效提取图像特征。
5. 2006年后, 的崛起推动了神经网络分层特征提取能力的突破。
阈值
线性可分
反向
局部连接
深度学习
05
拓展延伸
1. 神经网络的生物启发 :人工神经网络的结构和功能模仿人脑神经元之间的连接与信号传递机制,但进行了简化和数学抽象。
05
拓展延伸
2. 损失函数与优化器 :损失函数衡量模型预测与真实值的差距,优化器(如SGD、Adam)通过调整参数最小化损失,驱动神经网络学习。
05
拓展延伸
3. 生成对抗网络(GAN) :由生成器和判别器组成,通过对抗训练生成逼真数据(如图像、音频),广泛应用于内容生成和增强。
06
课堂总结
1
感知器模型的兴起与衰落
2
感知器模型的兴起与衰落
3
多种神经网络的提出
4
深度神经网络
5
进行相关知识拓展
1
2
3
4
5
人工神经网络发展史
07
板书设计
人工神经网络发展史
1、感知器模型的兴起与衰落
2、感知器模型的兴起与衰落
3、多种神经网络的提出
4、深度神经网络
5、进行相关知识拓展
课后作业。
1、闵斯基的《感知器》是否应为神经网络发展的停滞负责?
08
课后作业
(1)客观批评的价值 :闵斯基严格证明了感知器的线性可分局限,避免了盲目投入资源研究不可行方向,客观上推动了后续多层网络的探索。
(2)技术背景限制 :当时计算资源与理论(如反向传播)尚未成熟,即使没有闵斯基的批评,神经网络发展仍可能因技术瓶颈停滞。
(3)历史辩证视角 :短期看《感知器》导致AI寒冬,但长期促使研究者转向更复杂模型(如MLP、CNN),最终迎来深度学习复兴。
1. 闵斯基的《感知器》是否应为神经网络发展的停滞负责?
https://www.21cnjy.com/recruitment/home/fine

展开更多......

收起↑

资源预览