第七单元 第4课《深度学习的开端》课件【清华版】人工智能通识( 中学)

资源下载
  1. 二一教育资源

第七单元 第4课《深度学习的开端》课件【清华版】人工智能通识( 中学)

资源简介

(共35张PPT)
第七单元 第4课
深度学习的开端
清华版(中学)

1
学习目标
3
新知讲解
5
拓展延伸
7
板书设计
2
新知导入
4
课堂练习
6
课堂总结
课后作业
8
01
教学目标
(1)了解深度学习之父杰弗里·辛顿的成长经历及其伟大贡献。
(2)理解深度学习的基本原理,特别是层次性特征学习的重要性。
(3)探讨深度学习开启的大数据学习时代及其推动人工智能发展的意义。
02
新知导入
1. 深度学习的诞生背景
深度学习源于对传统神经网络局限的突破,旨在解决 特征自动提取 和 复杂模式识别 问题,摆脱人工设计特征的依赖。
02
新知导入
2. 杰弗里·辛顿的关键贡献
20 世纪 80 年代辛顿与他人共同完善反向传播算法, 2006年辛顿提出深度信念网络,推动了深层神经网络的实用化,为深度学习理论和实践奠定基础。
02
新知导入
3.深度学习的核心价值
技术突破 :实现端到端学习,自动从数据中提取多层次特征;
应用影响 :推动计算机视觉、自然语言处理等领域的跨越式发展,成为现代AI的核心驱动力。
03
新知讲解
1
辛顿的求学之路
1. 辛顿的学术背景与家族影响
出生于科学世家(曾曾祖父为布尔代数创始人乔治·布尔),自幼受科学熏陶,尤其痴迷于大脑工作机制的研究。
03
新知讲解
1
辛顿的求学之路
2. 求学与科研的曲折历程
从剑桥大学实验心理学转向神经网络研究,经历了学术方向探索与生活困境,最终在爱丁堡大学坚持攻读神经网络博士学位,对抗当时学术界的质疑。
03
新知讲解
1
辛顿的求学之路
3. 坚韧信念与历史性贡献
面对神经网络研究低谷,坚信“其他人错了”,其执着精神为后续深度学习突破(如反向传播、深度信念网络)埋下伏笔,最终成为AI领域里程碑人物。
03
新知讲解
1. 神经网络研究的低谷背景
20世纪60年代末,闵斯基的《感知器》揭露了感知器的线性可分局限,导致神经网络研究陷入低谷,大量研究者转向符号方法或其他领域。
2
多层神经网络
03
新知讲解
2. 辛顿的坚持与BP算法突破
辛顿拒绝放弃,于1986年提出 反向传播(BP)算法 ,成功训练多层神经网络,解决线性不可分问题,首次挽救神经网络研究。
2
多层神经网络
03
新知讲解
3. BP算法的理论价值与应用局限
理论贡献 :证明单隐藏层网络可逼近任意连续函数;
实践短板 :训练易陷局部最优,性能不稳定,难以达到理论潜力。
2
多层神经网络
03
新知讲解
4. 支持向量机(SVM)的竞争冲击
1995年SVM凭借 全局最优解 和稳定性能碾压神经网络,导致神经网络研究再度边缘化,凸显BP算法的实践缺陷。
2
多层神经网络
03
新知讲解
5. 辛顿的长期目标与后续方向
BP算法虽复兴了神经网络,但辛顿的终极目标是 模拟生物智能 ,而非仅解决分类问题,这推动他后续探索深度学习。
2
多层神经网络
03
新知讲解
3
深度学习的开端
1. 2006年的突破:深度信念网络与预训练
辛顿在《自然》发表论文,提出用 受限玻尔兹曼机(RBM) 逐层预训练提取层次特征(如从线条到人脸轮廓),解决了深层网络训练难题,开启深度学习革命。
03
新知讲解
3
深度学习的开端
2. 层次化特征学习的核心思想
突破“神经网络即函数拟合”的传统观念,强调 特征层次性 ,由低到高、从局部到语义,模拟人类感知系统的信息处理机制。
03
新知讲解
3
深度学习的开端
3. 深度学习的本质与时代意义
深度学习的核心是通过大数据与复杂模型实现高效学习,并作为大数据时代的“第一声号角”重新定义了机器智能的边界。
03
新知讲解
3
深度学习的开端
4. Transformer架构的革新性影响
2017年提出的Transformer凭借 自注意力机制 ,极大提升了序列建模能力,如语言、视频,推动AI进入 大模型时代 ,接近通用智能。
03
新知讲解
3
深度学习的开端
5. 规模效应的验证与未来方向
发现模型性能随 数据量、参数规模、算力 增加而提升,预示“更大即更强”的发展路径,推动超级智能的探索。
03
新知讲解
3
深度学习的开端
6. 辛顿的坚持与历史性贡献
在两次神经网络低谷中坚守,通过BP算法(1986)和深度学习(2006)两次挽救领域,其信念与创新奠定现代AI基石。
03
新知讲解
4
总结
1. 深度学习的核心价值与历史意义
深度学习通过 大数据驱动 和 复杂模型 解决了传统统计方法的局限性,推动了人工智能从理论到应用的跨越式发展。
03
新知讲解
4
总结
2. 辛顿的坚持与范式突破
辛顿在神经网络低谷期的 学术坚守 与 关键突破 ,体现了个人信念对技术革命的决定性作用,重塑了AI的发展路径。
03
新知讲解
4
总结
3. 未来潜力与社会影响
深度学习将与大数据、算力提升协同进化,通过与生物、医疗、自动驾驶等的 跨界融合解锁新领域,为人类社会带来颠覆性变革。
03
新知讲解





(1)科学突破常源于对少数人信念的坚守 ——辛顿的坚持证明,颠覆性创新往往需要挑战主流质疑的勇气与长期韧性。
1.杰弗里·辛顿在神经网络两次陷入低谷时都选择了坚持,并最终取得了突破。你认为在科学研究中,这种对信念的坚守有多重要?
04
课堂练习
一、判断题。
1. 辛顿的求学之路一帆风顺,很早就确定了神经网络的研究方向。 ( )
2. BP算法虽然能训练多层网络,但容易陷入局部最优解。 ( )
3. 深度学习崛起后,人工设计特征变得更加重要。 ( )
4. Transformer架构主要用于处理图像空间信息。 ( )
5. 模型性能随着数据量、参数规模和算力的增加而提升。 ( )
×
×
×


04
课堂练习
二、选择题
1. 辛顿在神经网络研究低谷期坚持研究的原因是:( )
A. 计算资源突然丰富 B. 他坚信“其他人错了”
C. 政府提供了大量资金 D. 符号方法已被证明失败
2. 支持向量机(SVM)在1995年对神经网络造成冲击的原因是:( )
A. 其训练更容易达到全局最优 B. 其网络结构更复杂
C. 其无需训练数据 D. 其计算速度更慢
3. 深度学习中的“层次化特征学习”指的是:( )
A. 人工设计每一层的特征 B. 从数据中自动学习由低到高的特征(如从边缘到物体)
C. 只使用单层网络 D. 专注于提取高级语义特征
B
A
B
04
课堂练习
三、填空题
1. 杰弗里·辛顿的曾曾祖父是 ,他创立的布尔代数为计算机科学奠定了基础。
2. 辛顿在1986年提出的 算法,解决了多层神经网络的训练问题。
3. 2006年,辛顿在《自然》杂志上提出使用 进行逐层预训练,开启了深度学习革命。
4. 2017年提出的 架构,凭借自注意力机制极大提升了序列建模能力。
5. 深度学习的核心是通过 与复杂模型实现高效学习。
乔治·布尔
反向传播(BP)
受限玻尔兹曼机(RBM)
Transformer
大数据
05
拓展延伸
1. 乔治·布尔与布尔代数 :布尔创立的布尔代数用逻辑运算符(AND/OR/NOT)描述思维规律,成为计算机科学的基础数学语言。
05
拓展延伸
2. 注意力机制的生物学类比 :模仿人脑选择性关注信息的机制。如聚焦视觉焦点,让AI模型动态加权关键输入部分。
05
拓展延伸
3. 迁移学习与预训练模型 :利用大规模数据预训练通用模型,再通过微调适配小规模特定任务,显著提升效率与性能。
06
课堂总结
1
辛顿的求学之路
2
多层神经网络
3
深度学习的开端
4
总结
5
进行相关知识拓展
1
2
3
4
5
深度学习的开端
07
板书设计
深度学习的开端
1、辛顿的求学之路
2、多层神经网络
3、深度学习的开端
4、总结
5、进行相关知识拓展
课后作业。
1、请简述杰弗里·辛顿对深度学习发展的两大主要贡献。
08
课后作业
(1)杰弗里·辛顿的两大贡献 :提出反向传播(BP)算法解决多层网络训练难题,并开创深度信念网络(DBN)实现层次化特征学习,奠定深度学习基石。
1.请简述杰弗里·辛顿对深度学习发展的两大主要贡献。
https://www.21cnjy.com/recruitment/home/fine

展开更多......

收起↑

资源预览