第五单元 第2课《信息伪造》课件【清华版】人工智能通识( 中学)

资源下载
  1. 二一教育资源

第五单元 第2课《信息伪造》课件【清华版】人工智能通识( 中学)

资源简介

(共36张PPT)
第五单元 第2课
信息伪造
清华版(中学)

1
学习目标
3
新知讲解
5
拓展延伸
7
板书设计
2
新知导入
4
课堂练习
6
课堂总结
课后作业
8
01
教学目标
(1)了解人工智能在音视频合成技术中的应用及其滥用带来的社会
影响。
(2)认识鉴伪技术在应对虚假音视频泛滥中的作用及其局限性。
(3)探讨应对信息伪造的多层次策略,包括技术手段、公众教育和法律监管。
02
新知导入
AI技术发展的双面性
人工智能在提供便利的同时,也带来不同层级的风险,部分风险(如自主攻击)尚需长期应对,而另一些风险已对社会造成直接危害。
思考:你知道AI技术给社会带来了哪些危害呢?
02
新知导入
技术滥用的现实危害
伪造内容真假难辨,可能被用于政治操纵、金融欺诈或人格诋毁,亟需技术反制与法律监管。
03
新知讲解
1
音视频合成技术
1.信息伪造的定义
信息伪造是指通过各种手段制造和传播虚假信息,以达到误导他人或欺骗的目的。这不仅限于文字,还包括图片、音频和视频等多种形式。
03
新知讲解
1
音视频合成技术
2.音视频合成技术的原理
音视频合成技术通过计算机算法,将声音和图像进行合成或修改,使其呈现出虚假的内容。这包括但不限于面部替换、语音合成等技术。
03
新知讲解
1
音视频合成技术
3.实例解析:深度伪造 (Deepfakes)
深度伪造技术是音视频合成技术的一个典型应用,通过AI算法可以生成几乎以假乱真的虚假视频。例如,一段伪造的名人讲话视频,可能会对公众产生误导。
将A的人脸照片输入“表情编码器”,提取其面部表情特征输入B的“人脸解码器”,可以生成一张具有A的表情但人脸为B的照片。
03
新知讲解
1
音视频合成技术
4.静态换脸应用
替换图像或视频中的人脸,保持背景、衣着等元素不变。
03
新知讲解
1
音视频合成技术
5.动态操控扩展
通过动作驱动静态图片生成虚假动态视频(如让照片中的人“开口说话”),增强伪造内容的欺骗性。
03
新知讲解
1
音视频合成技术
6. 语音转换的技术原理
通过提取说话人A的发音特征,如音色、语调,并将其迁移至发音人B的语音上,实现声音身份的篡改或模仿。
03
新知讲解
1
音视频合成技术
7. 实时转换的欺骗性应用
当前技术可在电话通话中实时处理语音流,使接收端听到完全不同的声音,大幅提升伪造信息的隐蔽性与危害性。
03
新知讲解
2
音视频合成技术的滥用
1. 技术的初衷:娱乐与影视创新
Deepfake与语音转换最初用于降低影视制作成本,提升创作自由度与效率,如替身演员换脸、特效配音。
03
新知讲解
2
音视频合成技术的滥用
2.技术滥用的社会危害
虚假信息传播 与 金融欺诈是AI技术滥用的典型危害。
03
新知讲解
2
音视频合成技术的滥用
3. 风险升级的警示
技术从娱乐工具演变为伪造信息的利器,凸显监管缺失与伦理滞后,亟需制定使用规范与反制措施。
03
新知讲解
3
鉴伪工作
1. AI反制:技术鉴伪的核心手段
利用AI检测工具分析伪造音视频的破绽(如眼部反射光异常、口型与声音不同步),实现高达94%的检出率(如生成对抗网络伪造人脸识别)。
03
新知讲解
3
鉴伪工作
2. 行业协同与公众教育
脸书、微软等科技公司推动检测竞赛与工具研发,同时也需提升公众对虚假信息的辨识能力(如来源验证、内容存疑原则)。
03
新知讲解
3
鉴伪工作
3. 法律监管与责任追溯
各国政府加快立法,通过技术+法律+教育的多维体系遏制技术滥用。
03
新知讲解
3
鉴伪工作
影视作品中的AI鉴伪
03
新知讲解
3
鉴伪工作
用AI换脸诈骗?检察官教你千层套路这样破!
03
新知讲解
4
总结
1. AI音视频合成的双刃剑效应
技术可生成逼真内容助力娱乐产业,但也导致虚假信息泛滥风险。
03
新知讲解
4
总结
2. 鉴伪技术的局限性与挑战
当前检测工具仅对已知伪造算法有效,新型算法(如升级版GAN)需持续更新检测方案,存在技术滞后性。
03
新知讲解
4
总结
3. 多维治理的必要性
需结合技术升级(动态鉴伪系统)、法律严惩(提高违法成本)与公众教育,系统性应对虚假信息危机。
03
新知讲解





1.若AI音视频合成技术被用于“善意谎言”(如临终关怀中伪造亲人留言),是否应允许?
不应允许 。
1.伦理风险 :即使出于善意,伪造内容可能侵犯当事人知情权,且模糊真实与虚假的界限。
2.长期危害 :此类行为可能被滥用,导致技术信任崩塌,加剧社会对真实性的质疑。
3.替代方案 :可通过真实录音、影像或心理疏导实现关怀,无需依赖伪造技术。
03
新知讲解





2.社交媒体平台是否应为用户上传的Deepfake内容承担法律责任?
应当承担部分责任
1.平台义务 :若未采取合理措施(如内容审核、鉴伪工具、举报机制),则需为放任传播担责。
2.技术限制 :完全杜绝Deepfake技术上不可行,但平台应主动合作研发检测技术(如Meta的AI鉴伪项目)。
3.法律趋势 :欧盟《数字服务法》等已要求平台对高风险AI内容履行“尽职调查”义务。
03
新知讲解





3.视频中的小羊是真实存在的吗?
如果不是,你是从哪里判断的呢?
04
课堂练习
一、判断题。
1.Deepfake技术仅能替换人脸,无法修改语音。(  )
2.语音转换技术可实时伪造电话通话中的声音。(  )
3.AI鉴伪工具能100%检测所有伪造视频。(  )
4.虚假音视频的治理仅需技术手段即可解决。(  )
5.公众教育是防范虚假信息的重要环节。(  )

×
×

×
04
课堂练习
二、选择题
1.Deepfake最初的应用领域是? ( )
A. 金融诈骗 B. 影视特效 C. 政治操纵 D. 医疗诊断
2.以下哪项不是语音转换技术的风险? ( )
A. 伪造名人发言 B. 实时电话诈骗 C. 改善听力障碍 D. 冒充身份指令
3.当前鉴伪技术的主要局限性是? ( )
A. 仅能检测静态图片 B. 对新型伪造算法滞后 C. 依赖人工复核 D. 成本过高
4.应对虚假信息的法律措施包括? ( )
A. 提高违法成本 B. 禁止AI研发 C. 关闭社交媒体 D. 限制网络带宽
5.GVTNet在医学中的应用是? ( )
A. 伪造病理报告 B. 增强显微图像 C. 合成假药配方 D. 篡改基因数据
C
B
A
B
B
04
课堂练习
三、填空题
1.Deepfake 通过 模型(如表情编码器+人脸解码器)实现人脸替换。
2.语音转换技术 的核心是提取说话人的 (如音色、语调)并迁移至目标语音。
3.AI鉴伪工具 通过分析 (如眼部反射光异常)检测伪造视频,准确率可达94%。
4.虚假音视频 的两大滥用场景是 (如伪造政客演讲)和金融欺诈(如冒充高管诈骗)。
深度学习
发音特征
细节失真
虚假信息传播
05
拓展延伸
1.生物特征加密 :
利用人体固有特征(如指纹、虹膜、声纹)进行高安全性身份验证,确保数据访问与通信的不可篡改性。
05
拓展延伸
2.未来技术 :
量子加密利用量子态不可克隆特性,实现无条件安全通信,从根本上杜绝信息伪造与窃听。
06
课堂总结
1
音视频合成技术
2
音视频合成技术的滥用
3
鉴伪工作
4
总结
5
进行相关知识拓展
1
2
3
4
5
信息伪造
07
板书设计
信息伪造
1、音视频合成技术
2、音视频合成技术的滥用
3、鉴伪工作
4、总结
5、进行相关知识拓展
课后作业。
1、列表对比Deepfake与语音转换技术的原理、应用及潜在危害。
08
课后作业
1.列表对比Deepfake与语音转换技术的原理、应用及潜在危害。
对比项 Deepfake 语音转换(Voice Conversion)
技术原理 基于深度学习的人脸替换/动态操控(如GAN模型) 提取源音色特征迁移至目标语音(如神经网络声码器)
典型应用 影视特效、换脸娱乐、虚拟偶像 配音优化、实时变声、无障碍语音辅助
潜在危害 伪造政治言论、诽谤、虚假新闻 电话诈骗、身份冒充、伪造权威指令
对比项 Deepfake 语音转换(Voice Conversion)
技术原理 基于深度学习的人脸替换/动态操控(如GAN模型) 提取源音色特征迁移至目标语音(如神经网络声码器)
典型应用 影视特效、换脸娱乐、虚拟偶像 配音优化、实时变声、无障碍语音辅助
https://www.21cnjy.com/recruitment/home/fine

展开更多......

收起↑

资源预览