【核心素养目标】第8课《人工智能安全》课件+教案+素材-【浙教版2023】《信息科技》九年级

资源下载
  1. 二一教育资源

【核心素养目标】第8课《人工智能安全》课件+教案+素材-【浙教版2023】《信息科技》九年级

资源简介

(共36张PPT)
第8课
人工智能安全
(浙教版)九年级

01
教学目标
02
新知导入
03
人工智能助力安全
04
人工智能内生安全
05
人工智能安全发展
06
拓展延伸
08
课堂小结
09
板书设计
07
课堂练习
01
教学目标
1、信息意识:能够认识到人工智能在生活中的广泛应用,主动关注人工智能安全相关的新闻和事件,了解其对个人和社会的影响。
2、计算思维:能够运用逻辑推理和问题求解的能力,提出解决人工智能安全问题的思路和方法,培养批判性思维。
3、数字化学习与创新:能运用所学知识,尝试创新地设计和开发简单的人工智能安全解决方案或工具,培养创新意识和实践能力。
4、信息社会责任:明确在使用人工智能技术时应遵守的道德规范和法律法规,自觉维护人工智能安全和个人隐私。
02
新知导入
通过分析人工智能与安全的辩证关系,能理解人工智能既能赋能安全,又会伴生安全问题;通过学习人工智能内生安全的内容,认识到人工智能系统的设计、制造和使用等环节须在法律法规、国家政策、伦理道德、标准规范的约束下进行。
探究:
1、我们熟悉的语音识别或图像识别在应用中存在哪些安全隐患
2、人工智能会不会是隐私的泄密者 为什么
02
新知导入
人工智能技术具有安全赋能和安全伴生两大效应。所谓安全赋能是指人工智能为保障网络空间安全、提升经济社会风险防控能力等方面提供了新手段和新途径。所谓安全伴生是指当人工智能发展到一定阶段后,在不断的应用中发现新的安全问题伴生而来,其安全性将受到更严峻的挑战。
03
人工智能助力安全
在公共安全领域,人工智能依托其强大的数据分析和自主学习能力,可以充分挖掘数据价值,预测预警经济社会运行中可能存在的潜在风险,在智能安防监控、恶意代码检测、垃圾邮件检测、用户实体行为分析等方面发挥助力安全的作用。
03
人工智能助力安全
1.智能安防监控
安防监控涉及的人工智能技术有智能视频监控、体态识别与行为预测和智能安防机器人等技术。
智能视频监控能够将人的各种属性进行关联分析与数据挖掘,实现安防监管的实时响应与预警。
03
人工智能助力安全
以往的监控摄像头把图像、视频数据传输到服务端后再由服务端进行特定处理,近年来安防行业越来越多的数据和计算从云中心迁移到摄像头、传感器等“边缘”位置,用以节省带宽、提升服务响应速度与可靠性。基于边缘计算的人脸识别摄像头能够直接在本地设备上完成识别得到相关数据。在深山、矿井、远海航船等网络难以覆盖的地方,搭载边缘计算的视频监控系统能够实时处理数据,及时做出响应,确保安全。
03
人工智能助力安全
2.垃圾邮件检测
人工智能技术发展的初期,使用规则对垃圾邮件进行检测。在垃圾邮件的检测中,当邮件中出现事先指定的一些可能属于垃圾邮件的词语时,这封邮件很可能就是垃圾邮件,当邮件里出现网址时,也可能是垃圾邮件。
03
人工智能助力安全
但随着规则越来越多,这样的检测系统也变得越来越复杂。机器学习算法可以自动地从数据的某些特征中学习它们之间的关系,并且通过对数据的不断学习,提升垃圾邮件检测的能力和性能。
03
体验使用贝叶斯分类器算法进行垃圾邮件判定。
使用贝叶斯分类器进行垃圾邮件判定,需先收集正常邮件和垃圾邮件数据并预处理,转换为特征向量。接着在训练阶段计算先验概率和条件概率,构建分类器。测试时用分类器对邮件分类并评估性能。体验中,准确性较高时能正确识别垃圾邮件且不误判正常邮件,可解释性强,能查看单词条件概率了解对判定的贡献,但也有局限性,对新类型或特定领域邮件可能表现不佳,且受邮件多样性和复杂性影响。
亲身体验
人工智能助力安全
03
我们熟悉的语音识别或图像识别在应用中存在哪些安全隐患
语音识别安全隐患: 1. 声音模仿与伪造,如利用语音合成技术或录音重放攻击欺骗系统。 2. 背景噪声干扰影响识别准确性。 3. 隐私泄露,语音数据若保护不当易被窃取。
图像识别安全隐患: 1. 图像伪造与篡改,包括使用图像编辑软件和对抗样本攻击。 2. 模型窃取与逆向攻击,侵犯知识产权并获取敏感信息。 3. 隐私泄露,图像含个人信息,安全措施不足易泄露。 4. 物理攻击,如放置物体干扰或破坏摄像头组件。
新知拓展
人工智能助力安全
03
新知拓展
人工智能助力安全
04
人工智能内生安全
人工智能可以助力安全,但人工智能系统涉及数据、框架、算法、模型、运行等多个复杂环节,这些环节都可能导致人工智能系统内在的安全问题。
1.数据安全
数据是人工智能的重要基础。数据集的质量会直接影响人工智能算法的执行效果。使用不同质量的数据集会在训练之后得到不同的模型参数,产生不同的执行效果,进而影响人工智能算法的安全性。
04
人工智能内生安全
数据集的质量取决于数据集的规模、均衡性、准确性等。人为地对数据进行修改在很大程度上能改变人工智能算法的执行效果。即便是已经用高质量数据集训练完毕的人工智能算法模型,只要对输入的数据进行一些人眼无法感知的微小扰动,即可让算法的输出产生巨大的变化,这些经过微小扰动的输入数据就是对抗样本。图8-1显示了对抗样本及其错误辨识的结果。
图8-1 对抗样本及其错误辨识结果
04
人工智能内生安全
如果恶意使用对抗样本,可以欺骗自动驾驶汽车,使其不能正确识别道路停车标志,从而引发事故;可以欺骗语音识别系统,让系统误认为是“主人语音”而执行虚假命令;可以入侵城市交通系统甚至武器系统。这种通过对抗样本对智能系统发起的欺骗被称为“对抗性攻击”。
04
人工智能内生安全
亲身体验
体验“对抗样本”对人工智能模型可靠性的影响。实践内容如下:
1.准备原始图片数据和添加噪声后的图片数据。
一、准备阶段
(1).收集原始图片数据
可以从公开的图像数据集(如 CIFAR-10、MNIST 等)中选取一定数量的具有代表性的图片,涵盖不同的类别和场景。
确保原始图片的质量和多样性,以便更好地观察对抗样本对不同类型图像的影响。
(2).生成添加噪声后的图片数据
采用不同的方法添加噪声,例如可以使用快速梯度符号法(FGSM)等攻击算法。
调整噪声的强度和类型,生成一系列对抗样本,观察其对人工智能模型的影响程度。
04
人工智能内生安全
亲身体验
2.在Keras上使用RexNet分类模型:
二、使用 RexNet 分类模型
(1).在 Keras 中导入 RexNet 模型
确保已经正确安装了 Keras 和相关的依赖库。
使用 Keras 的应用模块可以方便地导入预训练的 RexNet 模型,或者根据需要自行构建和训练模型。
(2).对原始图片和对抗样本进行分类
将原始图片数据和添加噪声后的图片数据分别输入到 RexNet 模型中进行分类。
记录模型对每一张图片的分类结果和预测概率。
04
人工智能内生安全
亲身体验
三、查看实验结果并分析
比较原始图片和对抗样本的分类结果
观察模型对原始图片的分类准确性,通常情况下,预训练的模型在原始图片上应该能够取得较高的准确率。
对比模型对对抗样本的分类结果,是否出现错误分类的情况。如果模型对对抗样本的分类结果与原始图片有较大差异,说明对抗样本对模型的可靠性产生了影响。
分析对抗样本的影响因素
研究不同噪声强度和类型对模型分类结果的影响。一般来说,噪声强度越大,模型越容易受到干扰,分类错误的可能性也越高。
观察不同类别的图片对对抗样本的敏感性是否不同。有些类别可能更容易受到对抗样本的影响,而有些类别则相对较稳定。
04
人工智能内生安全
2.算法安全
如果想保证算法的完全正确,需要从理论上对算法进行证明,证明算法在任何情况下都能产生正确的结果。
深度神经网络在很多领域能取得远超传统算法的准确率,但缺乏可解释性。
04
人工智能内生安全
针对不同任务需要多少隐藏层,每个隐藏层抽取了何种特征还未能完全说明。在一些对准确率要求高、可解释性要求强的场景中,神经网络造成的失误会产生巨大影响。人工智能算法可以借助海量数据进行自我学习和进化,可以在无人干预下自主处理问题,这也使得人工智能的行为和决策难以被事先预料和干预,从而增加安全风险。
04
人工智能内生安全
3.模型安全
人工智能算法往往需要训练大量的模型参数,经过训练之后生成的模型一般以实体文件的形式保存在服务器。如果攻击者攻击了云端服务器,利用服务器漏洞获取模型参数,可能造成严重后果。
04
人工智能内生安全
随着人工智能的普及,很多开发者将训练好的模型共享给更多用户,如果攻击者对开源的模型进行攻击,向其中注入恶意代码或参数,生成“变异”的神经网络模型并再次共享,在遇到特定情况或数据时,触发执行特定的恶意行为,会引起重大的安全问题。
05
人工智能安全发展
在人工智能涉及的网络安全、数据安全、隐私保护方面,相关法律法规条款部分已在现有法律体系中体现。我国目前正在多层面推进数据安全和个人信息保护法律法规的制定,加速完善相关保护和监管准则,对人工智能相关应用进一步明确监管要求。
05
人工智能安全发展
我国《新一代人工智能发展规划》中明确提出“建立人工智能安全监管和评估体系”,包括“建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管;促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度”。认识到自主可控对国家安全的重要性,加强核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。
05
人工智能安全发展
新知拓展
人工智能会不会是隐私的泄密者 为什么
人工智能有可能成为隐私的泄密者。原因如下: 在数据收集环节,大规模数据采集及数据共享合作可能导致用户个人信息泄露,如智能设备和应用收集行为、位置信息,数据提供商出售用户数据等。在模型训练与应用环节,可能面临模型反演攻击、数据残留以及恶意应用带来的隐私泄露风险,如医疗领域攻击者可推断患者信息,云计算中数据未彻底清除可能被获取,恶意软件利用人工智能窃取敏感信息。此外,技术不断进步带来新的攻击手段和隐私泄露风险,而监管的滞后性使得企业缺乏约束,处罚力度不够,难以有效保护用户隐私。
05
人工智能安全发展
新知拓展
06
随堂练习
1.个性化智能推荐已深度应用于新闻信息行业,也广泛应用于旅游出行、电子商务、金融服务等行业。智能推荐系统在给人们生活带来便利的同时,在实际应用中也暴露出一些安全风险。请结合生活中的应用体验,分析智能推荐的风险挑战,并提出相应的安全监管措施建议。
智能推荐虽带来便利,但也有风险挑战。如新闻领域易致信息茧房,电子商务领域可能让用户错过新商品;存在隐私泄露风险,可能被不良商家出售数据或遭黑客攻击;有算法偏见问题,会加剧社会不平等;还可能传播虚假信息。 安全监管措施包括加强算法监管,规范设计使用并公开原理接受监督;保护用户隐私,制定严格标准;促进信息多元化,打破信息茧房;提高用户意识;建立行业自律机制。
06
随堂练习
2.搜索并学习我国有关人工智能安全方面的政策文件。
我国有关人工智能安全方面的政策文件有:《生成式人工智能服务管理暂行办法》及其支撑文件《生成式人工智能服务安全基本要求》,《全球安全倡议概念文件》提及人工智能安全治理,《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,《中共中央关于进一步全面深化改革推进中国式现代化的决定》提到建立人工智能安全监管制度,还有《人工智能安全标准化白皮书(2019 版)》和《人工智能安全标准化白皮书(2023 版)》。
07
拓展延伸
1、防护ai换脸诈骗
07
拓展延伸
2、人工智能安全的国际合作
了解国际上在人工智能安全方面的合作与交流情况,如国际标准制定、联合研究等。
明白人工智能安全是全球性问题,需要各国共同努力,培养全球视野和合作意识。
关注国际人工智能安全动态,积极参与相关的活动和讨论。
07
拓展延伸
3、人工智能教育
了解人工智能在教育领域的应用,如个性化学习推荐、智能辅导系统等。
探讨人工智能如何根据我们的学习特点和需求提供个性化的教育服务,同时也要注意数据的安全保护。
体验一些智能教育产品,感受人工智能对学习的帮助。
08
课堂小结
本次《人工智能安全》课程,我们认识到人工智能虽带来便利,但也有信息茧房、隐私泄露、算法偏见、虚假信息传播等风险。应对这些挑战需加强算法监管、保护用户隐私、促进信息多元化、提高用户意识和建立行业自律机制。我们还学习了我国相关政策文件,希望同学们在享受人工智能便利的同时关注安全风险,共同营造安全的应用环境。
09
板书设计
人工智能安全
一、人工智能助力安全
二、人工智能内生安全
三、人工智能安全发展
课后作业:
利用课余时间,尝试使用一款具有智能推荐功能的应用程序(如新闻客户端、购物软件等),观察其推荐内容,并思考如何判断这些推荐是否存在信息茧房的问题。记录下你的观察和思考结果。
https://www.21cnjy.com/recruitment/home/fine中小学教育资源及组卷应用平台
信息技术 第8课 人工智能安全
课题 人工智能安全 单元 第二单元 学科 信息技术 年级 九年级
教学目标 1、信息意识:能够认识到人工智能在生活中的广泛应用,主动关注人工智能安全相关的新闻和事件,了解其对个人和社会的影响。 2、计算思维:能够运用逻辑推理和问题求解的能力,提出解决人工智能安全问题的思路和方法,培养批判性思维。3、数字化学习与创新:能运用所学知识,尝试创新地设计和开发简单的人工智能安全解决方案或工具,培养创新意识和实践能力。 4、信息社会责任:明确在使用人工智能技术时应遵守的道德规范和法律法规,自觉维护人工智能安全和个人隐私。
重点 一、人工智能助力安全二、人工智能内生安全三、人工智能安全发展
难点 1、人工智能安全发展
教学过程
教学环节 教师活动 学生活动 设计意图
导入新课 通过分析人工智能与安全的辩证关系,能理解人工智能既能赋能安全,又会伴生安全问题;通过学习人工智能内生安全的内容,认识到人工智能系统的设计、制造和使用等环节须在法律法规、国家政策、伦理道德、标准规范的约束下进行。 探究: 1、我们熟悉的语音识别或图像识别在应用中存在哪些安全隐患 2、人工智能会不会是隐私的泄密者 为什么 人工智能技术具有安全赋能和安全伴生两大效应。所谓安全赋能是指人工智能为保障网络空间安全、提升经济社会风险防控能力等方面提供了新手段和新途径。所谓安全伴生是指当人工智能发展到一定阶段后,在不断的应用中发现新的安全问题伴生而来,其安全性将受到更严峻的挑战。 通过老师讲解和学生之间的相互讨论人工智能与安全的辩证关系。 帮助学生理解人工智能与安全的辩证关系,打开课堂。
讲授新课 一 、人工智能助力安全在公共安全领域,人工智能依托其强大的数据分析和自主学习能力,可以充分挖掘数据价值,预测预警经济社会运行中可能存在的潜在风险,在智能安防监控、恶意代码检测、垃圾邮件检测、用户实体行为分析等方面发挥助力安全的作用。1.智能安防监控安防监控涉及的人工智能技术有智能视频监控、体态识别与行为预测和智能安防机器人等技术。智能视频监控能够将人的各种属性进行关联分析与数据挖掘,实现安防监管的实时响应与预警。 以往的监控摄像头把图像、视频数据传输到服务端后再由服务端进行特定处理,近年来安防行业越来越多的数据和计算从云中心迁移到摄像头、传感器等“边缘”位置,用以节省带宽、提升服务响应速度与可靠性。基于边缘计算的人脸识别摄像头能够直接在本地设备上完成识别得到相关数据。在深山、矿井、远海航船等网络难以覆盖的地方,搭载边缘计算的视频监控系统能够实时处理数据,及时做出响应,确保安全。 2.垃圾邮件检测 人工智能技术发展的初期,使用规则对垃圾邮件进行检测。在垃圾邮件的检测中,当邮件中出现事先指定的一些可能属于垃圾邮件的词语时,这封邮件很可能就是垃圾邮件,当邮件里出现网址时,也可能是垃圾邮件。 但随着规则越来越多,这样的检测系统也变得越来越复杂。机器学习算法可以自动地从数据的某些特征中学习它们之间的关系,并且通过对数据的不断学习,提升垃圾邮件检测的能力和性能。亲身体验体验使用贝叶斯分类器算法进行垃圾邮件判定。使用贝叶斯分类器进行垃圾邮件判定,需先收集正常邮件和垃圾邮件数据并预处理,转换为特征向量。接着在训练阶段计算先验概率和条件概率,构建分类器。测试时用分类器对邮件分类并评估性能。体验中,准确性较高时能正确识别垃圾邮件且不误判正常邮件,可解释性强,能查看单词条件概率了解对判定的贡献,但也有局限性,对新类型或特定领域邮件可能表现不佳,且受邮件多样性和复杂性影响。新知拓展我们熟悉的语音识别或图像识别在应用中存在哪些安全隐患 语音识别安全隐患: 1. 声音模仿与伪造,如利用语音合成技术或录音重放攻击欺骗系统。 2. 背景噪声干扰影响识别准确性。 3. 隐私泄露,语音数据若保护不当易被窃取。 图像识别安全隐患: 1. 图像伪造与篡改,包括使用图像编辑软件和对抗样本攻击。 2. 模型窃取与逆向攻击,侵犯知识产权并获取敏感信息。 3. 隐私泄露,图像含个人信息,安全措施不足易泄露。 4. 物理攻击,如放置物体干扰或破坏摄像头组件。二 、人工智能内生安全 人工智能可以助力安全,但人工智能系统涉及数据、框架、算法、模型、运行等多个复杂环节,这些环节都可能导致人工智能系统内在的安全问题。 1.数据安全 数据是人工智能的重要基础。数据集的质量会直接影响人工智能算法的执行效果。使用不同质量的数据集会在训练之后得到不同的模型参数,产生不同的执行效果,进而影响人工智能算法的安全性。 数据集的质量取决于数据集的规模、均衡性、准确性等。人为地对数据进行修改在很大程度上能改变人工智能算法的执行效果。即便是已经用高质量数据集训练完毕的人工智能算法模型,只要对输入的数据进行一些人眼无法感知的微小扰动,即可让算法的输出产生巨大的变化,这些经过微小扰动的输入数据就是对抗样本。图8-1显示了对抗样本及其错误辨识的结果。 如果恶意使用对抗样本,可以欺骗自动驾驶汽车,使其不能正确识别道路停车标志,从而引发事故;可以欺骗语音识别系统,让系统误认为是“主人语音”而执行虚假命令;可以入侵城市交通系统甚至武器系统。这种通过对抗样本对智能系统发起的欺骗被称为“对抗性攻击”。亲身体验体验“对抗样本”对人工智能模型可靠性的影响。实践内容如下:1.准备原始图片数据和添加噪声后的图片数据。一、准备阶段.收集原始图片数据可以从公开的图像数据集(如 CIFAR-10、MNIST 等)中选取一定数量的具有代表性的图片,涵盖不同的类别和场景。确保原始图片的质量和多样性,以便更好地观察对抗样本对不同类型图像的影响。.生成添加噪声后的图片数据采用不同的方法添加噪声,例如可以使用快速梯度符号法(FGSM)等攻击算法。调整噪声的强度和类型,生成一系列对抗样本,观察其对人工智能模型的影响程度。2.在Keras上使用RexNet分类模型:二、使用 RexNet 分类模型.在 Keras 中导入 RexNet 模型确保已经正确安装了 Keras 和相关的依赖库。使用 Keras 的应用模块可以方便地导入预训练的 RexNet 模型,或者根据需要自行构建和训练模型。.对原始图片和对抗样本进行分类将原始图片数据和添加噪声后的图片数据分别输入到 RexNet 模型中进行分类。记录模型对每一张图片的分类结果和预测概率。三、查看实验结果并分析比较原始图片和对抗样本的分类结果观察模型对原始图片的分类准确性,通常情况下,预训练的模型在原始图片上应该能够取得较高的准确率。对比模型对对抗样本的分类结果,注意是否出现错误分类的情况。如果模型对对抗样本的分类结果与原始图片有较大差异,说明对抗样本对模型的可靠性产生了影响。分析对抗样本的影响因素研究不同噪声强度和类型对模型分类结果的影响。一般来说,噪声强度越大,模型越容易受到干扰,分类错误的可能性也越高。观察不同类别的图片对对抗样本的敏感性是否不同。有些类别可能更容易受到对抗样本的影响,而有些类别则相对较稳定。 2.算法安全 如果想保证算法的完全正确,需要从理论上对算法进行证明,证明算法在任何情况下都能产生正确的结果。深度神经网络在很多领域能取得远超传统算法的准确率,但缺乏可解释性。针对不同任务需要多少隐藏层,每个隐藏层抽取了何种特征还未能完全说明。在一些对准确率要求高、可解释性要求强的场景中,神经网络造成的失误会产生巨大影响。人工智能算法可以借助海量数据进行自我学习和进化,可以在无人干预下自主处理问题,这也使得人工智能的行为和决策难以被事先预料和干预,从而增加安全风险。3.模型安全人工智能算法往往需要训练大量的模型参数,经过训练之后生成的模型一般以实体文件的形式保存在服务器。如果攻击者攻击了云端服务器,利用服务器漏洞获取模型参数,可能造成严重后果。 随着人工智能的普及,很多开发者将训练好的模型共享给更多用户,如果攻击者对开源的模型进行攻击,向其中注入恶意代码或参数,生成“变异”的神经网络模型并再次共享,在遇到特定情况或数据时,触发执行特定的恶意行为,会引起重大的安全问题。三、人工智能安全发展在人工智能涉及的网络安全、数据安全、隐私保护方面,相关法律法规条款部分已在现有法律体系中体现。我国目前正在多层面推进数据安全和个人信息保护法律法规的制定,加速完善相关保护和监管准则,对人工智能相关应用进一步明确监管要求。我国《新一代人工智能发展规划》中明确提出“建立人工智能安全监管和评估体系”,包括“建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管;促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度”。认识到自主可控对国家安全的重要性,加强核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。新知拓展人工智能会不会是隐私的泄密者 为什么 人工智能有可能成为隐私的泄密者。原因如下:在数据收集环节,大规模数据采集及数据共享合作可能导致用户个人信息泄露,如智能设备和应用收集行为、位置信息,数据提供商出售用户数据等。在模型训练与应用环节,可能面临模型反演攻击、数据残留以及恶意应用带来的隐私泄露风险,如医疗领域攻击者可推断患者信息,云计算中数据未彻底清除可能被获取,恶意软件利用人工智能窃取敏感信息。此外,技术不断进步带来新的攻击手段和隐私泄露风险,而监管的滞后性使得企业缺乏约束,处罚力度不够,难以有效保护用户隐私。四 、随堂练习1.个性化智能推荐已深度应用于新闻信息行业,也广泛应用于旅游出行、电子商务、金融服务等行业。智能推荐系统在给人们生活带来便利的同时,在实际应用中也暴露出一些安全风险。请结合生活中的应用体验,分析智能推荐的风险挑战,并提出相应的安全监管措施建议。智能推荐虽带来便利,但也有风险挑战。如新闻领域易致信息茧房,电子商务领域可能让用户错过新商品;存在隐私泄露风险,可能被不良商家出售数据或遭黑客攻击;有算法偏见问题,会加剧社会不平等;还可能传播虚假信息。 安全监管措施包括加强算法监管,规范设计使用并公开原理接受监督;保护用户隐私,制定严格标准;促进信息多元化,打破信息茧房;提高用户意识;建立行业自律机制。2.搜索并学习我国有关人工智能安全方面的政策文件。我国有关人工智能安全方面的政策文件有:《生成式人工智能服务管理暂行办法》及其支撑文件《生成式人工智能服务安全基本要求》,《全球安全倡议概念文件》提及人工智能安全治理,《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,《中共中央关于进一步全面深化改革推进中国式现代化的决定》提到建立人工智能安全监管制度,还有《人工智能安全标准化白皮书(2019 版)》和《人工智能安全标准化白皮书(2023 版)》。五、知识拓展1、防护ai换脸诈骗2、人工智能安全的国际合作3、人工智能教育 学生之间互相讨论人工智能助力安全。学生分享日常生活中的人工智能内生安全。学生通过观看课件和听老师讲解,了解人工智能安全发展。学生查找资料,相互讨论对于本堂课中老师提出的问题进行解答。 学生通过观看视频和自我思考安全保护服务器。 帮助学生积极融入课堂,提高学生学习积极性。 帮助学生更多的掌握人工智能内生安全。学生通过边看边听的形式了解人工智能安全发展。 让学生巩固本堂课的内容,加深学生对所学知识的印象。让学生通过视频思考,进一步加深对课堂所学内容的理解。
布置作业 利用课余时间,尝试使用一款具有智能推荐功能的应用程序(如新闻客户端、购物软件等),观察其推荐内容,并思考如何判断这些推荐是否存在信息茧房的问题。记录下你的观察和思考结果。 完成作业 培养学生查阅资料的能力,分析解决问题的能力
课堂小结 本次《人工智能安全》课程,我们认识到人工智能虽带来便利,但也有信息茧房、隐私泄露、算法偏见、虚假信息传播等风险。应对这些挑战需加强算法监管、保护用户隐私、促进信息多元化、提高用户意识和建立行业自律机制。我们还学习了我国相关政策文件,希望同学们在享受人工智能便利的同时关注安全风险,共同营造安全的应用环境。 分组总结归纳 锻炼学生的总结能力,逻辑思维、语言表达能力。
板书 一、人工智能助力安全二、人工智能内生安全三、人工智能安全发展 学习、记忆及勾画知识点 明确教学内容及重点和难点
21世纪教育网 www.21cnjy.com 精品试卷·第 2 页 (共 2 页)
HYPERLINK "http://www.21cnjy.com/" 21世纪教育网(www.21cnjy.com)

展开更多......

收起↑

资源列表