第五单元 第5课《人工智能与社会公平》课件【清华版】人工智能通识( 中学)

资源下载
  1. 二一教育资源

第五单元 第5课《人工智能与社会公平》课件【清华版】人工智能通识( 中学)

资源简介

(共38张PPT)
第五单元 第5课
人工智能与社会公平
清华版(中学)

1
学习目标
3
新知讲解
5
拓展延伸
7
板书设计
2
新知导入
4
课堂练习
6
课堂总结
课后作业
8
01
教学目标
(1)理解人工智能应用中的公平性问题,包括数据偏差导致的歧视和特殊群体面临的技术障碍,以及不公平使用的风险等。
(2)学习应对人工智能公平性挑战的方法,例如改进数据质量、推动无障碍设计和加强法律监管。
02
新知导入
人工智能引发的公平性问题
所谓公平性,是指AI在面对不同人群时不能产生系统性的行为偏差
02
新知导入
03
新知讲解
公平性问题产生的主要原因
老年人和残疾人等特殊群体的使用不便;
AI技术掌握在个别群体里,造成不公平使用
训练数据本身的偏差带来的系统歧视;
03
新知讲解
1
数据偏差导致的人工智能系统歧视
1. 数据偏差是AI歧视的根本源头
训练数据若包含历史偏见,如招聘数据中的性别倾向,AI模型会学习并再现这些歧视,甚至进一步放大不公。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
2. 典型领域:招聘中的性别歧视案例
亚马逊AI招聘工具因训练数据以男性简历为主,导致系统自动贬低女性求职者评分,最终项目因无法解决偏见被终止。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
3. AI歧视的恶性循环效应
AI不仅复制人类社会的既有偏见,其自动化决策的规模性会使歧视系统化、扩大化,更难被发现和纠正。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
4. COMPAS系统的种族偏见案例
2016年ProPublica调查显示,COMPAS算法对7000多名被告的预测存在显著种族歧视:黑人被错误标记为高风险的概率是白人的两倍,凸显数据驱动的系统性不公。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
5. 偏见根源:数据与社会的恶性循环
训练数据源自带有种族偏见的执法记录,AI学习这些偏差后反向强化歧视,形成不公的闭环。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
6. AI信用评分的广泛应用与潜在歧视
AI广泛应用于金融领域的信用评估,但因数据偏差可能导致对特定族群的系统性评分不公。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
7. AppleCard性别歧视典型案例
2019年AppleCard被曝性别偏见:包括程序员汉森和沃兹尼亚克的多名男性用户获得的信用额度远超其妻子,尽管夫妻财务共享,但仍凸显算法黑箱与解释性缺失。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
8. 少数族裔的金融歧视问题
研究显示,AI信用模型常给予白人申请者更高评分,而非裔、拉丁裔及低收入群体则面临更低额度或更高利率,加剧历史性经济不平等。
03
新知讲解
1
数据偏差导致的人工智能系统歧视
9. 偏见根源与治理困境
歧视源于历史经济数据,如收入差距、信贷记录差异等,且算法决策缺乏透明度,导致监管与整改困难。
03
新知讲解
2
特殊群体在人工智能面前的不平等性
1. 特殊群体的AI使用障碍与公平性缺失
老年人、残障人士因技术适应能力、生理限制等因素,在AI普及中面临边缘化,难以平等享受技术红利。
03
新知讲解
2
特殊群体在人工智能面前的不平等性
2. 老年人的数字化困境
疫苗接种预约、医疗挂号等线上服务的复杂操作界面与流程,使许多老年人无法获取基本服务,加剧数字鸿沟。
03
新知讲解
2
特殊群体在人工智能面前的不平等性
3. 残障人士的AI边缘化问题
无人车、人脸识别、语音助手等AI设备应用缺乏无障碍设计,对视障、听障、行动障碍人群兼容性差。
03
新知讲解
2
特殊群体在人工智能面前的不平等性
4. 数据代表性不足与技术缺陷
训练数据中残障人群样本稀缺,导致AI系统对特殊特征(如口音、面部畸形)识别错误率高,性能显著下降。
03
新知讲解
3
AI技术的不公平使用
1. 技术垄断与权力集中风险
AI技术由政府部门或大型科技公司垄断,可能被用于大规模监控、强制生物信息收集(如指纹、面部识别),损害公民隐私与自主选择权。
03
新知讲解
3
AI技术的不公平使用
2. 数据滥用与市场不公平
垄断平台利用用户数据(如购物记录、行为偏好)进行算法操纵,如动态定价、诱导消费等,破坏交易公平,加剧社会资源分配不公。
03
新知讲解
4
总结
1. AI不公平使用的社会危害
加剧弱势群体边缘化、破坏技术信任,甚至引发社会混乱。
03
新知讲解
4
总结
2. 多方协同的治理路径
需通过技术、法律与社会共同努力,系统性解决公平性问题。
03
新知讲解
4
总结
3. AI促进公平的初心与未来潜力
技术本质是推动社会公平,当前问题源于历史数据偏见与使用不公,需通过持续改进实现正向价值。
03
新知讲解





1.请结合AppleCard性别歧视或COMPAS种族偏见的案例,讨论为什么“技术中立”的AI会产生歧视性结果?
(1)“技术中立”的AI之所以产生歧视性结果,是因为其训练数据中隐含了人类社会固有的历史偏见(如性别或种族歧视),导致算法在“客观”学习过程中复制并放大了这些不公。
03
新知讲解





2.当AI决策出现不公时,责任应由谁承担?是开发者、使用者、公司,还是算法本身?
(1)责任应由开发者、使用者和公司共同承担,因为算法本身无主观意识,其不公源于数据设计、应用监管和商业伦理的缺失。
03
新知讲解
1.以辩论赛的形式,讨论人工智能对社会公平的影响。正方观点为人工智能的发展有利于促进社会公平,反方观点为人工智能的发展引发更大的社会不公。使用ChatGLM等大模型工具整理辩论思路,搜集相关证据。
(1)正方 :AI通过教育普惠(如远程教学)、残障辅助(如智能假肢)、金融包容(如小额信贷算法)缩小社会差距。
(2)反方 :AI加剧数据偏见(如招聘歧视)、技术垄断(如平台操控定价)、数字鸿沟(如老年人边缘化),固化结构性不公。




04
课堂练习
一、判断题。
1.AI的决策是完全客观的,不会受到人类社会中既有偏见的影响。( )
2.数据偏差问题一旦被发现,可以很容易地被彻底解决和纠正。( )
3.算法推荐系统可能通过偏好特定政治观点,导致舆论操控的风险。( )
4.残障人士面临AI边缘化问题,主要是因为训练数据中他们的样本过多。( )
5. 加强法律监管和技术改进是应对AI公平性挑战的重要途径。( )

×
×
×

04
课堂练习
二、选择题
1.人工智能系统产生歧视的根本源头是什么?( )
A. 算法过于复杂 B. 计算能力不足 C. 训练数据存在历史偏见 D. 程序员的主观意图
2. 2019年AppleCard事件主要暴露了AI在哪个领域的歧视问题?( )
A. 司法判决 B. 金融信用评估 C. 医疗诊断 D. 招聘选拔
3. 以下哪项不是解决AI公平性挑战的有效方法?( )
A. 改进数据质量 B. 推动无障碍设计 C. 加强法律监管 D. 完全禁止AI的发展
4. COMPAS算法在风险评估中对哪个人群显示了更高的错误标记率?( )
A. 高收入群体 B. 白人群体 C. 黑人群体 D. 亚裔群体
5. 老年人难以平等享受AI服务的主要原因不包括?( )
A. 生理限制 B. 对复杂交互界面不熟悉 C. 缺乏购买力 D. 技术适应能力较弱
C
B
D
C
C
04
课堂练习
三、填空题
1. AI模型从带有 的数据中学习,可能导致输出结果放大社会不公。
2. 亚马逊的AI招聘工具因训练数据以 简历为主,导致了对女性求职者的歧视。
3. 2016年ProPublica调查显示, 算法对被告的预测存在显著的种族偏见。
4.特殊群体(如老年人、残障人士)在AI普及时面临边缘化,难以平等享受技术红利,这加剧了 。
5. AI技术由政府部门或大型科技公司 ,可能被用于大规模监控,损害公民隐私。
历史偏见
男性
COMPAS
数字鸿沟
垄断
05
拓展延伸
1. 算法审计 :通过系统性检查评估算法是否存在偏见或歧视的技术治理手段。
05
拓展延伸
2.可解释人工智能(XAI) :让AI决策过程透明化,使人类能理解并验证其逻辑的技术方向。
05
拓展延伸
3.数据正义 :关注数据采集、使用中的公平性,确保技术不加剧社会结构性不公的伦理框架。
06
课堂总结
1
数据偏差导致的人工智能系统歧视
2
特殊群体在人工智能面前的不平等性
3
AI技术的不公平使用
4
总结
5
进行相关知识拓展
1
2
3
4
5
人工智能与社会公平
07
板书设计
人工智能与社会公平
1、数据偏差导致的人工智能系统歧视
2、特殊群体在人工智能面前的不平等性
3、AI技术的不公平使用
4、总结
5、进行相关知识拓展
课后作业。
1、AI与社会公平的辩证分析 。
08
课后作业
1.AI与社会公平的辩证分析 ,数据调查 (表格形式)。
案例类型 具体案例 (如AppleCard信用评分) 受益/受损群体 公平性影响
促进公平 智能助听器帮助听障人士 残障群体 缩小数字鸿沟
加剧不公 人脸识别对深色皮肤误判率高 少数族裔 放大种族偏见
https://www.21cnjy.com/recruitment/home/fine

展开更多......

收起↑

资源预览