实验中学校人工智能教育应用管理办法

资源下载
  1. 二一教育资源

实验中学校人工智能教育应用管理办法

资源简介

实验中学校人工智能教育应用管理办法
(试行)
第一章 总则
第一条 为规范我校人工智能教育应用的管理,保障人工智能技术在教育场景中安全、合规、有效使用,促进教育教学改革与创新,依据教育部等五部门《“人工智能+教育”行动计划》及相关法律法规,结合我校实际,制定本办法。
第二条 本办法适用于我校全体教职工、学生在教育教学、管理服务、教研科研等活动中使用人工智能系统、平台、工具、智能体、大模型等应用的行为。
第三条 人工智能教育应用管理遵循以下原则:
(一)育人为本:技术应用服务于立德树人根本任务,促进学生全面发展。
(二)安全可控:保障数据安全、算法安全、系统安全,防范技术风险。
(三)公平包容:避免算法歧视,保障不同学生群体的平等使用权。
(四)透明可解释:应用逻辑清晰,师生知情同意,结果可追溯。
(五)适度应用:坚持人机协同,防止技术滥用,注重人文关怀。
第二章 组织机构与职责
第四条 学校成立“人工智能教育应用管理工作小组”,由分管信息化工作的校领导担任组长,成员包括教务处、德育处、信息中心、科研处、年级组负责人及教师代表。工作小组主要职责:
(一)制定和修订学校人工智能教育应用管理制度;
(二)审核引进和自研的人工智能教育应用;
(三)监督人工智能应用的使用情况;
(四)组织开展人工智能伦理与安全培训;
(五)处置人工智能应用相关的突发事件与投诉。
第五条 信息中心为日常管理机构,具体职责:
(一)负责人工智能应用的部署、运维和技术支持;
(二)定期开展安全检测与风险评估;
(三)建立应用台账,记录使用情况;
(四)协助开展数据安全管理。
第六条 教务处负责人工智能教学应用的业务指导与质量评估,德育处负责人工智能应用中的学生伦理教育,科研处负责人工智能应用的研究与创新实践管理。
第三章 应用准入与采购
第七条 学校引入或自研人工智能教育应用,实行准入管理制度。未经审核通过的应用,任何部门和个人不得在校内教学、管理、服务中部署使用。
第八条 申请准入的人工智能教育应用,须提交以下材料:
(一)应用基本情况说明(名称、开发单位、功能描述、适用场景);
(二)数据安全与隐私保护方案;
(三)算法公平性与可解释性说明;
(四)风险评估报告;
(五)用户协议与隐私政策。
第九条 工作小组应在收到申请后15个工作日内组织评审,重点审核:
(一)是否符合教育规律和育人目标;
(二)是否存在数据安全、算法歧视、内容违规等风险;
(三)是否具备必要的技术保障和应急机制;
(四)是否适合本校实际需求。
第十条 采购人工智能教育应用,应当按照政府采购相关规定执行,优先选择通过国家或省级教育部门备案、具有良好安全记录的应用。
第四章 数据安全与隐私保护
第十一条 人工智能教育应用中涉及的师生个人信息,应当遵循合法、正当、必要原则,不得超范围采集。
第十二条 采集学生数据前,应当明确告知数据用途、存储方式、共享范围,并取得学生及其监护人同意。未经同意,不得收集敏感个人信息。
第十三条 校内使用的教育大模型、智能体等应用,应当部署在安全可控的网络环境中,重要数据应当在校内或教育专网存储,不得擅自传输至境外服务器。
第十四条 严禁将学生人脸信息、行为轨迹、考试成绩等敏感数据用于商业目的或未经授权的算法训练。
第十五条 信息中心应当每学期开展一次数据安全专项检查,发现隐患及时整改。发生数据泄露等安全事件,应当立即启动应急预案,并在24小时内向学校领导和上级教育部门报告。
第五章 使用规范
第十六条 教师在使用人工智能教学工具时,应当:
(一)充分了解应用的功能、局限性和潜在风险;
(二)对人工智能生成的内容进行必要的审核与把关;
(三)不得完全依赖人工智能替代教师的教学判断与人文关怀;
(四)在使用过程中关注学生的反馈与体验。
第十七条 学生使用人工智能学习工具时,应当:
(一)在教师或家长指导下合理使用;
(二)不得利用人工智能完成应当由个人独立完成的作业、考试或作品;
(三)养成批判性思维,不盲目相信人工智能生成内容;
(四)遵守学术诚信规范,主动标注人工智能辅助部分。
第十八条 禁止以下行为:
(一)利用人工智能生成或传播违法、违规、不良信息;
(二)利用人工智能进行学术造假、作弊、抄袭;
(三)故意输入恶意指令,试图诱导人工智能产生有害输出;
(四)未经授权共享、出售或泄露人工智能应用中的敏感数据。
第十九条 教育管理类人工智能应用(如智能排课、学业预警、综合素质评价等)应当建立人工复核机制,涉及学生重大利益的决策,不得完全由人工智能自动决定。
第六章 伦理教育与风险防控
第二十条 学校应当将人工智能伦理教育纳入信息科技课程和相关德育活动,引导学生:
(一)正确认识人工智能的能力与局限;
(二)尊重知识产权与数据隐私;
(三)警惕算法偏见与信息茧房;
(四)在人工智能辅助下保持独立思考与创造力。
第二十一条 每学期至少组织一次面向全体教师的AI伦理与安全专题培训,新入职教师须在岗前培训中完成相关内容学习。
第二十二条 建立人工智能应用风险预警与应急响应机制:
(一)设置风险等级(低、中、高),对应不同响应流程;
(二)建立应用使用监测平台,实时发现异常行为;
(三)制定应急预案,每学年组织一次应急演练。
第二十三条 发现人工智能应用出现以下情形,应当立即暂停使用并上报工作小组:
(一)生成违法、违规、违背社会主义核心价值观的内容;
(二)发生数据泄露或系统被恶意攻击;
(三)算法出现严重偏差,导致对学生的不公平对待;
(四)其他可能危害师生权益或校园安全的情形。
第七章 评估与监督
第二十四条 学校每学期对在用的人工智能教育应用开展一次综合评估,评估内容包括:
(一)应用效果(对教学质量、学习效果、管理效率的实际贡献);
(二)安全状况(数据安全、系统稳定性、风险事件);
(三)用户满意度(师生使用体验与反馈);
(四)合规性(是否符合准入要求和使用规范)。
第二十五条 评估结果作为应用继续使用、升级优化或终止使用的依据。对连续两次评估不合格的应用,应当予以替换或下线。
第二十六条 建立人工智能教育应用投诉渠道,师生和家长可通过信息中心、校长信箱等渠道反映问题。工作小组应当在收到投诉后10个工作日内反馈处理意见。
第二十七条 对违反本办法的教职工,视情节轻重给予批评教育、通报批评、取消评优资格等处理;造成严重后果的,依法依规追究责任。对违反本办法的学生,按照校规校纪进行教育或处理。
第八章 附则
第二十八条 本办法由学校人工智能教育应用管理工作小组负责解释。
第二十九条 本办法自发布之日起试行,试行期一年。试行期满后根据实际情况修订完善。
第三十条 本办法如与国家或上级部门新出台的法律法规、政策文件不一致的,以上级规定为准。

展开更多......

收起↑

资源预览