资源简介 实验中学校人工智能教育应用管理办法(试行)第一章 总则第一条 为规范我校人工智能教育应用的管理,保障人工智能技术在教育场景中安全、合规、有效使用,促进教育教学改革与创新,依据教育部等五部门《“人工智能+教育”行动计划》及相关法律法规,结合我校实际,制定本办法。第二条 本办法适用于我校全体教职工、学生在教育教学、管理服务、教研科研等活动中使用人工智能系统、平台、工具、智能体、大模型等应用的行为。第三条 人工智能教育应用管理遵循以下原则:(一)育人为本:技术应用服务于立德树人根本任务,促进学生全面发展。(二)安全可控:保障数据安全、算法安全、系统安全,防范技术风险。(三)公平包容:避免算法歧视,保障不同学生群体的平等使用权。(四)透明可解释:应用逻辑清晰,师生知情同意,结果可追溯。(五)适度应用:坚持人机协同,防止技术滥用,注重人文关怀。第二章 组织机构与职责第四条 学校成立“人工智能教育应用管理工作小组”,由分管信息化工作的校领导担任组长,成员包括教务处、德育处、信息中心、科研处、年级组负责人及教师代表。工作小组主要职责:(一)制定和修订学校人工智能教育应用管理制度;(二)审核引进和自研的人工智能教育应用;(三)监督人工智能应用的使用情况;(四)组织开展人工智能伦理与安全培训;(五)处置人工智能应用相关的突发事件与投诉。第五条 信息中心为日常管理机构,具体职责:(一)负责人工智能应用的部署、运维和技术支持;(二)定期开展安全检测与风险评估;(三)建立应用台账,记录使用情况;(四)协助开展数据安全管理。第六条 教务处负责人工智能教学应用的业务指导与质量评估,德育处负责人工智能应用中的学生伦理教育,科研处负责人工智能应用的研究与创新实践管理。第三章 应用准入与采购第七条 学校引入或自研人工智能教育应用,实行准入管理制度。未经审核通过的应用,任何部门和个人不得在校内教学、管理、服务中部署使用。第八条 申请准入的人工智能教育应用,须提交以下材料:(一)应用基本情况说明(名称、开发单位、功能描述、适用场景);(二)数据安全与隐私保护方案;(三)算法公平性与可解释性说明;(四)风险评估报告;(五)用户协议与隐私政策。第九条 工作小组应在收到申请后15个工作日内组织评审,重点审核:(一)是否符合教育规律和育人目标;(二)是否存在数据安全、算法歧视、内容违规等风险;(三)是否具备必要的技术保障和应急机制;(四)是否适合本校实际需求。第十条 采购人工智能教育应用,应当按照政府采购相关规定执行,优先选择通过国家或省级教育部门备案、具有良好安全记录的应用。第四章 数据安全与隐私保护第十一条 人工智能教育应用中涉及的师生个人信息,应当遵循合法、正当、必要原则,不得超范围采集。第十二条 采集学生数据前,应当明确告知数据用途、存储方式、共享范围,并取得学生及其监护人同意。未经同意,不得收集敏感个人信息。第十三条 校内使用的教育大模型、智能体等应用,应当部署在安全可控的网络环境中,重要数据应当在校内或教育专网存储,不得擅自传输至境外服务器。第十四条 严禁将学生人脸信息、行为轨迹、考试成绩等敏感数据用于商业目的或未经授权的算法训练。第十五条 信息中心应当每学期开展一次数据安全专项检查,发现隐患及时整改。发生数据泄露等安全事件,应当立即启动应急预案,并在24小时内向学校领导和上级教育部门报告。第五章 使用规范第十六条 教师在使用人工智能教学工具时,应当:(一)充分了解应用的功能、局限性和潜在风险;(二)对人工智能生成的内容进行必要的审核与把关;(三)不得完全依赖人工智能替代教师的教学判断与人文关怀;(四)在使用过程中关注学生的反馈与体验。第十七条 学生使用人工智能学习工具时,应当:(一)在教师或家长指导下合理使用;(二)不得利用人工智能完成应当由个人独立完成的作业、考试或作品;(三)养成批判性思维,不盲目相信人工智能生成内容;(四)遵守学术诚信规范,主动标注人工智能辅助部分。第十八条 禁止以下行为:(一)利用人工智能生成或传播违法、违规、不良信息;(二)利用人工智能进行学术造假、作弊、抄袭;(三)故意输入恶意指令,试图诱导人工智能产生有害输出;(四)未经授权共享、出售或泄露人工智能应用中的敏感数据。第十九条 教育管理类人工智能应用(如智能排课、学业预警、综合素质评价等)应当建立人工复核机制,涉及学生重大利益的决策,不得完全由人工智能自动决定。第六章 伦理教育与风险防控第二十条 学校应当将人工智能伦理教育纳入信息科技课程和相关德育活动,引导学生:(一)正确认识人工智能的能力与局限;(二)尊重知识产权与数据隐私;(三)警惕算法偏见与信息茧房;(四)在人工智能辅助下保持独立思考与创造力。第二十一条 每学期至少组织一次面向全体教师的AI伦理与安全专题培训,新入职教师须在岗前培训中完成相关内容学习。第二十二条 建立人工智能应用风险预警与应急响应机制:(一)设置风险等级(低、中、高),对应不同响应流程;(二)建立应用使用监测平台,实时发现异常行为;(三)制定应急预案,每学年组织一次应急演练。第二十三条 发现人工智能应用出现以下情形,应当立即暂停使用并上报工作小组:(一)生成违法、违规、违背社会主义核心价值观的内容;(二)发生数据泄露或系统被恶意攻击;(三)算法出现严重偏差,导致对学生的不公平对待;(四)其他可能危害师生权益或校园安全的情形。第七章 评估与监督第二十四条 学校每学期对在用的人工智能教育应用开展一次综合评估,评估内容包括:(一)应用效果(对教学质量、学习效果、管理效率的实际贡献);(二)安全状况(数据安全、系统稳定性、风险事件);(三)用户满意度(师生使用体验与反馈);(四)合规性(是否符合准入要求和使用规范)。第二十五条 评估结果作为应用继续使用、升级优化或终止使用的依据。对连续两次评估不合格的应用,应当予以替换或下线。第二十六条 建立人工智能教育应用投诉渠道,师生和家长可通过信息中心、校长信箱等渠道反映问题。工作小组应当在收到投诉后10个工作日内反馈处理意见。第二十七条 对违反本办法的教职工,视情节轻重给予批评教育、通报批评、取消评优资格等处理;造成严重后果的,依法依规追究责任。对违反本办法的学生,按照校规校纪进行教育或处理。第八章 附则第二十八条 本办法由学校人工智能教育应用管理工作小组负责解释。第二十九条 本办法自发布之日起试行,试行期一年。试行期满后根据实际情况修订完善。第三十条 本办法如与国家或上级部门新出台的法律法规、政策文件不一致的,以上级规定为准。 展开更多...... 收起↑ 资源预览