资源简介 仙桃市2025年春季学期期末质量监测高二语文本试卷满分150分,考试用时150分钟。注意事项:1.答题前,先将自己的姓名、准考证号填写在试卷和答题卡上,并将准考证号条形码粘贴在答题卡上的指定位置。2.选择题的作答:每小题选出答案后,用2B铅笔把答题卡上对应题目的答案标号涂黑。写在试卷、草稿纸和答题卡上的非答题区域均无效。3.非选择题的作答:用黑色签字笔直接答在答题卡上对应的答题区域内。写在试卷、草稿纸和答题卡上的非答题区域均无效。4.考试结束后,请将本试卷和答题卡一并上交。一、现代文阅读(35分)(一)现代文阅读I(本题共5小题,19分)阅读下面的文字,完成1~5题。材料一:当下,新一轮人工智能革命正在兴起,人工智能接近“技术奇点”的讨论空前激烈。众多研究者认为,随着大模型时代通用人工智能逐渐可能甚至即将成为现实,人工智能能力和自主性的大幅提高将进一步放大其技术外部性,在给世界带来巨大机遇的同时,也带来了难以预知的各种风险和复杂挑战。有学者基于技术逻辑将人工智能带来的风险划分为“技术失控风险”“技术非正当使用风险”和“技术社会效应凤险”三类。第一,人工智能技术本身可能产生技术幻觉、算法歧视甚至技术失控等内生风险。当前的大模型尚不具备判断真假的机制和“知不知”的能力,其内容输出更接近于“重构资讯”,在不可能穷尽所有代表性数据的情况下,无法确保输出内容的真实性。加之训练数据过度拟合、上下文理解有限、模型架构缺陷等技术问题的影响,人工智能在实际应用过程中可能出现输出错误信息的技术幻觉问题,从而对内容真实性要求较高的应用场景构成风险挑战。目前,以深度学习等算法为代表的机器学习,实质上是对于过往人类社会模式特征的总结并将其用于对未来社会的感知与决策,不可避免地会复制并延续当前社会的既有格局与特征,从而使人工智能带上既有的偏见。人工智能难以消除的算法歧视又高二语文试卷第1页(共10页)》会进一步放大使用者的偏见和冲突。以大模型、生成式为代表的新型人工智能需要通过机器学习特别是神经网络技术进行训练,目前,相关技术透明性和可解释性不足,这导致人工智能发生和涌现产生的机理目前仍是“黑箱”,无论是用户还是研发者都不能完全控制大模型的行为。在此背景下,一旦产生自我保护、自我发展意识的未来人工智能系统脱离人类控制,很有可能对人类生存构成威胁。第二,人工智能技术的大规模普及可能产生误用、益用、恶用等应用风险。人工智能海量的训练数据往往包含用户的隐私信息,在办公、医疗、教育、交通等领域的垂直应用更是涉及大量敏感数据,如果相关信息被错误或恶意调用,将对信息安全构成严重威胁。当前的人工智能技术可以利用多种神经网络模型实现文本、图像、音频、视频等内容的篡改伪造和自动生成,产生以假乱真的效果。虽然这种深度伪造技术在教育、娱乐等领域释放了巨大的应用潜力,但也显著降低了造假成本,导致利用深度伪造技术仿冒他人身份实施违法犯罪行为的现象越来越常见。第三,人工智能技术变革的颠覆性影响引发劳动力结构调整、社会不平等加刷等经济社会风险。人工智能不同于以往历次技术创新,其发展不仅可以拓展人类的生产能力、取代简单重复性的常规工作,还可以执行越来越多的认知性工作,具有以全新方式替代人类劳动的潜质。在缺少有效公共政策的情况下,将导致就业率下降、收入与财富不平等加剧等一系列问题,从而造成严重的社会不公平现象。还有研究者认为,人工智能将重新建构和形塑人与自然、人与技术以及个体与国家、个体与社会的关系,在推动社会形态演变的过程中还有可能对经济安全和社会稳定产生一系列目前难以预知的冲突与风险。(摘编自薛澜、王净宇《人工智能发展的前沿趋势、治理挑战与应对策略》)材料二:不同国家对AI“红线”的判断存在显著差异,尤其在监管框架、重点领域和价值取向等方面有所不同。以中国和美国为例,两国的A监管政策呈现出不同的特点。在中国,AI监管政策采取了较为全面和系统的框架,不仅关注技术的安全性和可靠性,还强调社会效益和伦理责任。中国政府发布了一系列政策文件,明确了AI发展的指导原则和监管要求。这些政策文件涵盖了A「技术的全生命周期,从研发、部署到应用,要求企业在研发阶段加强伦理审查和技术评估,在部署和应用阶段确保A[系统的安全性和可靠性,并保护用户的隐私和权益。此外,中国政府特别强调AI发展的伦理和社会责任,要求A山系统的设计和应用符合人类的价值观和伦理原则,充分考虑对社会公平、隐私保护和环境可持续性的影响。高二语文试卷第2页(共10页)》 展开更多...... 收起↑ 资源预览