近日,教育部教师队伍建设专家指导委员会正式发布《教师生成式人工智能应用指引(第一版)》。
众所周知,人工智能技术给教育领域带来前所未有的变革,然而如何界定ai技术在教学中的角色,始终是学界争论的焦点。
中国人民大学郭英剑教授此前曾敏锐地指出,公众视线往往聚焦于学生端的AI使用,却忽视了教师与管理者实则是校园内首批技术使用者,因此优先推动教师合规、科学地应用AI,是实现教育数字化转型的关键前置条件。
相关事实数据也证明,AI在高校的普及率已远超预期。像麦可思2024年中国高校师生生成式AI应用情况研究数据显示,高达99%的高校教师已不同程度地涉足AI使用,其中56%的教师频繁使用,且呈现出显著的代际与岗位差异——“90后”与“80后”教师频繁使用比例分别达到68%和60%,显著高于年长教师。
(图源:麦可思研究)
这表明,AI已不再是可有可无的辅助工具,而是深度嵌入教学科研流程的核心要素。
因此,《指引》的出台,旨在通过明确的制度供给,将这种自发的、零散的技术探索,引导至科学、理性、合规的轨道上来,既赋予了教师利用AI进行语法检查、句式优化及个性化教学支持的权利,明确了技术赋能的合法性,又为日益普及的AI应用确立了统一的行为标尺,确保技术红利在教育场域内的有序释放。
明确使用的“红线”
《指引》以严谨的措辞划定了教师使用AI的伦理红线与操作边界,比如:
教师使用生成内容时须进行事实核查、价值审查、适切评估,严禁未经审查直接使用。涉及民族、宗教、意识形态等高敏感内容,应提交学校相关管理部门审查。
尤其是审慎使用评语。使用生成式人工智能辅助撰写学生评语时,教师须基于真实观察和情感关怀,注重评语内容的针对性与人性化表达,避免直接套用模板或出现空洞化、格式化表述。不得将生成式人工智能对作文、艺术作品、开放性作业等的自动批改结果作为学生最终评价予以直接使用。
与此同时,鉴于AI生成内容普遍存在的“幻觉”现象——即看似合理实则存在事实谬误或逻辑偏差,在学术伦理维度,《指引》重申了诚信原则,明确禁止将AI生成内容直接作为原创观点、研究报告或课题申报书提交,还特别强调不得利用技术手段进行“洗稿”以规避查重。
此外,数据安全与隐私保护被提升至新的高度,未经授权录制课堂音视频、采集非教学必需信息被明令禁止,且在处理学业报告等敏感数据时,必须进行严格的脱敏处理。
各大高校,早已“行动”
可以说,随着《指引》的落地,高校教师的职业角色与责任体系正面临深刻重塑,“人机共生”背景下的责任归属日益清晰。
在《指引》发布之前,清华大学、上海交通大学及新加坡国立大学等国内外顶尖学府已先行探索,构建了以“教师负责制”为核心的治理框架。
清华大学强调教师需根据教学目标自主裁量AI应用程度,并对生成内容负责(源自:《清华大学人工智能教育应用指导原则》);
上海交通大学明确指出教师是“AI+教学设计”的第一责任人,对使用风险工具保留追责权利(源自:《上海交通大学关于在教育教学中使用AI的规范》);
新加坡国立大学的政策则更为严厉,规定若AI生成错误引发教学事故,教师不得以技术供应商失误为由推卸责任(源自:《人工智能教学与学习应用政策(正式版)》)。
总之,在AI的实际应用中,高校教师需要善用技术赋能个性化育人与科研创新,更要通过持续的素养提升,跨越技术应用的“认知鸿沟”,在遵守合规要求的前提下,真正实现技术进步与教育质量提升的同频共振。
来源:麦克思研究
声明:本文由社科学术圈编辑整理。版权归原作者及原平台所有,如有版权争议请联系本号。