“注意!你们的AI搭档要开始‘抢答’了。”
在清华大学化工系教授卢滇楠主讲的“化工热力学”课堂上,学生们正与AI学伴比拼解题速度,对比思路方法,热烈的课堂氛围让每一位参与者兴味盎然。
作为清华大学最早一批应用人工智能开展教学的教师,卢滇楠在课堂实践中看到了人机协作蕴含的巨大潜力,这也引发了他的进一步思考:我们要培养的是能指挥AI的“将军”,而非被替代的“士兵”。
近期,清华大学正式发布《清华大学人工智能教育应用指导原则》(以下简称《指导原则》),明确了“积极而审慎”的基本立场,为学校人工智能应用定航指向,受到了国内外广泛关注。
《指导原则》是如何“诞生”的?在技术狂潮中坚守育人初心,《指导原则》背后的故事富有启发性和借鉴性。
1 共识缘何而来 ——教学新常态与“责任焦虑”
“本学期在雨课堂网页版中包括了知识图谱和24小时智能学伴等内容,欢迎大家使用。”今年,在电类各专业本科核心课“电路原理”开课前,授课教师、清华大学电机工程与应用电子技术系教授于歆杰鼓励学生与人工智能模型展开讨论。
在于歆杰看来,人工智能是推动高等教育变革最重要的新质生产力,学会与之共生是大学应当教会学生的重要一课。由点窥面,今天的清华园里,一场AI融入教育教学的实践正广泛而深刻地发生着:2023年秋季学期,清华大学开启了AI助教系统进课堂的试点工作,根据不同学科特点开发大语言模型的垂直应用;2024年秋季,由清华大学研发的AI成长助手“清小搭”上线,为学生提供“全过程、全方位、全天候”的陪伴……
截至目前,全校已开设402门人工智能赋能教学课程,覆盖714个教学班,形成了由AI助教、AI成长助手、AI学习空间等共同支撑的“教学新常态”。
应用如火如荼,反观实践,共识的达成仍任重道远。
参与《指导原则》研制工作的清华大学教育学院教授李曼丽表示,师生普遍对“使用生成式人工智能是否算作弊、责任如何划分、数据能否进公网”等边界问题缺乏统一认识,学生直接使用AI生成内容提交作业、学位论文,指导教师使用AI批改、指导等行为,也直接带来了学术诚信与人才培养质量风险的显性化,引发了行为主体越来越多的“责任焦虑”。
从更大背景来看,自2023年以来欧美和亚太地区已有约百所大学发布AI教育指引,且迭代速度极快,“如果清华缺少自己的原则文件,将不利于参与全球治理对话。”李曼丽坦言。
在清华大学教务处处长刘毅看来,讨论必须向前一步:“应该从‘允不允许使用AI’的简单讨论,转向思考应当如何负责任地、创造性地善用AI。”
2024年,清华大学正式启动《指导原则》制定工作,由教务处、研究生院、教育学院等多部门、院系协同推动。一支跨学科、产学研融合的研制团队随即组建起来——教育学者负责持续追踪调查AI赋能高校教育教学的实际情况,确保《指导原则》紧扣教书育人本质要求;教育技术与平台管理者负责打通从理念到工具、课堂的全链条,增强可实施性;计算机专家基于真实课堂教学经验,提供AI赋能教学的第一手实践证据;博士后与研究生作为“触角”,深入文献与真实课程教学的田野。
如何既守护教育的本质,又构建一个能引导创新、防范风险,并被多元学术共同体广泛接受的共识框架?这是研制中面对的最大挑战,这也从某种程度上解释了为何最终出台的是一份《指导原则》,而非强制性规范。
“人工智能的发展和教育应用仍在快速演进。面对变化,需要一个开放的指南来指引师生和管理者的行为,并在教、学、研、管的实践中,不断深化对人工智能教育领域应用的认识。”参与研制的清华大学教育学院党委副书记乔伟峰说。
历经近两年打磨,这份由“总则”“教学篇”“学位论文及实践成果篇”三部分构成的《指导原则》最终面世。其中,“总则”确立了“积极而审慎”的总体立场,并锚定了“主体责任、合规诚信、数据安全、审慎思辨、公平包容”五大核心原则。
“我们的核心工作就是设计并主持一个能促成这种深度对话的流程,并在关键的价值抉择时刻,促进将多元智慧凝聚成共识,共同开发一个具有清华特色的、既坚守根基又拥抱未来的行动纲领。”李曼丽解释道。
2 共识如何凝聚 ——本土实践与全球智慧的融合
“AI能帮助非母语学生或逻辑薄弱者跨越表达障碍,聚焦核心思想,禁止使用等于因噎废食。”计算机系的一位教授直言。
“如果学生连基本的文字组织和逻辑建构都交给AI,他们如何发展深度思考的能力?写作不只是表达,更是思维的过程。”人文学院的一位资深教授则表达了担忧。
…………
这是2024年清华校内的一场焦点小组讨论上出现的一幕,讨论的主题是“是否允许AI参与论文初稿撰写”。2024年3月至5月,研制团队深度访谈了62名教师和58名学生,涵盖文、理、工、医各个学科,并组织了6场焦点小组讨论。
调研结果印证了团队最初的判断:不同学科在人工智能使用场景、风险感知和价值优先级上存在显著差异。工科与部分经管教师视写作为“表达工具”,对AI使用持开放态度;人文、法学、教育学等领域教师则强调“写作即思维”,态度普遍谨慎。
尽管立场不一,但多数教师仍认同:研究生开题报告中,应设置专门页面说明文献检索与写作过程中AI的使用情况。这一共识最终凝聚为《指导原则》中的明晰条款:若在学术任务中应用人工智能并在相关成果中包含了人工智能的实质性贡献,学生必须按照学校、院系或任课教师的要求,对人工智能的使用情况进行清晰、显著的标注或声明。
“跨学科的碰撞虽然激烈,却恰恰体现了清华传统的当代延续——技术理性与人文精神不是对立的两极,而是教育完整性的双翼。”在李曼丽看来,最终形成的《指导原则》,既不是工科的“效率至上”,也不是人文的“技术戒律”,而是在尊重差异的基础上构建理性务实、多元协同的人工智能教育治理框架。这也为未来应对更复杂的技术伦理挑战,积累了宝贵的学术民主协商经验。
视野并未局限在校内。研制团队还面向国内东、中、西部12所“双一流”高校的学生开展问卷调查。调查发现,样本高校中虽然有超过半数的学生使用过大语言模型工具,但在激发创意、完成复杂创作任务等深度创意应用上的使用比例和频次相对较低。
“ChatGPT刚问世时,对生成式人工智能对教育的影响的讨论大多停留在思辨阶段。而我们通过实证调查发现,大语言模型工具使用对高校学生的高阶思维能力发展具有促进作用,这在一定程度上回应了部分学者对于新技术介入高等教育领域的疑虑。”乔伟峰表示,调查结果为《指导原则》“积极而审慎”的总体立场提供了扎实依据。
一份具有前瞻性的指南,同样离不开对全球动态的敏锐把握。研制团队调研了斯坦福大学、麻省理工学院、新加坡国立大学等25所世界顶尖高校,共收集70份相关文件,涵盖AI使用政策、课程指南、学术诚信规范等方面。
通过构建四象限坐标图,团队分析后发现,在态度倾向上,有52%的高校偏向规范/保守型,28%偏向倡议/激进型,20%两种倾向基本相当。在语言风格上,有44%偏向陈述式,32%偏向阐述式,24%两种风格基本相近。
有趣的是,一些高校的态度随着时间推移发生明显转变。例如牛津大学与剑桥大学,2023年3月将使用ChatGPT视为学术不端,后果是论文自动零分或全年成绩降级,同年7月却转而解除禁令,颁布了详尽的合规使用原则。
“全球调研让我们认识到,AI教育指南不仅是技术规范,更是价值观载体。”李曼丽表示,清华的《指导原则》致力于融合本土实践与全球视野:既呼应责任伦理与素养导向的国际共识,又扎根中国高等教育“立德树人”的根本任务,强调教师引领、学生发展、技术向善三者统一,从而兼顾前瞻性与可操作性。
3 共识如何落地 ——“绿道”“红线”的划定源自教学实践
一场持续整整一学年的课堂“蹲点”,让清华大学教育学院博士后陈巳宸亲历了AI融入教学现场的完整图景。2024年春季学期,计算机系教师马昱春在其编程基础课中,试点引入了一套定制化AI助教系统,该系统可实时解答学生关于语法错误、调试思路的常见问题,并根据学生提问频率自动生成知识点薄弱环节报告供教师参考。
从讲台到课后,陈巳宸和团队成员毕慧超、张弛、周雯几乎“长”在了课堂里。“马老师全程开绿灯,连他的助教都被我们‘抓’来深度访谈。”陈巳宸回忆。更宝贵的是,团队获得了学生与AI对话日志、作业批注等第一手资料,最终拼接出一幅生动的“人机共演”教学长卷。
调查显示,引入AI助教后,课程答疑响应时间缩短了70%。有学生感叹:“24小时在线的答疑支持,尤其是深夜调试时,帮助巨大。”教师马昱春也发现,AI处理了约80%的重复性疑问,使她能更专注于高阶教学设计和个性化指导。
这一成功实践被纳入《指导原则》,条款表述为:鼓励教师在保障数据安全与教育目标的前提下,开发或采用AI工具支持个性化辅导、过程性反馈与教学决策,推动“人机协同”教学模式创新。
在《指导原则》中,“红线”与“绿道”的设置尤为引人关注。这些条款并非凭空构想,而是回应已发生的教学实践、师生反馈及潜在争议场景。
基于2023—2024年间的多轮调研、教师工作坊、学生座谈及学堂在线平台日志的匿名分析,研制团队识别出若干典型场景,并据此划定清晰的行为边界。
团队关注到一组来自在线课程供应商的数据:2023年起,89%的美国受访大学生承认用ChatGPT完成作业,22%曾借此获取论文大纲。争议核心在于认知错位:学生认为“AI只是辅助工具,就像用搜索引擎查资料”,教师则指出,“未声明使用,且全文依赖AI,已构成学术不端”。
陈巳宸也在课堂中发现了“思维外包”的苗头:“到了代码设计阶段,AI几秒钟就能给出模块图和代码骨架,一些学生干脆照单全收,跳过了自己‘啃骨头’的关键思考过程。”
《指导原则》进一步划出了多条AI教学应用“红线”:严禁将AI生成的文本、代码等直接复制或简单转述后作为学业成果提交,严禁使用AI实施代写、剽窃、伪造等学术不端行为,严禁用敏感信息、涉密数据或未授权数据训练AI模型。
“《指导原则》的研制遵循从‘问题驱动’到‘制度引导’的逻辑。”刘毅解读道,“红线”针对已显现的学术诚信模糊地带,划出禁止性边界,防范系统性风险;“绿道”则源自一线教师的积极探索,将其规范化、可推广化,形成正向激励。“这种理论与实践相结合的方式,使文本兼具现实性与包容性。”
面对AI技术的快速迭代,一个不可避免的问题是:今天的规则明天是否依然适用?对此,研制团队有清醒的认识。
在制定原则时,李曼丽会反复追问:如果AI能做一切,教育还剩下什么?
她的答案是:无论技术如何变革,教育的根本使命从未改变。这指向三个不可让渡的“不变”:人的主体性——教育不是知识搬运,而是唤醒自主思考、价值判断与责任意识;师生关系的伦理温度——教育是人与人之间的对话、信任与激励;学术诚信作为文明基石——真实、诚实、原创是知识共同体的契约。
“这些‘不变’,正是我们在技术狂潮中锚定教育本质的压舱石。”李曼丽说,人工智能应用实践确实走在了理论前面,但教育的理论不在技术手册里,而在人类对何以为人的持续追问中。清华的《指导原则》会坚定守护育人初心,让AI成为教育的翅膀,而非教育的主人。
事实上,文本也为AI在教育教学更多场景的应用拓展预留了空间。
于歆杰建议,各学科、各课程可依据《指导原则》展开具体实践层面的探讨,“明确禁止什么,在过程中鼓励什么,是教师接下来需要配合完成的工作”。在他本人的“电路原理”课程中,他在课程说明中明确学生可以与人工智能模型讨论作业,但是禁止复制其做题过程和结果作为本人作业,这种行为视为抄袭。
清华大学新闻与传播学院、人工智能学院双聘教授沈阳则认为,可以将“红线”与“绿道”嵌入日常教学的责任结构与评价机制中,推动评价体系从重结果转向重过程,关注学生的思考轨迹与真实成长。
《指导原则》的发布,是一个里程碑,更是一个新起点。下一步,清华大学将通过人工智能素养平台、教学工作坊、跨学科研讨等多种方式,推动其落地生根、迭代更新。而这场关于智能时代教育何为的深刻思考与实践,仍将在清华园持续深入。
《教师生成式人工智能应用指引(第一版)》发布
近日,教育部教师队伍建设专家指导委员会正式发布《教师生成式人工智能应用指引(第一版)》(以下简称《指引》)。这是我国首份专门针对教师群体的生成式人工智能应用规范,明确了指导思想、基本原则、场景指引、规范指引、组织保障等内容。
《指引》指出,场景指引是教师应用生成式人工智能的方向,教师要主动适应新技术变革,将生成式人工智能融入教育教学全要素、全过程,在坚守价值塑造和认知能力培养的基础上,确保技术应用符合教育规律、法律法规和伦理规范,实现减负、提质、增效。场景指引包括助力学习变革、助力教学提质、助力育人进阶、助力评价增效、助力管理升级、助力研究创新等6个方面。
《指引》提出,规范指引旨在明确教师在使用生成式人工智能过程中需审慎判断的行为边界,以及提高通用操作能力。教师应掌握生成式人工智能基本特征与应用策略,有效防范其可能对学生思维发展、价值观塑造、教育公平、数据隐私等方面带来的风险,确保技术应用符合教育伦理与法律法规。
《指引》要求,各地应加强统筹指导,因地制宜,制定并完善本地教师应用生成式人工智能的实施细则与操作指南,建立健全面向教育场景的生成式人工智能工具评估与准入机制,将教师人工智能素养提升纳入培训体系。