(来源:千龙网)
“不少作业和论文的AI痕迹过于明显,这样下去,学生的独立思考能力可能会被削弱。”在高校教授文学概论的王老师的担忧,正成为越来越多一线教育工作者的共识。AI在带来效率与便利的同时,也带来了过度依赖、信息茧房裹挟等问题,对青少年的学习生活和健康发展构成挑战。
初三学生遇难题直接“拍照搜”,考试时没有AI辅助,遇到基础问题无从下手,成绩下滑;短视频平台经常推送美妆、穿搭内容,高中生模仿后产生非理性消费;12岁男孩每天与智能音箱对话数小时,心理测试显示其共情能力低于同龄人平均水平;女生将AI生成的虚假“明星聊天记录”转发致谣言四起。
以上案例是AI时代部分孩子相关能力减弱的几个缩影。在AI技术深度重塑青少年学习与社交生态的当下,部分青少年正面临系统性挑战:学习能力因AI标准化解题路径而出现结构性退化,消费决策陷入算法推荐的依赖性困境,社交互动被虚拟化交互替代导致真实沟通能力弱化,信息甄别则因海量AI生成内容而陷入认知危机。这种影响呈现双重性——在提升效率的同时,也潜藏认知退化、自我迷失乃至法律风险的隐忧。
去年中国青少年研究中心对全国7个省份的8500余名未成年人进行了调查,结果显示,有六成多未成年人使用过AI,而其中仅有三成多家庭为孩子制定了AI使用管理规则。这说明未成年人使用AI的比例较高,但对未成年人相关保护严重滞后。而且,除了家庭内部对未成年人使用AI缺乏必要约束之外,其他各方也需要反思。
在AI技术深度重塑教育生态的当下,学校作为青少年核心能力培育的关键阵地,亟须构建科学的AI教育引导体系,以规避学生陷入AI“智能陷阱”的风险。为此,应针对学生使用AI过程中出现的认知危机,制定详尽的行为指南,通过分场景规范(学习/社交/信息消费)、动态监测机制及家校协同,培养学生独立思考和信息甄别能力,同时明确AI使用边界,防止过度依赖。
同时,运营商应通过技术干预、内容监管与用户教育三方面协同发力,构建未成年人AI保护体系。既要利用生物识别(如人脸识别)与实名认证技术,自动识别未成年人身份,强制启用“未成年人模式”;又要将AI生成内容划分为“教育辅助”“娱乐休闲”“社交互动”三类,实施差异化监管。
2021年12月,教育部办公厅印发通知,要求加强教育APP管理,明确提出对于那些提供和传播“拍照搜题”等不良学习方法的作业APP,暂时下线。此举就是为了保护未成年人独立思考和自主学习的能力。然而在今天,不少AI工具仍对用户不加区别地提供“拍照搜”服务,这对未成年人的独立思考能力产生了不利影响。
根据《未成年人保护法》《未成年人网络保护条例》等法律法规,无论是运营商还是平台,都应在依法依规推出“未成年人模式”的基础上,将保护未成年人独立思考等能力视为核心责任,以问题为导向,采取更具针对性和实效性的措施。
对此,须增强算法监管的透明化与可审计性,建立健全企业责任机制,为行业规范发展提供制度保障。同时,既要研究制定未成年人使用AI的专项指南,也要部署学校和家庭加强针对性教育。唯有如此,才能有效规避AI对未成年人的潜在伤害。