转自:湘潭发布
人工智能技术的快速发展,既为人类生活带来便利,也因滥用催生了新的社会问题。中央网信办部署的“清朗·整治AI技术滥用”专项行动,分阶段精准整治AI技术发展的13类问题,充分体现了党和国家在科技发展的时代浪潮中,始终绷紧发展与安全之弦,守稳底线、精准施治的治理智慧。这次专项行动的开展,既是应对和治理科技领域突出问题的“及时雨”,也是护航AI技术健康发展的“指向灯”,必将深入推动AI技术蓬勃发展,助力中华民族伟大复兴。
维护网络真实性,让真相“不掉线”。在社交媒体应用初期,未经核实的图文谣言曾引发多起群体性事件,如今AI技术的“逼真性”进一步放大了这一风险。深度伪造技术的滥用,已让谣言从“模糊猜测”升级为“精准欺骗”,普通公众几乎无法辨别真伪。比如,2025年西藏日喀则地震期间,一张标注为AI生成的“废墟儿童”照片被移花接木为灾难现场图片,引发公众恐慌与情感消耗。开展“清朗·整治AI技术滥用”专项行动,明确将“利用AI制作发布不实信息”纳入整治范围,通过源头管控与内容治理双管齐下,强化生成合成内容标识、提升平台鉴伪能力,要求AI生成内容必须添加显性标识,为信息真实性增设“防火墙”。
保护公民隐私权,让信息“不泄露”。近年来,AI技术的负面效应在公民隐私权侵害领域尤为突出,“AI复活逝者”“伪造名人言论”等事件频发,侵犯个体权利,更扭曲公众认知。建立规则才能遏制技术作恶,专项行动将“克隆生物特征信息”“假冒他人实施诈骗”等行为列为重点整治对象,通过建立生物特征信息使用授权机制、打击非法数据爬取,从技术源头阻断侵权链条,强力捍卫公民隐私权,体现了我国在数字人权保护上的前瞻性。
构建健康生态,让行业“守秩序”。历史经验证明,无序竞争终将反噬行业前景,技术治理能有效净化网络生态,让行业发展更可控。专项行动为AI行业划定了“红线”。第一阶段对“训练语料管理不严”“重点领域安全风险”的整治,直指行业野蛮生长的痛点。比如,共享经济初期的监管滞后曾导致押金乱象、数据泄露等问题,而此次专项行动通过建立语料排查机制、设置行业安全审核,以“疏堵结合”的方式避免管理失灵。专项行动不是“技术管制”,而是通过价值尺度、法治硬度、技术韧度与社会温度的多元合力,推动AI技术从“工具理性”走向“价值理性”,既防范企业利用技术违法犯罪的风险,又为合规企业腾出创新空间。
从工业革命到信息时代,每一次技术革命都伴随治理体系的升级。开展“清朗·整治AI技术滥用”专项行动,是党和国家回应技术伦理、社会秩序与行业发展三重诉求,构建数字文明新秩序的“制度疫苗”。唯有在创新与规范之间找到平衡点,才能让AI技术真正助力经济社会发展。