川观新闻评论员 余姝满
有过这样的经历吗?问AI一个问题,答起来似乎有理有据,结果一查全错。AI一本正经地胡说八道,多半是被“投毒”了。
最近央视起底AI数据污染乱象,不少网民发现,部分人工智能的回答有些不靠谱。询问宁波交警抖音号为何注销时,AI竟将注销原因与一起5月的交通事故联系在一起;询问儿童手表软件,AI给出的竟是否定中国发明创造、否定中国文化的答案。前不久,国家安全部也发布了安全提示,人工智能训练数据存在良莠不齐问题,其中不乏虚假信息、虚构内容和偏见性观点,造成数据污染,冲击安全防线。
AI已经深度融入日常生活的点滴,万万不可轻视数据污染、数据投毒的破坏力,以及可能带来的现实风险。数据污染包括,人为主观恶意篡改数据和AI吸收的海量庞大数据中混杂了不良信息、不实内容。通俗地讲,如果把AI比喻成食物,语料就相当于原材料,权重就是加工工艺。原材料腐败变质、加工工艺出现偏差,都会导致生产出来的食物有问题。尤其是投入恶意的、有害的数据,这就好比“投毒”,要么是立竿见影地给出错误答案,要么是长期性、系统性地侵蚀知识根基、价值底座,长此以往,后果不堪设想。
“毒”数据对AI输出的影响,不只是编造故事、口吐谎言,往往还具有致命性、风险性。国家安全部数据显示,AI在训练过程中,即使是0.001%的虚假文本被采用,其有害输出也会相应上升7.2%。AI涉及一系列日常应用,推荐餐厅、自动驾驶、医疗诊断、金融决策,AI的每一次误判都可能引发“蝴蝶效应”,带来难以估计的损失。试想一下,民众可能被虚假信息误导,引发社会舆论风险;投资者可能掉进AI推荐的虚假高收益项目陷阱,引发市场异常波动;患者可能因AI的错误诊断耽误治疗,危及生命;汽车可能因AI的错误导航而走错方向,导致意外……数据投毒、数据污染的每一次代价,对于个人和社会而言,都是不可承受之重。
更令人担忧的是,数据中毒的AI会“自己学坏”,陷入恶性循环。随着错误信息逐代累积,加之防范失守、监管滞后,加剧“代谢”异常,这种“污染”“中毒”就不会只是个例,而是正在衍生为系统性风险。
如今,互联网上,AI生成内容的数量、效率,已经远超人类。有些MCN机构利用AI每天批量产出上千篇虚假新闻,大量不实信息如病毒般传播;某小说平台账号依靠AI“创作”,一天更新十几本电子书不在话下,但逻辑不通、辞藻空洞……AI生成、伪造、篡改,一大堆粗制滥造、真假难辨的信息垃圾充斥网络,污染信息环境,也污染大众认知,不得不警惕、不得不治理。
AI的安全边界,取决于数据的质量底线。AI吃数据,得吃真实、准确、健康的数据,吃得“干净卫生、有营养”,才不会“吃坏肚子”。忽视AI数据安全,无异于自毁前程,不能再任由AI原料“土壤”被污染、被破坏了。AI面向的是人,关键也在于人。技术开发者、安全监管者、工具使用者,共同守住数据安全,才能构筑起AI强大的“免疫系统”,一同守护AI时代的未来。
【未经授权,严禁转载!联系电话028-86968276】
上一篇:园林股份新增“昨日涨停”概念