AI 生成内容强标识落地,手动录入 AI 文本能算原创吗?
创始人
2025-09-22 12:44:20
0

文 | 刘兴亮 (知名数字经济学者)

本文系作者参加九派新闻“九派圆桌”直播《AI 生成内容必须亮身份,如何阻断虚假信息传播?》议题讨论上的发言整理而成,发布前经作者审阅。

【1】《办法》要解决的三个问题:哪些是AI生成的?是谁生成的?从哪里生成的?

从今年9月1日起,我们每次与AI的互动都将多出一个清晰的数字印记——由国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》已正式实施,这标志着我国对AI生成内容的治理进入了“强标识”时代。

现在AI生成的内容,早已不局限于文本,还能生成图片、音乐、声音、视频,很多时候足以以假乱真。这次出台的办法,正是源于现实中的诸多问题。

就拿我自己来说,我有一个用了快四年的数字人。曾经,有一家机构为了推广自家数字人业务,在未经我授权的情况下,从网上找了我的声音、视频素材,生成了一个“我”的数字人用于推广。我找过去交涉,对方还很诧异,说网上公开的素材,他们也没恶意,怎么就不能用?可即便没有恶意,也得经过本人授权吧?最后反倒显得我“事多”,其实对方确实没多大恶意,只是想推广技术,但未经授权的使用本身就不合规。

还有两个真实案例更值得关注。一次我参加某电视台节目时,他们给我看了个案例:一对大学生情侣吵架分手后,男生生气之下用女生的图像和声音生成了很多视频,在同学群里用女生的口吻说她坏话,这已经涉及民事侵权了。另外,某著名高校的一位教授,还被AI合成的“朋友”视频骗走了400万,对方的声音、视频都是假的,却骗走了真金白银。

我自己的数字人已经迭代到4.0版本,每一次迭代都更逼真。一开始我还会主动标注“本视频由数字人出镜”,可后来没再过多标注,结果粉丝经常留言困惑:“这是真人录的还是数字人生成的?”有时我发真人录制的视频,他们反而会问“表情怎么这么假,是不是数字人?”其实用户有权知道内容是AI生成、真人出镜,还是手工打造的,也有权知道生成者是谁、来源在哪。这次《办法》的核心,就是推动AI生成内容从生成到传播各环节的全流程安全管理,让这些问题有明确答案。

就如我刚刚提到的例子,如今AI的“深度伪造”功能已经给我们的生活带来了麻烦。AIGC发展太快,在文本、图像、音视频乃至各类虚拟场景中全面渗透,普通老百姓很容易被误导。这次《办法》的出台,核心就是为了提升内容可信度,遏制深度伪造和AI邀约的扩散,明确各类主体的责任,说到底就是该标就标,把关键信息说清楚。

之前我们也有《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,但很多细则没做到位。这次的《办法》,其实是对过去两项规定的细化和补充,进一步明确了标识实施的具体规范,重点是要解决三个核心问题:哪些是AI生成的?是谁生成的?从哪里生成的?

【2】文本领域检测的两个核心指标:“困惑度”和“突发性”

我想《办法》实施后,企业的负担肯定会加重。企业要承担主体责任,比如给生成的文本、音频、图片、视频、虚拟场景添加显性标识,还得开发相应系统和技术,同时做好安全防范——既要主动添加标识,又要防止标识被删减、修改、攻击。技术本身有两面性,要是没有安全防范,A公司制作的内容被B公司轻易替换,用户随便就能修改标识,那这项技术就失去了初衷。

这对中小企业来说压力更大。大企业有足够的资金、技术应对,可中小企业不一样。我老家在山西,以前小煤矿安全难治理,就是因为购置安全设备成本高,小企业舍不得投入,总存侥幸心理“说不定不会被查”。现在AI标识也是同理,中小企业要在技术上真金白银投入,一旦投入成为负担,就可能产生侥幸心理,不愿主动合规。

所以我一直呼吁,任何技术都该有普惠性。能不能给中小企业提供打包的系统或技术解决方案?帮他们减少合规负担?要知道,市面上除了大平台,还有大量中小平台,它们没那么多钱、技术和人才。要是这些中小平台因能力有限无法落实《办法》要求,很可能会成为监管漏洞——AI违规内容都跑到中小平台传播,这绝非不可能。

事实上,这种情况大概率会出现。要是小企业不愿履行责任、心存侥幸,想靠AI传播不合规内容,大平台管得严,就会转向和中小平台合作,利用中小平台制作、传播违规内容,这显然是我们不愿看到的结果。

还有个大家关心的问题:现在对AI生成内容的监测用什么手段,文本领域的检测是不是更难、更复杂?

确实如此,现在很多高校老师对论文是否由AI撰写很困惑,主要是因为他们使用AI的频次低。像我天天用主流AI工具,现在看一篇论文,大概能判断出是人类写的还是AI写的,甚至能初步判断用的是哪家AI,这靠的是长期使用积累的经验。所以我呼吁高校老师多使用AI工具,不然连学生有没有用、怎么用AI都判断不出来。

技术角度看,文本领域的检测主要看两个核心指标:一是“困惑度”,可以理解为对文本的“惊讶程度”。人类写的内容有更多不确定性和创造性,困惑度更高,而AI生成文本是靠算概率,比如描述天气大概率会接“太阳”,描述物体大概率会接“大”或“小”,都是选最可能的下一个词,所以AI文本更顺滑,困惑度更低。二是“突发性”,人类写作的句子长度、风格变化更大,突发性高,AI生成的文本长度更均匀,突发性低。此外还有条件概率曲率等指标,但核心还是困惑度和突发性。

不过目前这些检测工具还不够成熟,误判率不低。上学期毕业季,我就和某媒体做过相关节目,很多老教授因为不懂AI,直接用检测工具的AI率作为论文通过与否的依据,结果造成不少误伤。比如有人自己写的文章,只是情绪稳定、行文平实,就被判定为AI生成。要是遇到这种误判,建议大家提供原始证据申诉,比如写论文时保存的十几个版本草稿,毕竟AI生成内容不需要反复修改,这些版本记录就是人类创作的最好证明。同时我也想再次呼吁,老师们用AI检测工具时一定要谨慎,它不能作为唯一依据。

如果把AI生成的文本手动输入一遍再上传,或者给AI生成的图片手描一遍再发布,能不能蒙混过关,让平台判定为原创?

我的回应是,人类做的这些操作,对AI检测没有任何干扰。AI检测工具判断的是内容本身,即文本的困惑度、突发性、情感变化,关注的是图片的结构、元素拼接逻辑,而不是看是否来自手工录入。就算把AI文本抄一遍,内容本质没变,检测结果也不会变。就算给AI图片描边,图片核心结构和元素没改,同样骗不过检测工具。毕竟现在《办法》刚实施,显性标识还没完全跟上,当前AI检测主要靠内容本身判断。

【3】跨境传播的AI内容出了问题,责任该怎么划分?

大家还关心跨境传播的问题,比如国内生成的AI作品传到国外,国外的AI作品传到国内,不同国家标识要求不一样,能互相认可吗?有没有统一监管办法?

目前在AI生成内容标识这块,中国是走在全球前面的,全世界对这一领域的治理还比较模糊。未来的趋势是,我们要和国际透明度规则对齐。比如美国在这方面进展较慢,欧洲则较快,欧盟《AI法案》对深度伪造就有强制标识要求。

要实现互认,技术层面有不少要解决的问题。显性标识还好说,隐性标识则涉及数据层面,各国能否使用统一的通用语言,这需要各国共同认可,通过统一的元数据和来源凭证,提升境外平台、监管机构的接受度。当然,我们也要保留国内执法所需的传播、制作要素,所以实际操作会更复杂,有时可能需要同时保留双方的标识,但这无疑会进一步增加企业负担。

不过总体来看,我们现在不仅是AI治理的参与者,更是规则制定者之一,不少国家已经在参考我们的做法了。

那要是跨境传播的AI内容出了问题,责任该怎么划分?比如国外生成的有风险的AI作品,传到国内出了问题,这算国外的责任还是国内平台的责任?

其实责任分两块,生产环节和传播环节。AI内容在哪个国家生产,就要符合当地法律法规;传到哪个国家传播,也要符合那个国家的法律法规。比如一个AI作品在A国生产,要在A国和B国同时传播,就必须同时符合A、B两国的规定,否则在任一国家都可能面临官司或处罚。

这也是中国企业出海难的原因之一,不仅要符合国内法规,还要符合目的地国家的法规,有时甚至要考虑当地的风土人情、民族感情,稍有不慎就可能出问题,所以我们也该对出海企业多一点宽容。

【4】清晰标注有时能提升信任度和合规可见性

大众会有一种惯性思维,觉得AI做的作品就是不如人原创的有价值,就好像手工做的东西,就是要比流水线上的东西更有价值。那么AI强制标识,对AI产品使用者、AI内容创作者来说,又是怎样的感受?

作为AI产品使用者,我想分享下自己用AI做视频的经历,或许能给大家一些参考。

我用AI数字人做视频快四年了,说实话,有了AI工具后,人真的会变懒。一开始我给自己定了规矩,数字人出镜的视频比例绝不超过50%,还是要自己多录、多说。可AI工具太好用了,比例慢慢从50%涨到60%、70%、80%,现在已经到90%了。我现在的视频节目里,九成是AI数字人生成的。

关于标注,我也有过反复。刚开始用数字人时,我会明确标注“本条视频由数字人出镜”,一方面是合规,另一方面也有点嘚瑟,毕竟作为第一批用AI数字人的博主,我也想跟大家分享这种新技术。大概标注了四五个月后,一方面觉得粉丝应该适应了,另一方面有的时候也会忘记标注,慢慢就不标了。

那时的数字人没有现在的丝滑逼真,评论区总有人问“这是真人还是数字人?”问得多了,过了几个月我又开始标。现在我又不标了,一是数字人技术成熟了,大家接受度高了,二是我的节目以输出观点为主,观众对是否为真人出镜没那么在意。而且不同平台对数字人生成内容的容忍度也不一样,像我这种知识分享类的露脸视频,平台普遍表示“标不标都行”。

在我看来,清晰标注有时能提升信任度和合规可见性。比如新闻类、知识类、商业传播类这些高敏感度领域,标注就很重要。观众会因为你的坦诚标注,觉得你靠谱、真诚,反而增加信任。所以我建议创作者,在这些高敏感度领域一定要能标尽标,既合规,也能收获更多信任,具体还要结合平台规则来调整。

关于AI生成内容标识技术的未来趋势。我认为在可见的未来,有四个方向会是重点攻克的领域:

第一个是标准统一。统一的标准能减少企业的技术投入成本,也能让跨国互认更方便、更具操作性。要是标准不统一,未来会出现很多衔接问题,这也是我一直呼吁的方向。

第二个是模型签名化。AI生成内容的源头是大模型,要是能在生成端就让模型自动写入可验证的来源证明,就能从根源上解决“是谁生成、从哪来”的问题。目前一些大模型在图像生成领域已经有了先行尝试,比如ChatGPT的图像生成功能就包含了一些凭证,未来这一定会成为主流趋势。

第三个是流市场景的技术整合。现在AI违规内容的重灾区是直播、视频这类“流式场景”,内容是流动的,不像图片是固定的,监管难度更大。未来针对这类场景,大概率会采用“叠层水印+界面写标+回放检验”的组合手段,这也是标识技术中集成度要求最高的方向。

第四个是平台协同闭环。把AI内容的生成、读写、申诉、追踪等环节打通,形成完整的治理闭环,让每个环节都有迹可循、有责可追,这也是未来平台治理要重点推进的方向。

这四个趋势,就是我认为AI生成内容标识技术接下来会重点突破的领域,也希望能通过这些技术进步,让AI生成内容在合规的前提下,更好地服务大家的生活。

【来源:九派新闻】

版权归原作者所有,向原创致敬

相关内容

热门资讯

官方通报“顾客称吃日料在三文鱼... 9月22日,上海市嘉定区市场监督管理局发布情况通报: 2025年9月21日,我局关注到有消费者反映,...
3... 3 个免费的专业录音和节拍制作 DAW 软件下载多年来,制作音乐一直很昂贵,而免费的 DAW 软件正...
南... “阿姨,你爸爸出事了!赶紧把钱打到这个账户上……”“你猜我是谁?……”“由于个人信息泄露淘宝怎么刷信...
瞭望评 | 媒体为何聚焦江苏的... 日前,“活力中国调研行”采访团走进江苏,探寻开放江苏的活力密码。笔者注意到,在媒体此行的诸多报道中,...