□童方萍
据媒体报道,当消费者们打开AI软件,询问“哪个品牌的扫地机器人性价比最高”“生成一个旅游攻略”……大概率会默认得到的是基于全网数据的客观分析与中立推荐,但事实可能并非如此——大家看到的“首位推荐”“高度好评”,或许并非算法自然筛选的结果,而是商家付费定制的定向广告。
如今,人工智能已悄然融入我们的日常生活。当我们打开手机、电脑,向“智能助手”提问“哪个品牌的扫地机器人最实用?”“五一假期去哪里旅游最合适?”它总能迅速给出条理清晰、看似权威的答案。我们信任它,因为它不带情绪、不偏不倚,仿佛是知识的“搬运工”。然而,这些看似客观的回答,背后可能早已被商业利益悄然“染色”——智能助手正面临沦为“谁出钱多就帮谁说话”的“营销助手”的风险。
据报道,一些企业正通过“生成式引擎优化”(GEO)技术,向AI平台“投喂”特定内容,甚至支付费用,让自家品牌在AI的回答中获得优先推荐。只需每月支付千元,就能让某个品牌“自然”出现在答案首位,伪装成“用户口碑”或“数据推荐”。这些信息看似中立,实则暗藏玄机。比如,消费者们搜索“高性价比扫地机器人”,得到的可能是某品牌“全方位优势”的软文;询问“小众旅游地推荐”,结果却附带了某导游的联系方式。这些“润物细无声”的推广,正在悄悄侵蚀AI的公信力。
AI智能助手之所以被广泛使用,正是因为它被赋予了“客观”“公正”“智能”的标签。公众信任它,是因为相信它不会被金钱收买,不会因利益而偏袒。然而,当AI的回答不再是算法对海量数据的中立分析,而是商家付费定制的“定向输出”,这种信任便开始动摇。更令人担忧的是,大多数用户并未意识到自己正在接收广告。传统搜索引擎会标注“广告”字样,而AI生成的内容却往往毫无提示,极具隐蔽性,极易误导消费者做出错误判断。
如果任由这种趋势发展,后果不堪设想。一方面,优质但缺乏营销预算的品牌将被边缘化,市场公平竞争机制遭到破坏;另一方面,用户对AI的信任一旦被透支,将难以重建。当人们发现“智能助手”其实“不智能”,只是“谁出钱多就帮谁说话”,那么AI作为信息助手的价值也将大打折扣。
要防止“智能助手”沦为收割信任的“营销助手”,必须多管齐下。首先,AI平台应承担起主体责任,建立透明的信息标注机制,对所有存在商业合作或推广性质的内容明确标注“推广”或“赞助”,保障用户的知情权。其次,监管部门应尽快出台相关规范,将AI生成内容中的商业植入纳入广告监管范畴,杜绝“隐形营销”。同时,平台应优化算法逻辑,提升内容审核能力,避免被“数据投喂”所操控。此外,公众也应提升媒介素养,学会批判性思考,不盲目相信AI输出的每一条信息。
技术的进步应当服务于公众福祉,而不是成为商业逐利的工具。智能助手的“智能”,不应体现在如何更巧妙地植入广告,而应体现在如何更真实、更公正地传递信息。我们期待,未来的AI依然是那个值得信赖的“知识伙伴”,而不是披着科技外衣的“推销员”。守护这份信任,就是守护我们获取真实信息的权利。
AI在答案中植入广告 谨防“智能助手”收割信任
来源:羊城晚报 2025年11月26日 版次:A05栏目:今日论衡之世相评弹作者:童方萍
□童方萍
据媒体报道,当消费者们打开AI软件,询问“哪个品牌的扫地机器人性价比最高”“生成一个旅游攻略”……大概率会默认得到的是基于全网数据的客观分析与中立推荐,但事实可能并非如此——大家看到的“首位推荐”“高度好评”,或许并非算法自然筛选的结果,而是商家付费定制的定向广告。
如今,人工智能已悄然融入我们的日常生活。当我们打开手机、电脑,向“智能助手”提问“哪个品牌的扫地机器人最实用?”“五一假期去哪里旅游最合适?”它总能迅速给出条理清晰、看似权威的答案。我们信任它,因为它不带情绪、不偏不倚,仿佛是知识的“搬运工”。然而,这些看似客观的回答,背后可能早已被商业利益悄然“染色”——智能助手正面临沦为“谁出钱多就帮谁说话”的“营销助手”的风险。
据报道,一些企业正通过“生成式引擎优化”(GEO)技术,向AI平台“投喂”特定内容,甚至支付费用,让自家品牌在AI的回答中获得优先推荐。只需每月支付千元,就能让某个品牌“自然”出现在答案首位,伪装成“用户口碑”或“数据推荐”。这些信息看似中立,实则暗藏玄机。比如,消费者们搜索“高性价比扫地机器人”,得到的可能是某品牌“全方位优势”的软文;询问“小众旅游地推荐”,结果却附带了某导游的联系方式。这些“润物细无声”的推广,正在悄悄侵蚀AI的公信力。
AI智能助手之所以被广泛使用,正是因为它被赋予了“客观”“公正”“智能”的标签。公众信任它,是因为相信它不会被金钱收买,不会因利益而偏袒。然而,当AI的回答不再是算法对海量数据的中立分析,而是商家付费定制的“定向输出”,这种信任便开始动摇。更令人担忧的是,大多数用户并未意识到自己正在接收广告。传统搜索引擎会标注“广告”字样,而AI生成的内容却往往毫无提示,极具隐蔽性,极易误导消费者做出错误判断。
如果任由这种趋势发展,后果不堪设想。一方面,优质但缺乏营销预算的品牌将被边缘化,市场公平竞争机制遭到破坏;另一方面,用户对AI的信任一旦被透支,将难以重建。当人们发现“智能助手”其实“不智能”,只是“谁出钱多就帮谁说话”,那么AI作为信息助手的价值也将大打折扣。
要防止“智能助手”沦为收割信任的“营销助手”,必须多管齐下。首先,AI平台应承担起主体责任,建立透明的信息标注机制,对所有存在商业合作或推广性质的内容明确标注“推广”或“赞助”,保障用户的知情权。其次,监管部门应尽快出台相关规范,将AI生成内容中的商业植入纳入广告监管范畴,杜绝“隐形营销”。同时,平台应优化算法逻辑,提升内容审核能力,避免被“数据投喂”所操控。此外,公众也应提升媒介素养,学会批判性思考,不盲目相信AI输出的每一条信息。
技术的进步应当服务于公众福祉,而不是成为商业逐利的工具。智能助手的“智能”,不应体现在如何更巧妙地植入广告,而应体现在如何更真实、更公正地传递信息。我们期待,未来的AI依然是那个值得信赖的“知识伙伴”,而不是披着科技外衣的“推销员”。守护这份信任,就是守护我们获取真实信息的权利。