来源:@证券市场红周刊微博
5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在天津举行。360集团创始人周鸿祎受邀参加“安全风险与监管治理”议题交流时表示,人类在享受AI带来的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他提出,一方面,应“以模制模”,利用安全大模型解决大模型安全问题;另一方面则应以辩证、客观的态度看待监管问题,力求在保障安全的前提下,为创新预留足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大模型面临着传统安全威胁与AI自身安全隐患的双重挑战,这些问题已成为制约AI产业健康发展的关键瓶颈,亟待系统性解决方案。在传统安全风险方面,系统漏洞与供应链攻击成为AI领域的“心腹大患”。一旦漏洞被攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来难以估量的损失。
而AI自身的安全问题同样不容忽视。大模型存在的“幻觉”现象,以及易遭受提示注入攻击等特性,可能导致严重后果。特别是众多企业基于大模型构建了能够自主工作的智能体,这些“数字员工”具备调用各类工具的能力,一旦大模型被恶意操控或出现“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从虚拟世界传导至现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以创新思维重塑安全体系,“以模制模”成为破局关键。所谓“以模制模”,即利用人工智能技术自身的优势,通过安全大模型赋能数字安全,实现安全防御的智能化升级。据了解,360依托10年300亿元的技术投入成果,结合20年来积累的海量安全大数据,以及世界顶级安全专家的丰富经验,训练出专业的安全大模型,并形成完整的安全解决方案。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构、高校和行业头部企业,共享技术成果,共同研发安全产品与服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的监管是人工智能产业健康发展的重要保障。当前,全球各国纷纷出台AI监管政策,旨在规范技术应用、防范潜在风险。然而,人工智能技术发展日新月异,其优势与局限并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留足够空间。
以大模型的“幻觉”问题为例,这一特性虽可能导致信息偏差,但同时也赋予大模型创造力和想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港原则”,在AI监管中采取柔性治理策略具有重要意义。即在坚守安全底线的基础上,对企业因技术特性导致的一般性失误给予一定宽容度,以鼓励创新。通过制定统一的技术标准和监管框架,明确规则边界,引导企业在规范内积极探索创新,避免因过度监管抑制产业发展活力。
免责声明:本文仅供参考,不构成投资建议。