3月4日上午,全国政协委员、360集团创始人周鸿祎在全国两会前夕围绕DeepSeek开源模式发表观点。
周鸿祎指出,李彦宏非常睿智,也非常老江湖。李彦宏最初并不认同开源模式,因为他认为自己的模式与OpenAI较为相似。然而,李彦宏比OpenAI更聪明的地方在于及时转变策略,宣布开源。在百度开源之后,阿里巴巴更加坚定地支持开源,字节跳动或许也会加入开源的行列。开源生态一旦形成,会产生强大的虹吸效应,通常情况下,开源模式一旦成熟,必然能够战胜闭源模式。
周鸿祎还提到,很多人经常询问他关于中美AI能力的差距。关于这个问题,网上有许多专家声称差距有十年、几十年,这些说法未免过于悲观。实际上,差距并没有那么大,最多的时候也不过两三年,甚至在某些方面,我们已经迎头赶上。仅凭技术一项,我们能否永远领先美国?我认为这是不可能的。如今,我们在GPT-01上取得了进展,虽然与o3还有差距,但未来他们借鉴DeepSeek的论文,可能会推出类似Llama的技术,从而赶上R1。而R1也可能升级为R2,再次取得领先。在人工智能领域,随时可能有一家小公司凭借领先的技术脱颖而出,因为这种工具的门槛并没有想象中那么高。
周鸿祎的这番言论,让人不禁联想到他与李彦宏之间关于“开源与闭源”的争议。
时间回到2024年4月下旬,周鸿祎在公开场合对李彦宏“开源模型会逐渐落后”的观点进行了反驳,他坚定地表示:“我坚信开源的力量。网上有些名人说开源不如闭源,这简直是胡说八道,大家千万别被误导。说这话的公司自己也是借助开源的力量发展起来的。”
他进一步指出,没有开源就没有Linux,没有Linux就没有今天的互联网。他提到,目前大家都在追求20万字、50万字甚至100万字的模型,而100万字可能很快就会成为标配。360也将相关能力开源,让众多大模型具备了“阅读一本《三国演义》”的能力。他再次强调:“这就是开源的力量,大家不必闭门造车,重复发明轮子。”
此前,百度创始人兼董事长李彦宏在百度AI开发者大会上表示,通过降维剪裁的模型在同等尺寸下效果更好,同等效果下成本更低。他当时坚信“开源模型会越来越落后”。然而,仅半年多后,百度便被DeepSeek推出的DeepSeek R1和DeepSeek V3在功能上严重“降维打击”,并随后宣布开源其自家大模型。这一戏剧性转折,不仅印证了开源生态的虹吸效应,也折射出大模型领域技术路线的激烈博弈。
来源:金融界