GPT 4o-mini华人领队离开OpenAI:真正推动AI进步不是模型架构,而是互联网
创始人
2025-08-19 13:56:20
0

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:新智元)

新智元报道

编辑:定慧

【新智元导读】前OpenAI研究员Kevin Lu加盟由前OpenAI CTO Mira Murati创立的Thinking Machines Lab。公司2025年7月获约20亿美元早期融资,估值约120亿美元。Kevin Lu曾主导GPT-4o mini,长期研究强化学习、小模型与合成数据。

刚刚,OpenAI又离职一名华人大佬

前OpenAI研究员Kevin Lu宣布加入AI新创Thinking Machines Lab

Kevin Lu主导了GPT-4o mini的发布,并参与o*-mini、o3等模型工作。

Thinking Machines Lab由前OpenAI CTO Mira Murati创立的。

2025年7月,公司创历史完成20亿美元的超大额早期融资(a16z领投),估值约120亿美元。

随后团队核心成员在社交平台上互动表示欢迎。

Kevin Lu是强化学习与小模型方向的研究者,本科就读于加州大学伯克利分校,在OpenAI期间专注强化学习、Small Models与合成数据。

加入Thinking Machines之前还在Hudson River Trading、MetaAI从事序列决策与深度学习研究。

真正推动AI进步的是互联网

Kevin Lu在小模型与合成数据上的实践经验,有助于Thinking Machines缩短从论文到用户价值的距离。

尤其是他7月的一篇博客非常出圈:真正推动AI进步是互联网

深入浅出的讲明白一个事情:与其反复抠架构,不如扩大、丰富、贴近现实的数据来源(如互联网)与数据消耗方式,否则模型始终「见得少、懂得少」。

博客地址:https://kevinlu.ai/the-only-important-technology-is-the-internet

以下为博客的部分截取翻译:

虽然AI的进步常被归功于一些里程碑论文——比如transformers、RNNs、diffusion——但这忽略了AI最根本的瓶颈:数据

那么,「好数据」究竟意味着什么?

如果我们真想推进AI,与其研究深度学习优化,不如研究「互联网」。

互联网才是让我们的AI模型实现规模化扩展的那项关键技术。

· Transformers是一种「分散注意力」

受架构创新带来的快速进展启发(5年间从AlexNet到Transformer),许多研究者一直在寻找更好的架构先验,寄望于设计出「优于Transformer」的新架构。

事实上,Transformer之后确实出现了一些更好的架构;但为什么自GPT-4以来,我们很难「切身感到」这种改进?

· 范式更迭

算力受限(compute-bound)。

曾经,方法随算力扩展,更高效的方法就更好。

真正重要的是把数据尽可能高效地塞进模型里;这些方法不仅效果更好,而且似乎「越大越灵」。

然后,数据受限(data-bound)。

研究模型架构当然不是没用。社区在Transformer之后开发出了更好的方法,比如SSMs与Mamba等。

但它们并非「免费的胜利」:在给定训练算力下,训练一个Transformer往往能得到更优性能。

数据绑定的范式是自由的:反正各种方法最终都差不多!

因此应选择推理阶段更优的方法,可能是某种「次二次注意力变体」(subquadratic attention variant)。

这些方法很可能会再度走到台前。

· 研究者该做什么?

设想我们不只关心推理(可以理解为「产品」),而是关心渐近性能(可以理解为朝着AGI迈进):

社区的许多成员已经达成共识:应研究新的「数据消费」方式

目前两大主流范式是:(1)下一个token预测(NTP)与(2)强化学习(RL)

(显然,我们在「新范式」上并没取得太多突破)

AI的本质就是「消耗数据」

目前AI领域里程碑工作本质上是在开辟数据消耗&消耗的新途径:

「下一个token预测」而言,互联网是完美的解决方案:它提供了极其丰富的、按序相关的数据,正好适合序列建模去学习。

互联网充满了结构化HTML的「序列」,天生适配下一个token预测;按不同顺序重构,可以涌现多种有用能力。

这不是巧合:这种「序列数据」对下一个token预测近乎完美;互联网与下一个token预测相辅相成

「行星级」数据

Alec Radford在2020年的一个先见之明的演讲中指出:尽管当时提出了很多新方法,但都不如「扩大与整理数据」重要。

我们从「寄望更好方法带来神奇泛化(比如损失函数暗含句法树)」,转向一个朴素原则:模型没被告知的事,它当然不知道

与其通过打造大规模监督数据集去「硬性指定预测目标」,不如设法让模型从「外部的一切」中学习并进行预测

每次我们做一个数据集,就像是把「世界上其他一切」的重要性设为0、把「数据集内的一切」的重要性设为1。

可怜的模型!它们知道的太少,仍有太多被隐藏。

自GPT-2之后,全球开始关注OpenAI,而时间也证明了其影响力。

如果有Transformer但没有互联网?

低数据。在低数据范式里,Transformer可能一文不值:其「架构先验」不如CNN或RNN,因此表现应更差。

书籍。较不极端的情况是:若无互联网,我们可能用书籍/教材进行预训练。教材常被视为人类智慧的巅峰:作者受过良好教育,字斟句酌。这代表一种信念:「高质量数据胜于大数量数据」。

教材与Phi。Phi系列(「Textbooks Are All You Need」)在小模型上表现出色,但仍要依赖在互联网训练的GPT-4做过滤与合成。

总体看,Phi很不错,但尚未证明能达到以互联网数据预训练模型的渐近性能;且教材缺少大量现实世界与多语言知识(不过在算力受限下它们很强)。

「数据类别」的类比

可把「教材」视作可验证奖励(表述几乎总是真),而「书籍」(尤其是创作类)更像是「人类偏好」,能赋予学生模型更强的风格多样性。

就像我们可能不会让o3或Sonnet 3.7替我们写作一样,只在高质数据上训练的模型可能缺少某种创造性「火花」。

因此Phi的PMF(产品市场契合)并不理想:需要知识时,人们偏好大模型;要本地「角色写作」,人们也不太会选Phi。

互联网之美

书与教材本质上只是互联网数据的压缩(背后或许有强大智能在做压缩)。

更上一层看,互联网极其多样化的监督源,也人类的映射

展示了互联网用户在过去三十多年里由几百万跃升到50多亿的长期、持续增长

一些研究者可能觉得「为了研究进步要转向产品」很奇怪(甚至是干扰),但如果我们关心AGI对人类有益(而不是像AlphaZero那样在真空中聪明),就该考虑AGI的形态(产品)

我认为研究(预训练)与产品(互联网)的协同设计非常优雅。

去中心化与多样性

互联网是去中心化的,任何人都能民主地添加知识;不存在单一真理源。

它承载了大量视角、文化模因和低资源语言;若用大模型在其上预训练,便能得到理解广博知识的智能。

这意味着,互联网的管理者(产品「管家」)对AGI的设计举足轻重!

若削弱互联网多样性,模型在做RL时的「熵」(信息多样度)会显著变差;若删除数据,AGI中的整个亚文化都可能被抹去。

对齐。有非常有趣的结果表明:为了得到对齐的模型,必须同时在对齐与未对齐数据上预训练,因为预训练会学到二者之间线性可分的方向

如果去除未对齐数据,模型就难以理解「什么是不对齐,以及为何这是不好的数据」。(有点善恶共存,无善无恶的味道了)

上图指标越高(「Toxigen」)表示毒性越强。

含10%有毒数据+人工引导上预训练的模型,0%有毒数据+引导上预训练的模型更不毒

特别是,上述「有毒」数据来自4chan,这是一个匿名在线论坛,以其无限制的讨论和有害内容而闻名。

尽管这是一个产品与研究之间存在紧密联系的特定案例(我们需要这种无限制讨论来实现对齐的研究模型),但我认为你可以想到更多类似的案例,其中互联网的设计决策在训练后影响了最终结果。

非对齐的另一个例子:Improving Image Generation with Better Captions推动了DALL·E 3的发展。

通过重写标注以更清晰地区分「好/坏图像」,如今已广泛用于生成模型。

这与RLHF的「点赞/点踩」在精神上相似。

「苦涩的教训」

必须牢记:人们确实想使用互联网,而这些有用性质都是与「互联网这一产品」互动的涌现结果

如果我们总是手工整理数据就会出现「被整理的内容」与「用户觉得有用的能力」之间的二元对立

有用的技能不应由研究者来拍脑袋选,用户会告诉你答案。

「人们想使用互联网」的另一半原因是:人均成本足够低,才能普及并汇聚数据。若互联网需要昂贵订阅,就不会有大规模数据贡献。

人们常在「扩展性」讨论里忽略这一点:互联网是那个能扩展学习与搜索(数据与计算)的简单理念

若你找到这种「简单理念」并把它做大,就会收获卓越成果。

要点。互联网之所以对训练极有用,是因为:

1)多样,蕴含大量有用知识;

2)形成天然课程

3)有产品市场契合,用户持续供数;

4)经济可行,单人成本低、可普及。

互联网是「下一个token预测」的「对偶」

互联网对监督式的下一个token预测是如此完美的补充,以致我们甚至可以强说:给定互联网这个「底座」,研究者几乎必然会收敛到下一个token预测

因此我会说:互联网就是「下一个token预测」的对偶

如上所述,尽管我们做了大量研究,当下仍只有两大范式

因此,提出新的「产品」点子可能比提出新的「学习范式」更容易。这引出问题:强化学习的「对偶」是什么?

现在有一些想法,但各有缺陷。它们都不算「纯研究」,都涉及围绕RL打造产品

我们期望的属性是:多样性、天然课程、PMF、经济可行性

最后一评:牺牲一些多样性也可以——在自家产品里用RL优化指标(游戏、自动售货机、留存/利润/参与度等)。

这可能有效,但难点在于:如何把它「升格」为一种多样化、可扩展的奖励宇宙,从而引发范式级跃迁

总之,我们还远未找到一个像「互联网之于NTP」那样优雅且高产的「RL对偶」。

最后,Kevin Lu再次强调,在训练里,模型只「看到」数据集里的东西;集外的世界等于被忽略(0 权重)。

希望有朝一日我们将找到方法来解决这个问题。

参考资料:

https://x.com/_kevinlu/status/1942977315031687460

相关内容

热门资讯

石药集团(01093):度普利... 石药集团(01093)发布公告,本集团开发的度普利尤单抗注射液(该产品)已获中国国家药品监督管理局批...
南钢股份(600282.SH)... 格隆汇8月19日丨南钢股份(600282.SH)公布2025年半年度报告,报告期实现营业收入289....
郑州 | 9月19-21日 并... (来源:并购交易师)    当前,“新国九条”引领“科创板八条”、“并购六条”及《上市公司重大资产重...
惠民:精细化预报预警 全力应对...   8月15日至18日,山东省滨州市惠民县出现强降雨天气过程,过程累计最大降水量达91.1毫米,最大...
地方政府三忧,企业营商三盼,如... (来源:中国金融信息中心)CFIC导读◆一些地方政府在财政压力、职能权限、政策衔接方面存在三忧,企业...