来源:MacTalk
不知道你有没有看到一则消息,据彭博社报道,当下最火的 AI 编程工具 Cursor 最近正以接近 100 亿美元的估值准备新的融资。Cursor 这家公司成立于 2022 年,也就是说,仅仅用了三年时间,它就成为了百亿估值的独角兽。
AI 时代,创业公司的发展速度比以往任何时候都要快。
除了 Cursor,最近市场上还有 Lovable、Bolt、Windsurf 等等产品,他们的增长速度同样也不低。Lovable,3 个月就从 0 做到了 1700 万美元的 ARR。Bolt,4.5 个月,从 0 做到 4000 万美元的 ARR。
但除了以上这几个产品外,AI 编程市场上,还有另外一个没有正式出招的选手——Refection AI。上周六,我看到消息说,Refection AI 筹集了 1.3 亿美元的融资,新估值为 5.55 亿美元。这家公司成立于去年,但此前一直在秘密运行。
Refection AI 的创始团队实在太强了,两位创始人 Misha Laskin 和 Ioannis Antonoglou 之前都是谷歌 DeepMind 的研究员,并且深度参与了 Gemini 和 AlphaGo 的研发。他们准备参与 AI 编程赛道竞争的逻辑是:直接从模型端开始做起。
为什么 AI 编程赛道能涌入进来这么多优秀的公司和人才?去年,我曾经想过很久这个问题。按说早些年,代码编辑器的市场中没有几家大公司,而且能够从中赚到钱的,也就只有 Jetbrains, 2018 年时,它的营收也才 2.7 亿。这么算,市场规模不算大。
但现在,AI 拓宽了它的边界。往小了说,AI 编程工具可以提高企业编写软件的效率。往大了说,它可以吃掉低代码,以及部分 SaaS 的市场份额。更重要的是,编程场景中,AI 的生成结果能够被 AI 验证,所以,这也就自然而然成为了最佳用例。
Refection AI 的目标是建造超级智能的自治系统。千里之行,始于足下,这一切,他们先从自主编程开始,全心构建一个世界上最好的自主编程系统。先深度,再广度(和 OpenAI、Claude 的路径恰好相反)。这也能侧面说明,AI 编程,绝对是大模型的杀手级应用场景。
我曾经听过他们 CEO Misha Laskin 的一个播客,有几个观点很有意思:
1、通用智能体需兼具广度和深度。AlphaGo 有深度但无广度,GPT 有广度但无深度。语言模型依赖互联网数据,而互联网缺乏多步推理的结构化信息。我们需要一种方法,能针对任何任务类别收集数据并迭代提升模型能力——这正是大实验室尚未专注的方向。
2、语言模型的对齐(alignment)过程与 AlphaGo 的训练框架惊人相似:预训练(模仿学习)赋予基础能力,后训练(强化学习)优化行为。但语言模型的奖励模型容易被策略模型钻空子。例如,若奖励模型偏好拒绝回答敏感问题,模型可能彻底不回答问题。
3、预训练是从零到不错,如同 AlphaGo 的模仿学习阶段;后训练是从不错到卓越,通过强化学习固化好行为。但语言模型的后训练受限于奖励模型的噪声,导致优化天花板。我们需要更鲁棒的奖励机制,而这可能需要新的技术突破。
话说 Misha Laskin 这个人很有意思,他经常提到一个词:root node,姑且翻译为根节点。他觉得每个时代都有一个根节点式的问题,只要这个根问题解决了,那其他的相关问题也就迎刃而解。
对他而言,怎么构建可靠、通用的 Agent 是当前时代的根问题,其重要性如同百年前的相对论之于物理学。所以 Reflection 的官网上,第一句话就写着:我们相信解决自主编码问题是实现更广泛超级智能的“根节点”。
我查到一则 Refection AI 招聘信息,他们要求候选人能够在 DL 和 RL 中进行原创性研究,并探索除了 Transformer 之外的其它架构。看起来无论是愿景,还是人才储备,都让人兴奋不已。
我在想, Cursor 这么着急拿新的融资,不会也要往底层做,探索模型相关的事情吧?要不然,当 Refection AI 这样的公司从模型端取得新的突破后,它将没有任何壁垒。
不知道,且往后看。至少我们得意识到,这个赛道,还有一家重要的公司没有出招。
特别声明:以上内容仅代表作者本人的观点或立场,不代表Hehson财经头条的观点或立场。如因作品内容、版权或其他问题需要与Hehson财经头条联系的,请于上述内容发布后的30天内进行。