OpenAI首席执行官阿尔特曼表示,新模型的运行成本太高了,下周OpenAI将增加数万块GPU,提供算力支撑。
在马斯克旗下xAI的Grok 3发布时,大家都兴奋地表示,Scaling Law(规模法则)还没有撞墙。但GPT-4.5一出,外界发现,OpenAI“撞墙”了。
GPT-4.5的预训练计算量是GPT-4的10倍,但是基准测试只比4o好5%。在AIME和GPQA等困难的学术基准测试中,GPT-4.5的表现也达不到o3-mini、DeepSeek-R1和Claude 3.7 Sonnet等领先AI推理模型的水平。
图片来源:X
阿尔特曼都只能解释道,虽然它又贵,又慢,又不够好。但是它有人情味儿。
有博主测评后表示,GPT-4.5这情商高得直接把智商干没了。
图片来源:数字生命卡兹克
而GPT-4.5的价格也是高到离谱,每百万Tokens输出价格150美元(约合人民币1093.5元),是其他模型的10~100倍,更别说和DeepSeek比了。
2月26日,DeepSeek宣布了错峰价格制度,DeepSeek-R1在高峰期每百万Tokens输出价格为2.19美元(约合人民币15.9元),低谷期的价格仅为0.55美元 (约合人民币4元)。以低谷期的价格计算,GPT-4.5的价格是DeepSeek-R1的近270倍。
图片来源:X
DeepSeek为何能做出成本高效的AI模型呢?从这周开源的五大项目就能看出来,DeepSeek主打的就是“榨干”硬件性能。
第一天:FlashMLA架构,直接“爆改”英伟达GPU,突破H800计算上限;
第二天:DeepEP,第一个用于MoE(混合专家)模型训练和推理的开源EP(专家并行)通信库,提供高吞吐量和低延迟的all-to-all GPU内核;
第三天:DeepGEMM,仅300行代码的通用矩阵乘法库;
第四天:连开三源,创新的双向流水线并行算法DualPipe、用于MoE的负载均衡算法EPLB,以及训练和推理框架的性能分析数据;
第五天:3FS和Smallpond,高效的分布式文件系统和以之为基础的数据处理框架压榨固态硬盘性能。
在DeepSeek的数弹连发后,有网友称,DeepSeek成领头羊了。
图片来源:X
那让我们来看看,DeepSeek是怎么评价GPT-4.5这一模型的吧。
所以说,与其用OpenAI的天价模型,真不如使用DeepSeek更高效的R1模型。但老是“服务器繁忙,请稍后再试”,怎么办?
不用担心,2月12日每日经济新闻App和每经网全面接入DeepSeek、Kimi、豆包、智谱清言、文心一言和通义千问6款大模型。用户通过每日经济新闻App和每经网就能与大模型自由对话还能一键“问公司”“问投资”“问基金”。
不得不说,用起来真的很丝滑,目前使用量已经超15万次了!
咋用呢?超简单!