挑战Transformer!液态AI,了解一下
创始人
2024-12-17 18:30:24

刚刚,一家名为Liquid AI(液态AI)的生成式人工智能初创公司宣布,完成一轮价值2.5亿美元的早期融资,由芯片巨头AMD领投。

这项投资将支持Liquid AI进一步开发其Liquid Foundation模型(LFM),这是一种面向企业的轻量级、通用AI模型,旨在挑战传统的基于云端的AI模型,如OpenAI、亚马逊AWS和谷歌云。

液态神经网络:受大脑启发的创新

Liquid AI的LFM与传统基于变换器的模型架构不同,它们基于“液态神经网络”,这是一种受大脑启发的系统,即使在训练后也能保持适应性和鲁棒性(稳定力)。

这些模型非常适合处理大量顺序多模态数据,包括视频、音频、文本、时间序列和信号。在MMLU-Pro基准测试中,Liquid AI的LFM模型跑赢了Meta和微软的流行模型,同时需要的内存更少。

LFM具备多语言能力,包括西班牙语、法语、德语、中文、阿拉伯语、日语和韩语。此外,这些模型正在为英伟达、AMD、高通和苹果的硬件进行优化。

LFM有三个模型可供选择:LFM-1B适合资源受限的环境,LFM-3B优化了边缘部署,而LFM-40B专家混合模型(MoE)则设计用于复杂任务。 这些模型在知识容量、多步推理、长上下文回忆、推理效率和训练效率方面表现出色。

STAR,专注性能与效率的平衡

Liquid AI还推出了一种能够自动生成和优化AI模型架构的新框架(STAR,定制架构合成)。STAR 框架利用进化算法和数字编码系统来解决深度学习模型中平衡质量和效率的复杂挑战。

根据Liquid AI的研究团队(包括 Armin W. Thomas、Rom Parnichkun、Alexander Amini、Stefano Massaroli 和 Michael Poli)的说法,STAR的方法代表着传统建筑设计方法的转变。

STAR不依赖于手动调整或预定义模板,而是使用分层编码技术(称为“STAR 基因组”)来探索架构的广阔设计空间。这些基因组支持重组和突变等迭代优化过程,使得STAR能够合成和改进针对特定指标和硬件要求的架构。

Liquid AI对STAR的最初关注点是自回归语言建模,而传统的Transformer架构长期以来一直占据主导地位。

在研究期间进行的测试中,Liquid AI研究团队展示了STAR生成架构的能力,其性能始终优于高度优化的 Transformer++架构和混合模型。

例如,在优化质量和缓存大小时,STAR演化架构与混合模型相比实现了高达37%的缓存大小减少,与Transformers相比则减少了90%。尽管效率有所提高,但STAR生成的模型仍保持甚至超过了同类模型的预测性能。

类似地,在优化模型质量和大小时,STAR将参数数量减少了多达13%,同时仍提高了标准基准测试的性能。

该研究还强调了STAR扩展其设计的能力。STAR演化模型的参数从1.25亿扩展到10亿,其结果与现有的 Transformer++和混合模型相当甚至更优,同时显著降低了推理缓存要求。

Liquid AI表示,STAR植根于一种融合了动力系统、信号处理和数值线性代数原理的设计理论。

这种基础方法使团队能够为计算单元开发一个多功能的搜索空间,涵盖注意力机制、递归和卷积等组件。

STAR的一大特色是其模块化,这使得该框架能够跨多个层次对架构进行编码和优化。此功能可深入了解重复出现的设计主题,并使研究人员能够确定架构组件的有效组合。

相关内容

热门资讯

古代长明灯到底是怎么制作的 为... 还不知道:长明灯到底是怎么制作的读者,下面趣历史小编就为大家带来详细介绍,接着往下看吧~古人是非常聪...
海口出台科技创新三年行动方案 ... 中新网海口3月30日电(张茜翼 黄方舟)海口市近日印发《海口市科技创新提质增效三年行动方案(2026...
伊朗战争进入第五周 布伦特原油...   核心要点也门胡塞武装称向以色列发射导弹后,周一油价攀升此举为美以主导的对伊冲突开辟新战线2026...
百越在秦汉时期的情形是怎么样的... 泰伯奔吴陕西岐山周族首领古公亶父的儿子泰伯和仲雍为让父王实现灭商的愿望,把王位继承权主动让给弟弟季历...
揭秘:历史上张佩纶和他三位夫人... 人们大多知道张佩纶是李鸿章的女婿、张爱玲的祖父,却往往忽略了张李姻缘其实只是张佩纶的第三段婚配,张佩...