麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)孵化的创新公司 Liquid AI,宣布推出新一代液态神经网络(Liquid Neural Networks, LNN)架构。这一技术创新在多模态数据处理领域表现卓越,其效率和灵活性超越了当前广泛使用的 Transformer 模型。
液态神经网络从神经科学、物理学和动力系统中汲取灵感,采用动态系统设计,能够高效处理包括文本、音频、图像和视频在内的多模态数据。与传统的 Transformer 模型相比,LNN 在内存使用、推理速度和扩展性上具有显著优势。
Liquid AI 的 LNN 架构已经推出三种模型版本:1.3B、3B 和 40B 参数规模,构成了 Liquid Foundation Models(LFM)系列。这些模型在以下领域表现出色:
据悉,三星和 Shopify 等企业已开始测试 LNN 技术,力求将其应用于各自的业务场景。
自谷歌于2017年推出 Transformer 架构以来,该模型已成为自然语言处理和生成式 AI 的基础。然而,Transformer 架构在长序列处理、高计算成本等方面的局限性逐渐显现。
Liquid AI 的 LNN 架构不仅突破了这些瓶颈,还为多模态任务提供了更高效的解决方案。有分析认为,LNN 有望改变大模型的技术生态,为 AI 架构的未来发展指明方向。
Liquid AI 的首席执行官表示,LNN 的推出是 AI 领域的一次革命性进步。公司计划继续优化液态神经网络的性能,扩大其应用领域,包括智能城市建设、环境监测等。
业内专家认为,随着 LNN 技术的成熟,Liquid AI 有望挑战 Transformer 在 AI 模型领域的统治地位。其高效节能和可扩展性使其成为解决下一代 AI 技术需求的重要工具。
Liquid AI 推出的液态神经网络架构不仅是 AI 模型技术的突破,也为多模态数据处理开辟了新的可能性。未来,这一技术或将成为推动人工智能进化的重要里程碑,为更多行业和应用场景带来变革性的解决方案。
相关文章
Firefox 135 智变革命!全球首发AI聊天侧边栏+隐私核弹升级,浏览器跨入智能纪元
ViTPose:基于视觉Transformer的开源动作预估模型,重塑人体姿态估计领域
MiniMax-01:引领下一代大模型技术,开启“Transformer时刻”
DeepSeek横空出世,能否撼动中美AI格局?王维嘉给出冷静判断
AI技术飞速发展,谷歌Jeff Dean与Transformer作者畅谈未来:1000万倍工程师即将到来