麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)孵化的创新公司 Liquid AI,宣布推出新一代液态神经网络(Liquid Neural Networks, LNN)架构。这一技术创新在多模态数据处理领域表现卓越,其效率和灵活性超越了当前广泛使用的 Transformer 模型。突破性技术:液态神经网络架构液态神经网络从神经科学、物理学和动力系统中汲取灵感,采用动态系统设计,能够高...
在神经科学与人工智能的交叉领域,著名神经科学家Anthony Zador与Brain Inspired播客主持人Paul Middlebrooks展开了一场深入的对话,分享了他对NeuroAI未来发展的独到见解。作为该领域的先驱者之一,Zador的研究不仅突破了传统神经科学的边界,还为人工智能的下一步发展提供了宝贵的启示。从抗拒到拥抱:Zador的思想转变Zador在对话中坦言,自己曾经对“Neu...
随着人工智能在计算机视觉领域的不断突破,人体姿态估计作为核心技术之一,正被广泛应用于运动分析、虚拟现实、动画制作等领域。近期,研究团队推出了一款名为 ViTPose 的开源动作预估模型,它凭借 视觉Transformer(Vision Transformer, ViT) 的技术优势,在性能、灵活性和易用性之间取得了卓越的平衡,为人体姿态估计树立了新的标杆。ViTPose的技术核心与结构亮点1. 视...
在大模型领域,几乎每一次创新都意味着技术的飞跃。从Transformer的崛起到GPT系列的壮大,每一次进展都让人工智能朝着更强大的方向前进。而今天,MiniMax公司推出的MiniMax-01,再次让人看到了大模型架构和技术突破的巨大潜力。它不仅代表着国内在大模型领域的技术前沿,也标志着一个新的“大模型时代”的开始。400万Token上下文:大模型的突破1月15日,MiniMax正式发布了预告已...
最近,名为 DeepSeek 的开源大模型项目在科技圈引发广泛关注。据悉,其团队采用自动推理训练的方案,将大模型的成本大幅降低,引来媒体和资本的高度追捧。许多分析人士纷纷猜测,这是否意味着中国 AI 技术已经赶上或正在超越美国。对此,硅谷资深技术专家王维嘉在接受采访时给出了他的冷静思考:DeepSeek 确实是一项有价值的突破,但从整体来看,中美之间的 AI 技术差距依然难以在短期内被撼动。一、D...
2025年2月22日,谷歌首席科学家Jeff Dean与Transformer模型的作者Noam Shazeer在一场深度访谈中,讨论了AI技术的飞速发展以及未来的可能性。他们揭示了让AI模型提升300%速度的低精度计算技术,同时畅想了处理万亿级Token的未来,甚至设想了“1000万倍工程师”的出现。Jeff Dean指出,随着专用硬件的不断创新,包括TPU和GPU的进步,AI模型的计算能力得到...
腾讯混元团队今日正式推出其最新力作——Hunyuan-TurboS,这是一款首个采用混合Transformer-Mamba MoE架构的超大规模模型。该模型不仅在长文本处理上实现了技术突破,更在多个关键领域展现了强劲的竞争力,为人工智能的发展注入全新动力。长期以来,传统Transformer模型在处理长序列数据时因O(N²)的复杂度和KV-Cache问题,导致训练与推理效率受到严重制约。而Huny...