近日,据多方报道,中国初创AI实验室 DeepSeek 在美国限制高端芯片出口的背景下,仍拥有多达 5 万颗英伟达 H100 GPU。在全球AI格局竞争愈发白热化之际,DeepSeek 新近发布的 R1 模型不仅被外界誉为“可与 OpenAI o1 比肩”,更在 Scale AI 的严苛测试中一举胜过多款国际顶尖模型。该事件引发业界对于中国AI前景、开源协作以及高端芯片管控的再次热议。
1. 拥有五万枚H100/H200,训练R1模型
据 CNBC 报道,DeepSeek 目前能够使用数万枚英伟达 H100、H200 AI GPU 进行大模型训练。随着美国政府针对高端芯片的出口管制日趋严格,外界原先普遍认为中国AI公司对 H100 等先进芯片的获取将受限。然而,DeepSeek 不仅成功绕过了预期的芯片短缺,并且拥有的芯片数量“比外界想象的还要多”。
2. R1模型领先:可与OpenAI o1 相媲美
Scale AI 创始人兼首席执行官 Alexander Wang 接受 CNBC 采访时表示,他的团队针对最具挑战性的“人类的最后考试”AI 测试,对多家国内外顶尖大模型进行对比。结果显示,DeepSeek 的 R1 模型**“表现最优秀,或至少与美国最强势的 o1 模型不相上下”**。这一结论也呼应了外界对 R1 模型在数学、物理、生物、化学等高难度学术领域的出色推理表现。
1. 芯片管制形势严峻
拜登政府为遏制中国在AI领域的快速崛起,针对高端GPU(如英伟达H100、H200)实施严格管制。然而,Alexander Wang 在采访中指出,DeepSeek“显然有办法”获取这类先进芯片,并已大规模部署在其训练集群中。
2. 长期影响仍存
王同时表示,未来美国在芯片管制方面或将持续加码,对于中国AI企业而言,将可能进一步收紧获取高端算力的途径。深度学习模型迭代所需的庞大算力如何维系,成为中国AI企业需要持续面对的长期挑战。
1. 以开源模式驱动创新
悉尼科技大学副教授 Marina Zhang 指出,与大多数重度依赖先进硬件的中国AI公司不同,DeepSeek 采用了“开源+软件驱动优化”相结合的思路,一方面有效整合全球开发者社区的智慧,另一方面通过自研算法和框架,将硬件算力利用率最大化。
2. 转化资源限制为创新机会
当硬件供应存在不确定性,对软件层面的优化就更显重要。DeepSeek 通过开源生态与集体协作方式,既拓宽了研发思路,也能迭代更为灵活的模型优化手段。在与国际大厂竞争的过程中,这一模式或许能帮助 DeepSeek 在短时间内取得差异化优势。
1. 高端芯片成关键筹码
在以大语言模型为代表的AI技术浪潮中,算力资源依然是强大模型的基石。虽然 DeepSeek 目前似乎破解了“芯片荒”,但随着中美博弈的长期化,美国进一步收紧出口管制的可能性依然存在,或将对中国AI厂商带来更多不确定性。
2. 开源生态将更多涌现
DeepSeek R1 模型的迅速崛起,印证了“开源创新”在当前AI产业中的重要性。未来,更多中国AI企业或会效仿 DeepSeek 的协同研发模式,扩大科研人员与开发者社区的参与度,以在资源限制环境下保持创新活力。
3. AI全球格局仍未定
虽然美国仍在AI创新和高端芯片制造上具备明显优势,但 DeepSeek 等新生力量的出现正逐步改变这一局面。若中国 AI 实验室不断在国际重大测试中展现与美国顶级模型“平分秋色”的水准,全球AI领域的竞争格局或将更趋多极化。
在此波 AI 竞赛中,DeepSeek 凭借数万枚英伟达芯片和开源协作思路,打造出接近国际一流水准的 R1 模型,令外界对中国 AI 的潜力刮目相看。无论是美国出口管制的进一步加剧,还是中国企业的持续发力,都将在未来数年内深刻影响全球 AI 生态格局。
作为一家成立仅两年多的初创企业,DeepSeek 能否在算法、商业化、人才储备等层面取得更大突破,或将决定其能否真正跻身国际AI“顶尖阵营”。但无可否认的是,**“握有 5 万 AI 芯片”**的消息,让全球再一次将目光聚焦于这家年轻的中国 AI 实验室,见证着一场更大规模的创新竞赛正悄然升温。