最近,名为 DeepSeek 的开源大模型项目在科技圈引发广泛关注。据悉,其团队采用自动推理训练的方案,将大模型的成本大幅降低,引来媒体和资本的高度追捧。许多分析人士纷纷猜测,这是否意味着中国 AI 技术已经赶上或正在超越美国。对此,硅谷资深技术专家王维嘉在接受采访时给出了他的冷静思考:DeepSeek 确实是一项有价值的突破,但从整体来看,中美之间的 AI 技术差距依然难以在短期内被撼动。
DeepSeek 团队以其“完全自动训练”的技术理念在过去数月内强势出圈。与一些行业领军者惯于对核心技术秘而不宣不同,DeepSeek 选择了开源的道路。他们坚信,开源可以汇聚全球智慧,推动整个领域的共同进步。王维嘉指出,这种做法某种程度上与美国硅谷深厚的开源文化一脉相承,比如 Linux、Wikipedia 等典型项目都曾在早期通过全球协作实现了飞速发展。
据公开信息,DeepSeek 由曾有十余年量化投资与机器学习经验的核心成员带队,团队中不少成员在 2019 年前后就已开始测试 Transformer 架构的潜力。这些技术“老兵”敏锐嗅到语言模型在推理训练中的价值,借助来自硅谷与国内多方开源社区的工具和资源,最终在自动推理训练上取得了重大进展。
王维嘉在谈到 DeepSeek 的技术价值时,将其称为“自 ChatGPT 以来第三大重要贡献”。如果说 2022 年 ChatGPT 的出现拓展了大模型在语言理解与生成上的边界,那么 DeepSeek 所做的正是大幅降低这些模型的成本,让其具备更高的商业可行性。有人认为这或许将成为追赶美国 AI 的关键一步。
然而,王维嘉强调,中美在 AI 领域的整体差距主要体现在芯片研发与算法原始创新两个方面。过去十年间,主要的模型和算法突破大多诞生于美国,包括 2012 年的 AlexNet、2017 年的 Transformer、2022 年的 ChatGPT,以及后续在思维链(Chain of Thought)、RAG(检索增强生成)和推理训练上的持续创新。DeepSeek 在算法层面确实提供了宝贵的补充,但其份额相对仍然有限,并不足以从根本上改变中美整体的 AI 技术格局。
围绕 DeepSeek 最受外界关注的一点,莫过于其“大幅降低推理成本”的能力。坊间盛传,DeepSeek 的单位推理成本仅为其他同级别大模型的 1/30,其商业定价也相对亲民。
对此,王维嘉引用了经济学中著名的“杰文斯悖论”(Jevons Paradox)来进行解释。19 世纪,蒸汽机效率的提升并没有带来煤炭使用量的减少,反而因应用范围扩大导致整体煤炭消耗量飙升。如今 AI 也面临类似局面:单次推理成本降低后,企业与个人会更频繁地使用 AI,从而在总体上拉动对算力和芯片的更大需求。
这意味着,DeepSeek 降低成本的举措不仅不会动摇对高性能芯片的需求,反而可能从另一角度助推算力市场的增长。王维嘉举例称,很多人只拿 ChatGPT 做简单问答,并不依赖它来完成繁琐的深层次任务,例如个人旅游行程的全程安排、综合信息检索和分析等。如果未来 AI 成本可以降得更低,这些高阶服务就会更普及,算力需求也将相应激增。
谈及 AI 的未来发展路径,王维嘉认为,人类或许仍处在 AI 爆发的早期阶段。回顾互联网在 20 世纪末到 21 世纪初的黄金二十年,我们看到了全球范围内的深刻变革。AI 如今正如互联网初起时的混沌:市场规模巨大、应用场景层出不穷、资本和人才源源不断涌入。
最受瞩目的是通用人工智能(AGI)研发。据统计,OpenAI、Anthropic、谷歌和微软等公司都在加速布局 AGI,想要打造能胜任人类大部分智力工作的机器。而在王维嘉看来,AGI 出现的时间或许比外界想象得更早,可能在两到五年内就会出现。这一进程若能实现,则会带来数万亿甚至数十万亿美元规模的市场机会,超越目前任何已知的互联网行业版图。
DeepSeek 以自动推理训练等关键创新为中国 AI 带来更大的想象空间,所坚持的开源精神也在国内科技创业圈中注入了新鲜的活力。王维嘉在肯定其意义的同时,也提醒应保持理性:芯片短板与算法原创性依然是中国 AI 产业亟待补齐的“木桶短板”,而一旦 DeepSeek 团队走红,能否抵抗外部资本与行政力量的干扰、坚持开源与技术理想,也是一大未知数。
尽管如此,DeepSeek 的成功表明,在全球化的时代背景下,中国仍能孕育出具备国际竞争力和开源精神的创新团队。未来十年,随着大模型成本进一步降低,各种 AI 应用或将迎来百倍、千倍甚至万倍的需求扩张。
正如王维嘉所说,AI 的大幕才刚刚拉开,中美 AI 技术的竞争也将进入一个更深层次和更复杂的阶段。DeepSeek 或许不是改变格局的终极力量,但它为中国 AI 在全球科技版图上的位置注入了更多的可能性。