【大屏时代】首页 > 3D快报内容详情

微软为 Copilot+ PC 引入 DeepSeek 7B 与 14B 模型 助力本地 AI 应用革新

6天前 232 大屏时代

2025年03月04日 — 微软近日宣布,通过 Azure AI Foundry 为 Copilot+ PC 推出全新 DeepSeek R1 系列 7B 与 14B 精馏模型,此举标志着微软在推动设备级人工智能应用方面迈出了坚实步伐。

2718332f2beeeab.jpg

技术突破与多元应用

今年1月,微软已发布计划,将针对高通骁龙 X 处理器优化的 NPU 版本 DeepSeek-R1 模型引入 Copilot+ PC。紧接着,今年2月,DeepSeek-R1-Distill-Qwen-1.5B 在 AIToolkit for VSCode 平台上首次亮相。此次推出的 7B 与 14B 模型,将使开发者能够构建出以往难以实现的全新 AI 驱动应用,进一步拓宽了 Copilot+ PC 的使用场景。

本地运行 提升系统效率

微软强调,这些模型均可在 PC 上本地运行。借助专为 NPU 设计的优化能力,用户不仅能够体验到持久稳定的 AI 计算性能,同时还能有效降低对电池寿命和散热性能的影响,使 CPU 和 GPU 资源得以用于执行其他任务。这样的设计理念大大提升了系统整体效能,为多任务并行处理创造了条件。

自动量化与性能优化

在模型部署方面,微软采用了内部自动量化工具 Aqua,将所有 DeepSeek 模型变体量化为 int4 权重,从而实现更高的运算效率。不过,初步数据显示,14B 模型的标记速度仅为 8 tok/秒,而1.5B 模型接近 40 tok/秒。对此,微软表示研发团队正积极进行进一步优化,期望在未来大幅提升模型响应速度,充分释放 AI 模型在本地设备上的潜力。

开发者生态与未来展望

对于开发者而言,微软开放了包括 1.5B、7B 和 14B 三种版本的 DeepSeek 模型,均可通过 AI 工具包 VS Code 扩展在 Copilot+ PC 上下载和运行。这些模型已采用 ONNX QDQ 格式优化,可直接从 Azure AI Foundry 获取。微软还透露,未来这些模型将扩展至更多平台,包括搭载英特尔酷睿 Ultra 200V 和 AMD Ryzen 处理器的 Copilot+ PC,为更广泛的设备提供支持。

微软此次在 Copilot+ PC 上实现本地运行 AI 模型,不仅提升了设备端的人工智能计算能力,也为开发者打造更多创新应用提供了坚实基础。业内人士普遍看好这一举措,认为它将推动 PC 端 AI 应用的普及,开启设备智能化发展的新篇章。


相关文章

AI眼镜崛起,DeepSeek推动未来科技应用落地,AI产业加速进化

DeepSeek-R1 本地部署全攻略:使用 Ollama 轻松搭建 AI 环境

Lyft携手Mobileye与丸红株式会社,计划2026年在达拉斯推出Robotaxi服务

Moxie机器人悲剧揭示依赖云端的风险:本地AI或成未来趋势

耗时一年,写3.5万亿行代码,消耗90GB内存——Doom成功移植至TypeScript类型系统

Opera 推出本地运行人工智能代理 助力跨网站智能操作

相关标签: AI PC 模型 微软 Copilot 14B 开发者 DeepSeek 7B 优化