去年底,Google DeepMind掀起了智能体时代的序幕,推出了面向未来的 Gemini 2.0 Flash 模型,标志着一只脚已经踏入2.0时代。时隔两个月,Gemini 2.0 系列全家桶终于正式亮相,这一次,不仅在性能上实现了进一步突破,还大举挥舞起AI性价比的大旗,并全面拥抱多模态能力。
在DeepSeek的“鲶鱼效应”不断催化下,Google此次发布的 Gemini 2.0 系列产品各显神通:
此外,Google还推出了多模态实时API的beta版本,虽然图像和音频输出功能将在后续陆续推出,但已有的定价策略显示,文本、图像和视频输入费用为每百万tokens 0.10美元,音频输入为0.70美元,而输出费用则为每百万tokens 0.40美元。各类缓存费用也维持在较低水平,保证了整体成本优势。
性能测试方面,Gemini 2.0系列表现亮眼。除Pro Experimental版本在多项指标上表现卓越外,Flash和Flash-Lite版本也分别取得了71.6%和77.6%的成绩。尽管最强的Pro Experimental版本在某些方面仍稍逊于OpenAI o3模型,但总体上,Gemini 2.0 系列以其快速响应和低成本优势,已经在命名实体识别、分类任务等特定应用场景中展现出巨大的潜力。
新模型现已在Google AI Studio和Vertex AI平台向开发者全面开放,而Gemini高级用户也可在各自设备上选用。更令人兴奋的是,网友们已经迫不及待地用这些模型玩出了新花样——例如,通过代码操刀设计一个贪吃蛇游戏,让AI自己实现游戏对战,打破传统AI仅仅用于回答问题的刻板印象。
总之,随着Gemini 2.0 全家桶的发布,Google不仅在性能上实现了全方位提升,还通过亲民的定价策略和多模态支持,进一步扩展了AI的应用边界。对于开发者而言,这无疑是一次难得的机遇;而对于整个AI生态来说,低成本高性能的突破将为智能工作、自动化开发和多模态应用奠定坚实基础。未来,随着图像生成、文本到语音等功能陆续上线,Gemini 2.0 系列将在更多领域掀起一场技术革命。