谷歌揭秘了AI竞赛的底牌
在一片AI泡沫论的声浪中,谷歌携Gemini 3.0上演王者归来,全面碾压GPT5.1等竞品,重登AI大模型王座。
从群嘲掉队到逆风翻盘,谷歌以全模态路线宣告:AI之争已从参数军备竞赛转向生态落地鏖战。
长坡厚雪的AI赛道,正赛或许才刚刚开始,而获胜的底牌似乎已被谷歌揭晓。
一、持续创新,保持不下牌桌的能力
DeepMind首席科学家(Gemini项目负责人奥里奥尔·维尼亚尔斯(Oriol Vinyals)透露,谷歌从掉队到翻盘的秘诀,就在于“改进了预训练和后训练”。
专家分析,Gemini 3.0的进步可能源于谷歌的多维度创新,包括数据质量提升、架构微调、训练稳定性增强,以及Tree of Thoughts(思维树)和Context Engineering(语境工程)等一系列前所未有的创新,成就了一个更“懂你”的Gemini 3.0。
大模型训练作为一项复杂系统工程,数据、算力、参数等每一个环节的增益,都能推升模型性能。
在大厂们笃信大力出奇迹的Scaling Law(规模定律),纷纷砸钱堆算力、扩数据、加参数来提升模型性能的路径依赖之外,还有大量调整参数、优化算力配置、打磨数据效率的“苦活累活”。过去,华人工程师因为“只擅长在Scaling Law框架下做优化,却做不出 Transformer 这类架构级创新”的偏见,被戏称为“参数调优工”。
而在Scaling Law瓶颈愈发显现的当下,“榨干Scaling Law”的本领,恰恰成为华人工程师最明显的优势。即便哪天Scaling Law在数据和算力上完全失效,至少在华人工程师规模上还会依然奏效。
事实上,华人工程师的数量和质量,已经成为硅谷风投评估AI初创公司的核心指标之一。
100万,这是黄仁勋在讲话里反复强调的数字。中国拥有100万全职AI开发者,全天候投入AI研发,而放眼整个硅谷,最多只有2万人全职在做基础模型。
虽然中国公司给出的薪酬,尚难与硅谷的竞争对手相匹敌,但正如OpenAI联合创始人兼CEO山姆·奥特曼(Sam Altman)所说,“最后赢的会是‘传教士’,而不是‘雇佣兵’”。
无论AI竞赛的终点是AGI(通用人工智能)还是ASI(超级人工智能),人类迈向AI时代的科技长征依然雄关漫道。大浪淘沙,千帆竞渡,唯有创新,持续创新,才能不被淘汰出局。
曾几何时,谷歌仍是傲视寰球的AI霸主,它亲手缔造了Transformer架构,却为OpenAI等后来者送上嫁衣。
OpenAI以颠覆性的ChatGPT开启了生成式AI新纪元,而DeepSeek又以面壁者的姿态,一举击碎OpenAI精心构筑的商业壁垒。
华山之巅,没有永远的王者。
DeepSeek证明了中国有能力赢。
谷歌证明了比赢更重要的是,保持不下牌桌的能力。
二、应用为王,生态协同路线的降维打击
经历了2023年初Bard的黯然失利,谷歌痛下决心,合并Google Brain和DeepMind两大山头,集中优势兵力All in Gemini,同时要求谷歌所有产品线积极寻求与Gemini整合。这既是为了集中资源打造最强模型,也是基于谷歌商业帝国生态优势作出的战略选择。应用生态正是OpenAI等后起之秀最大的短板。
凭借Gemini 3.0,谷歌终于打通了模型+生态的任督二脉。
原生多模态能力构成了Gemini 3.0的核心优势。特别值得注意的是,在ScreenSpot-Pro测试中,Gemini 3.0的得分达到72.7%,是GPT-5.1(3.6%)的20倍,表明该模型在理解屏幕截图和用户界面方面实现了质的飞跃。正如谷歌CEO Sundar Pichai所言:"令人惊叹的是,仅仅两年时间,AI已从单纯处理文本和图像,发展到能够读懂场景。"
Gemini 3.0的发布绝非一次单纯的模型升级,而是整个谷歌生态的“联合作战”。
发布当天即实现与谷歌全系产品的深度整合,通过Gemini App、Google搜索AI模式、AI Studio和Vertex AI等渠道向用户开放,直接触达20亿搜索月活用户、6.5亿Gemini App用户和1300万开发者。构建了覆盖消费级应用、企业服务和开发者工具的全模态AI产品矩阵。
这种“生态预装”的策略,打破了AI模型与应用场景的割裂感,使技术升级第一时间转化为更智能的用户体验,也让谷歌旗下原本各自为战的产品线形成了前所未有的协同效应——从消费端到企业端,从产品层到基础设施层,通过Gemini 3.0,实现“一通百通”。
谷歌这回的打法,是对大力飞砖模式的纠偏,也是AI应用价值的回归。
区别于美国算力优先的发展路径,中国一直坚持应用为王的发展模式,上海一年一度的世界人工智能大会(WAIC),就是一面很好的镜子,从大模型到具身智能、从产业实例到生活场景,AI应用百花齐放、目不暇接。新一轮规划实施的“人工智能+”行动,又持续力推AI在科研、经济、民生、治理等重点领域里的应用落地。
构建繁荣的应用生态有两个关键条件,一是足够大的市场规模(用户量),二是足够开放的发展环境。
恰好中国拥有庞大的市场规模,并坚定支持AI开源的政策立场,使AI应用能够迅速从概念实现商业化、普惠化,通过“应用—数据—技术”循环,使AI真正成为经济社会发展新引擎,而非纸面繁荣的烧钱黑洞。
美国显然意识到AI算力投入与应用回报严重失衡的问题,最近特朗普正式签署“创世纪计划”,被称为AI版“曼哈顿计划”,核心目标是:利用AI推动核聚变、芯片、生物技术等领域科研突破。
三、算力平权,英伟达帝国的第一道裂缝
在此之前,英伟达凭借“唯一卖铲人”的地位,几乎垄断了AI算力市场,以80%毛利率坐收“GPU税”,全世界的AI公司再嫌贵,也得咬牙买单。
但Gemini 3.0完全依托谷歌自研的第七代TPU(Ironwood)训练得来,成本仅仅是英伟达路线的一半。
这是算力平权的标志性转折。
换句话说,对比深度绑定英伟达路线的OpenAI和Anthropic等AI公司,在同样的预算下,谷歌可以干成双倍的事情。如此悬殊的成本差距,只会造成两个结果,要么英伟达降价,要么更多芯片开始分食英伟达的市场。
meta就在第一时间宣布起义投诚,准备下单数十亿美元采购谷歌TPU,无论是否真心,都在说明一个不争的事实,天下苦英伟达久矣。
尽管英伟达自诩领先行业整整一代——相较于定制化芯片,英伟达能提供更卓越的性能、更强的通用性与可替代性。
但Gemini 3.0证明了模型架构和定制化芯片的深度协同,可以带来非线性的能力突破。
市场已经逐渐接受这一共识:不用英伟达的芯片也能训练出最顶级的AI模型。
目光转到中国,这一幕似曾相识,自主可控,殊途同归。
黄仁勋预测,“到2027年,中国将拥有比全世界其他国家加起来还多的AI算力。”
得益于相对廉价的算力,中国公司能够用更多的资源去投入AI应用研发。算力从“奢侈品”向“基础设施”的回归,也是AI产业真正走向普惠的前提。
四、架构级创新,条条大路通罗马
Gemini 3.0的卓越性能证明了Scaling Law至少目前依然有效,但活跃在AI前沿的研究者已经把目光投向了更远的地方。
OpenAI创始人之一Ilya认为,“预训练+Scaling”路线已经明显遇到瓶颈。与其盲目上大规模,不如把注意力放回到“研究范式本身”的重构上。
这与图灵奖得主、meta前首席AI科学家Yann LeCun(杨立昆)坚定呼吁“LLM已死”的观点高度一致。
那么,在LLM之外,AI的下一站何去何从?
World Model(世界模型)是一个公认的选项。
李飞飞在《世界模型宣言》中旗帜鲜明地指出:LLM 已触及天花板,空间智能才是AI的下一个十年。她为世界模型定义了三大核心能力:生成性,创造符合物理定律、空间一致的3D世界;多模态,处理图像、视频、文本、动作等多种输入;交互性,基于动作预测下一个世界状态。这种范式转换,使AI从“能说会道”到“能看会做”,从“描述世界”到“创造和互动世界”。
类脑研究或许也值得期待,因为越高级的智能,越善于小样本学习。
Aizip联合创始人陈羽北提出一个观点:大模型未必大在数据,而是大在架构。人脑拥有极高的数据效率,十几岁小孩接触的语料总共不到100亿Token,但人类的大脑结构却非常复杂,包含860亿个神经元。类脑研究的进展,极有可能推动AI从“暴力计算+海量数据”的低效范式,转向“生物结构+高效计算”的新架构。
Ilya宣称:AI正从“规模时代”,重新走向“科研时代”。
对于深度依赖Scaling Law红利的OpenAI来说,不一定是好事。但对谷歌这样的研究型公司,一定是机会。
相比在Transformer架构下进行极致调优,中国也早已启动AI的架构级创新计划:
一是多路并进,加强人工智能基础理论研究,支持多路径技术探索和模型基础架构创新。
二是高效训推,加快研究更加高效的模型训练和推理方法,推动理论创新、技术创新、工程创新协同发展。
三是扩充模态,探索模型应用新形态,提升复杂任务处理能力,优化交互体验。
四是迭代提升,建立模型能力评估体系,以科学评估促进模型能力持续迭代提升。
Gemini 3.0之后,谷歌把AI竞赛打成了明牌,“老牌AI帝国”的护城河深不可测。但假以时日,中国AI的护城河可能更深更广。科技竞争,唯创新者胜。
(作者陶鹤山为数字经济工作者,从事数字化领域政策规划)
陶鹤山