谷歌CEO硬核访谈:错失“ChatGPT”首发,2027年AI将迎范式转变

您当前的位置:   首页 > 首页 > 新闻中心
谷歌CEO硬核访谈:错失“ChatGPT”首发,2027年AI将迎范式转变
发布时间:2026-04-12 23:00:03


“模型在一年后将会截然不同。”

编译整理 | 莘歆

来源 | 盒饭财经(ID:daxiongfan)

头图及封面来源 | 图片来源:YouTube@Strip

“我预感,2027年绝对会发生一些根本性的范式转变。”

在执掌谷歌10周年这个极具节点意义的时刻,谷歌CEO Sundar Pichai(桑达尔·皮查伊)最近在一场播客中公开露面,与支付巨头Stripe联创John Collison(约翰·克里森)和科技天使投资人Elad Gil(埃拉德·吉尔)进行了一场极其硬核的深度访谈。


图片来源:YouTube@Strip

Pichai承认,谷歌内部早就做出了类似ChatGPT的早期版本,但因安全基准线过高,且错失了关键信号而未抢得首发。

Pichai还透露谷歌正在突破一项新的技术,未来将会通过论文公之于众。

聊到AI带来的工作流变化时,Pichai认为在一些业务领域,2027年将会发生一个质的转变。但同时也不得不面对算力极度紧缺的现实难题和安全的限制。

在这场长达万字的交流中,Pichai直面了过去一年围绕谷歌的所有争议,判断“奥弗顿之窗(Overton window,指公众认知的可接受范围。此处意指外界对谷歌AI能力的舆论风向发生了根本性转变)发生了偏移”,并抛出了大量极具价值的行业判断——

  • 他首次披露谷歌内部极其紧张的TPU算力分配机制,连Waymo都要和其他业务线“抢算力”。

  • 强力反驳“谷歌不懂AGI”的论调,宣布谷歌对AGI的资本支出将高达1800亿美元。

  • 他还认为无论砸多少钱,晶圆产能、内存和电力审批等物理限制,都将逼迫行业进入“抢椅子游戏”。

  • 除了搜索和模型,谷歌正在太空数据中心、量子计算、机器人、无人机配送等长周期赛道布下重兵。

以下是翻译全文(有删改):


在某个平行宇宙里,谷歌先发布了“ChatGPT”

John Collison:Transformer是在谷歌发明的,后来却是ChatGPT及类似的产品在谷歌外部实现了产品化。你如何看待这件事?

Sundar Pichai:我觉得大家对此有点误解。研发Transformer(AI大模型的核心底层架构)的大背景,是我们有很多TPU(谷歌专为加速人工智能计算而定制的专用芯片),在某种程度上,Transformer完全是为了解决特定的产品需求而诞生的。

当时的团队在思考如何改进机器翻译。在TPU方面,我们面临着一个问题:语音识别虽然有效,但你需要把它推向20亿用户。在没有足够芯片的情况下,你该如何解决推理的问题?

Sundar Pichai:它虽然出自我们的研究团队,但其导向是解决产品问题。Transformer研发出来后,立刻投入了使用,比如BERT和MUM模型。大家其实低估了我们对Transformer的应用程度,因为我们对搜索质量的衡量极其严格。


图片来源:Linkedln

在那个时期,搜索质量出现了几次大的飞跃,让搜索遥遥领先于所有人,这正是归功于BERT和MUM。我们构建了Transformer,并立即在搜索中用它来改善语言理解、理解网页、理解你的查询,并不断构建更好的模型。

我们同时也开始在内部将其产品化,比如有团队在开发一个叫LaMDA的东西。显然,我们并不是第一个发布它的。但我认为,这不能简单归结为研究,而是我们没有把它应用到产品方向上。

John Collison:你们做了这项研究,然后按照你们预期的使用方式看到了巨大的投资回报率,虽然你们没有发明出随之而来的所有产品,但这也是意料之中的事。

Sundar Pichai:其实,我们当时内部已经摸到了类似ChatGPT产品的门道了,那就是早期的LaMDA。你可能记得,我们内部有个工程师当时极其坚定地认为它已经觉醒了。你完全可以把当时他对话的那个模型,看作是 ChatGPT的早期版本。

毫不夸张地说,在某个平行宇宙里,我们其实连它的产品化版本都已经捏出来了。而谷歌大概在九个月后,也确实发布了类似的产品。

事实上,在2022年的Google I/O大会上,我们就推出了一个叫AITest Kitchen的应用,底座就是LaMDA。但我们当时把它严格限制在了沙盒里。因为在内部,我们还没有跑通一整套基于RLHF微调的端到端版本。我当时看到的那个内部版本,在内容输出上要Toxic(有害内容生成风险极高)得多。在那种状态下,我们根本不可能把它公之于众。

另外,作为一家对搜索质量有着极度执念的公司,我们对产品发布的基准线就设得极高。但这并不是说我们在雪藏它……我们其实一直都在琢磨该用什么姿势把它推向市场。

哪怕是OpenAI推出ChatGPT的时候,他们可能也才刚刚和微软达成(算力)协议没几个月。我认为他们非常敏锐且幸运的一点是,在GitHub的编程辅助场景中看到了大模型的巨大潜力。

在这个维度上,我们也许确实错失了一个关键信号。因为大模型在代码生成端带来的跃升感,其实比在自然语言对话端要直观和震撼得多。如果你用它来写代码,从GPT-2到GPT-3,再到后来GPT-4的那种跨越感是极其剧烈的。

所以回到你最初的问题,与其说这是前沿研究没有转化为落地产品,不如说这其实是受到了一堆极其复杂的综合因素牵绊。

Elad Gil:我后来跟几个参与研发ChatGPT的人聊过,他们其实是在感恩节那周顺手发布的。那次发布极其低调且随意,内部根本没把它当成什么这将是改变公司命运、开启未来新纪元的核弹级发布。我觉得这是一个极其经典的商业测试案例。

Sundar Pichai:但在我个人看来,只要你身处消费互联网这个修罗场,你就注定要习惯这种被“黑马”突袭的意外。比如当年Elad和我还在谷歌内部搞Google Video的时候,YouTube突然就横空出世了。或者你代入一下Facebook当年的视角,Instagram也是这样平地起惊雷的。

你回看历史时,往往不会带着那种极度戏剧化的滤镜去评判这些时刻,毕竟后来发生的事大家都知道,这些黑马最终被我们收购了。

我对消费互联网底层逻辑的认知是:永远都会有3个绝顶聪明的家伙窝在某个角落里疯狂敲代码做原型,然后向市场扔出成千上万个测试品去疯狂试错。我这么说绝没有任何贬低的意思,我的意思是,这种草根逆袭的时刻在软件行业是常态。

我绝对不相信有人能在自家的车库里一觉醒来,然后宣布他造出了一台比苹果更好的iPhone,在极其重资产的硬件赛道,这绝不可能发生。但消费互联网的法则截然不同。你必须时刻保持敬畏,并坦然接受这一点。


深入骨髓的速度基因

John Collison:当我在思考2026年的AI竞赛时,让我印象深刻的一点是,长期以来,谷歌一直将“速度”作为自己努力形成差异化优势的地方。最初的谷歌搜索非常快,而且以在结果中显示查询时间而闻名,有点像在炫耀。然后是Gmail的快速搜索相比于当时的竞争对手,或者Chrome相比于当时的竞争对手。

而现在,我用各种AI服务处理不同的事情,但运行在TPU上的Gemini实在太快了。我很好奇这在多大程度上是明确的产品战略的一部分,你是怎么看待它的,还是说这其中的考量要微妙得多。

Sundar Pichai:我一直把速度铭记于心。在这里我们姑且称之为响应时间(latency),它是优秀产品的显著特征之一。而且,它能反映出产品的底层技术做得非常扎实。

当然,还有另一种同样重要的速度,那就是发布、迭代和发布周期的速度。两者都很重要。但你谈到响应时间。想要低延迟说起来容易,但你同时又在不断添加新能力。能力的前沿在不断推进。你该如何平衡这两者?这就变得

更加复杂了。

举个搜索的例子,我当时在和团队沟通。他们现在对子团队的响应时间预算是按毫秒计算的,你会得到50%的额度。

比如,如果你发布的东西能减少3毫秒延迟,你的延迟预算就会增加1.5毫秒,剩下的1.5毫秒则让渡给用户。我们会根据你要做的事情,来确定你的延迟预算,可能是30毫秒或10毫秒。你可以用掉它,但必须经过严格的审查。从这些就可以看出来响应时间对我们来说有多重要。

Elad Gil:人类大概能感知到几百毫秒级别的延迟,对吗?就实际产生影响的层面而言?

Sundar Pichai:没错。其实,上次我查看仪表盘和指标时,我们在过去五年里实际上将搜索延迟改善了30%。但想想这期间功能的演进有多大。这也是为什么在Gemini中,我们要仔细思考如何确保能力与速度的平衡,让Flash模型能达到Pro模型大约90%的能力,但速度快得多,服务效率高得多,同时垂直整合也起到了帮助等等。


搜索不会消失

Elad Gil:你是怎么看待搜索的未来的?现在很多人都在谈论把聊天作为一种新界面。显然,Gemini已经被整合进去了,或者说搜索在谷歌的语境下已经整合了Gemini或AI结果。

但很多人现在谈论的是智能体流(agentic flows),每个人都会有一个私人智能体,你不用自己输入查询,它会直接替你完成任务。不用再问旅行的事,它会直接帮你规划好行程。你认为搜索的未来是什么?它是分发机制吗?是未来的产品吗?还是人们与世界互动的N种方式之一?

Sundar Pichai:我觉得在搜索领域,随着每一次转变,你都能用它做更多的事。我们必须吸收这些新能力并不断推进产品前沿。如果是移动端,产品演进得相当快。你走出纽约地铁,你不是在找网页,你是想去某个地方,你该怎么找到它?你必须不断调整。人们的期望在改变,你也在跟着前进。如果快进到未来,很多单纯的信息查询在搜索中会变得智能体化(agentic)。你会去完成各种任务。你会同时运行许多线程。

Elad Gil:10年后搜索还会存在吗?还是仅仅演变成某种东西?


图片来源:The Savvy Newcomer

Sundar Pichai:它会不断演进。搜索可能会变成一个智能体管理器(agent manager),你可以在里面做很多事情。我觉得在某种程度上,我现在就在用Antigravity(谷歌正在开发和使用的一个AI智能体管理器和智能工作流平台),你有一堆智能体在做事。我能看到搜索在做类似这些事情的版本,然后你搞定了一大堆任务。

John Collison:我觉得问题的核心是,如果你把搜索看作是一个不超过一行的提示词(prompt),它返回一堆不同的排序结果,而不是直接告诉你正确答案之类的。这种产品形态还会存在吗?

Sundar Pichai:但在今天搜索的AI模式中,人们会进行深度的研究查询。这并不完全符合你所说的定义,但人们适应了它。我认为人们将会执行长周期的任务。

John Collison:是的。

Sundar Pichai:它可以是异步的(Asynchronous)。

Elad Gil:所以,以前的那种版本或范式最终会消失吗?曾经的搜索真的变成了一个智能体,你未来的界面就是一个智能体,10年或N年后的搜索框就不再是——

Sundar Pichai:我的意思是,设备的形态将会改变。I/O将发生根本性的改变。如果你总想10年后的事,可能会让自己陷入停滞。但我们很幸运身处这样一个时刻,我们只需想一年后,而且曲线非常陡峭。仅仅去做未来一年的事就很令人兴奋了。而在过去,你可能需要坐下来设想五年后。

模型在一年后将会截然不同。

驾驭曲线本身就很令人兴奋。我认为它(搜索)会演进,但这是一个扩张的时刻。很多人在这些时刻低估的是,这根本不是一个零和博弈。人们将能够做的事情的价值也处于一条疯狂的曲线上。有了TikTok之后,YouTube依然做得很好,Instagram也是……我可以举出很多例子。

我认为你越把它看作零和博弈,它看起来就越困难。如果你不创新或者产品不演进,它确实可能变成零和博弈,但只要你处于做这些事情的最前沿就不会。我们既在做搜索,也在做Gemini。它们在某些方面会有重合。它们在某些方面也会发生深刻的分化。我认为两者兼备并拥抱它们是件好事。

John Collison:谈到搜索及其走向时,我想起了一个事实,大概在一年前,也就是25年春夏季,市场对谷歌的情绪非常负面。当时的主流观点是搜索完蛋了,我们将面临非常艰难的时期。核心商业模式受到攻击,等等。当时谷歌的股价大概是150美元左右。

现在人们意识到那是愚蠢的。谷歌在整个技术栈的上下游都有布局,无论是应用、模型、TPU还是别的什么,以及Waymo(自动驾驶技术公司)和YouTube还有所有那些很酷的押注。你认为,作为知情情绪代表的投资者,在去年这个时候到底误解了什么?因为显然,当时存在一些巨大的误解。


公众的AGI偏见

Sundar Pichai:在那一刻,市场的目光显然极其向内。对我来说,当时非常清晰,“嘿,奥弗顿之窗发生了偏移。”我感觉公司简直就是为了那一刻而建立的。

垂直整合不是偶然的。我们当时已经用上了第七代TPU。我记得好像是在2016年的Google I/O上,我们发布了TPU并宣布我们正在建设AI数据中心。那是2016年。

对我来说,我们在前沿大语言模型(LLM)方面是落后了,但我们在内部拥有所有的能力,我们必须执行以迎接这一刻。

但令人兴奋的是,当我从全栈的角度看时,我们有研究团队,有基础设施团队,有所有的平台。我们已经有意地在许多业务上进行了投资。

对我来说,我突然觉得,“哇,我们有一项通用技术可以加速所有这些业务。”从搜索到YouTube再到云端再到Waymo,全依赖于它的进步。这是一种极具杠杆效应的进步方式。我明白这一点。

回到讨论的早先观点,我完全不认为这是一个零和时刻。我觉得一切都将扩大10倍,并且会有其他人的空间。你回过头看,自从谷歌入局以来,亚马逊做得也很好,Facebook也是。我们低估了所有这些事物运作的增长前景。但作为一家公司,我们必须执行得更好。

John Collison:有没有什么事情向外界证明了,“哦,他们搞定了”?是Gemini 3改变了人们的想法吗?我没太跟进所有的时间线。

Sundar Pichai:我认为真正的转变,可能是人们看到Gemini2.5的时候。并且我们在前沿方面达到了较高水平,尤其是在多模态方面。这要归功于Google DeepMind团队。

我们在前期付出了更多的固定成本,但我们从第一天起就将Gemini模型设计为高度多模态的。在一些领域,这个优势也开始显现。Nano Banana就是一个例子,你能够把它们全部看作一个整体。

但这是一个惊人动态的前沿,有两三个实验室在非常激烈地互相推动。在任何给定的一个月里,我们都会觉得,“哦,太棒了。我们做得很好。”“哦,该死。还有几件事落后了。”我认为几个月后情况将再次变得动态。前沿竞争正如你预期的一样激烈。这就是我的看法。

Elad Gil:这很有意思,当我和一些局外的研究人员(既不是谷歌的,也不是另外几家头部实验室的)聊天时,他们经常提到一点:他们觉得其他两三家顶级实验室跟谷歌团队的最大区别在于,谷歌似乎没有那么……用他们的话说,没有那么“对AGI狂热(AGI-pilled)”。

换句话说,(外界觉得)谷歌内部似乎不太相信AGI马上就会降临,也没那么狂热地相信技术会就此极速爆发。

显然,谷歌的人们在深入思考这个问题。你觉得这种说法对吗?这种心态会不会导致你们的产品做得不如那些“疯子”?

Sundar Pichai:我们(对AGI)的资本支出大概从300亿增加到了大约1800亿(美元)。

Elad Gil:现在这可是真金白银了。

Sundar Pichai:如果你对未来的技术发展曲线没有那种笃定的预判,你是绝对不会砸这笔钱的。我认为这很大程度上只是表达方式的不同。也许因为我们是一家体量更大的公司,旗下的海量产品触及了太多层面和太多的用户,所以我们在谈论这个话题时,使用的措辞会显得不太一样。

但我认为,谷歌的创始人们当年大概率也是“对AGI深信不疑”的。

现在外界有一种说法,认为在谷歌我们不懂什么是AGI,或者觉得Demis的团队、Jeff Dean的团队不懂AGI,(这简直太荒谬了)。你要知道,在曾经的某个时刻,Demis、Jeff、Ilya(OpenAI联创)和Dario(Anthropic联创)这群人,可全都是在谷歌一起共事的。

对我来说,这种说法根本站不住脚。我想部分原因可能是,如果你是一家更年轻的公司,或者定位更像是一个纯粹的研究实验室,而且总部恰好设在旧金山。这些外在的细微标签,往往会让人产生感观上的差异。但我绝不认为在根本层面上,我们对技术发展曲线的预判,或者我们在内部吸收接纳这项技术的方式,跟别人存在什么分歧。

你看,即使在公司内部,我们同样有一群人每天生活在技术的最前沿。他们不断运行各种Agent(智能体),探索它们的极限,看着它们学习新技能、

执行任务。然后他们会回看三个月前,再对比一下现在的能力。我们在内部,正真切地感受着这种指数级的爆发。

John Collison:我觉得你们俩说得都没错。确实,我们完全可以拿谷歌的历史来证明这一点。但我认为Elad其实想表达的是一种当下的氛围。我之前看到过一条推文,有人调侃说:“想要解释现在的硅谷到底在发生什么,你必须意识到一点:现在所有的科技高管都患有严重的AI狂热症(AI psychosis),他们每天花大把的时间亲自写代码、和AI聊天等等。”我觉得这个视角很有趣,而且绝非空穴来风。

所以我很好奇,在最近这段时间里,你在哪些瞬间真切地感受到了AGI的实感?或者说,你最近对AI有多狂热?


CEO“吃自家狗粮”

Sundar Pichai:我第一次切身感受到AGI的时刻是在2012年,当时Jeff Dean演示了最早版本的Google Brain。也就是神经网络第一次认出一只猫的时候。那是2012年。后来我和Larry一起去看了DARPA(美国国防高级研究计划局)的挑战赛。我想那大概是2014年,具体年份我得再确认一下,我就看着无人车在那里自主行驶。还有Demis演示最早版本的模型时,它甚至展现出了我们称之为“想象力”的东西。

像这样的时刻还有很多,你能明显感觉到技术正在飞速演进。

但如果说回到当下,谈谈那种最直观、最强烈的震撼感,我觉得最贴切的体验是:当你在编程时,你给AI抛出一个复杂的任务,你甚至连IDE(集成开发环境)都不需要打开,你完全置身于某种Agent(智能体)管理器的世界里,看着它自动把任务搞定,那种能力真的太强大了。

你可以把这种体验称作“感受到了AGI”。现在确实会经常出现这样(奇妙)的时刻。

John Collison:我最近自己做了个业余小项目,做着做着我突然反应过来:“咦,它到底是用什么编程语言写的?”直到整个项目都已经顺利跑起来了,我才想起来跑去问它这个细节。

Elad Gil:感觉就像魔法一样。

Sundar Pichai:绝对会有很多这种(让人惊叹的)时刻。但真正让人感到震撼的,是这条发展曲线的斜率(陡峭程度)。我们正在如此多的技术范式上同时推动着它的进化。很显然,前方还会有更巨大的飞跃在等着我们。

John Collison:当谈到切身感受时,我觉得对科技公司来说,有一点极其重要(而且每个CEO的做法都不一样),那就是:你如何保持自己与真实产品体验和日常用户之间的连接。因为科技产品有时候太抽象了,你很容易就会悬在半空……你总不能完全只靠团队汇报、PPT和数据表格来管理公司。

比如DoorDash的CEO Tony Xu就说过,他现在依然会亲自去跑腿送外卖,就是为了保持对一线体验的体感。

在Stripe每周的小型全体会上,我们也有一个固定环节叫“线上巡店(walk the store)”。大家会一起在产品后台里到处点点看,然后就会忍不住吐槽:“为什么这里会突然弹出一个窗口?这设计也太让人困惑了吧!”诸如此类的。我们这么做,就是为了强制大家一起去真实地当一回用户。

所以我很好奇,对于你来说你是怎么做的?在谷歌,除了你每天肯定都会用 Gmail等谷歌全家桶之外,你是如何确保自己始终能感知到最真实的产品使用体验的?

Sundar Pichai:不,我真的是在“吃自家狗粮”,用的全都是内部测试版。我会专门在日程表里划出大块时间,沉浸式、高强度地去使用它。这非常有效。

比如就在两周前,我在健身房拉伸,手里正拿着手机用Gemini Live。我当时就想,我要只盯着一个话题,跟它硬聊30分钟。你总是会去做这种极端的测试。在这个过程中,有些体验极其顺滑,有些则让人抓狂,但你绝对能从中发现很多问题。我就是这样强迫自己切换到“重度用户(Power User)”的模式去折腾产品,以此来保持对产品一线的体感。

我再分享一个对我特别管用的做法。在内部,我会打开……就是我们前面聊到的,我会在Antigravity(我们内部版的名字)里直接提问:“嘿,我们刚发了这个新功能,大家反响如何?给我总结一下大家吐槽最狠的5个槽点,以及夸得最多的5个亮点。”我敲下这段话,很快它就把汇总结果给我了。

我的工作因此变轻松了吗?是的。如果放以前,我得花大把的时间在海量信息里捞,才能大致摸清用户的反馈。现在,AI智能体在这件事上帮了我大忙。

但这也会让你陷入一种反思:“既然AI都能帮我总结了,那我到底还应该投入多少第一手的精力,去亲身体验那种一线体感?现在这样做,算是真正用好了这些AI工具吗?”说实话,连我自己也正在经历这种认知上的摸索。我也在努力去适应这样一个未来。


AGI时代,经济的规模效应

Elad Gil:你刚才提到两点:一是这并非零和博弈;二是大家都看到了它带来的实实在在的生产力提升。回顾以往的几次技术周期,不管是互联网、移动互联网还是SaaS,它们其实都花了一段不短的时间,才真正反映在宏观的GDP数据上。

而在AI这波浪潮里,我们目前主要是通过数据中心的疯狂扩建直观地感受到了这一点,它也确实已经拉动了一部分GDP的增长。

那么,如果把目光放到未来3到5年,你是怎么预判的?你认为AI会让美国经济的整体基本盘变得更加庞大吗?如果是的话,能带来多大体量的增长?

Sundar Pichai:说实话,要想让这些巨额投资的回报站得住脚,这笔账迟早得……那是什么时候的事来着?我记得大概是红杉资本的某个人写过一篇文章,指出大家现在已经砸了极其夸张的资金进去。

John Collison:是的,他们当时把(AI基础设施的)资本支出和(实际产生的收入)拿来做了对比……

Sundar Pichai:那已经是两年半以前的事了。那篇报告的大致意思是说,这在商业上根本说不通,因为你要支撑那个量级的投资,你可能需要创造 10倍的收益才行。从那时起……我可能得再去核对一下最新的数据,但无论如何,在未来的某个节点,收入和投入必须得实现平衡(把这笔账算平)。

但当下能肯定的是,我们依然严重受制于产能(算力供不应求)。我们能真切地看到摆在台面上的庞大需求。

Elad Gil:我其实并不怀疑这里面蕴含着极其庞大的市场和惊人的商业回报。我想问的是……而且我觉得大家在很多事情上都严重低估了它的潜力。

举个例子,人们经常拿现有的软件研发预算说事,去算“AI Token的消耗成本”和“程序员薪水”之间的比例。但在我看来,优秀软件工程师的市场在过去一直处于极度供不应求的状态,以至于当AI突然释放出海量的“编码供给”时,它可能会让整个市场的规模直接暴涨10倍。

换句话说,我认为软件开发和写代码的潜在市场,比任何人想象的都要庞大得多。死盯着Token的开销去跟工程师的人头费做对比,完全是搞错了衡量维度。我反而认为,AI会强力拉动各个领域的经济增长。

所以我很好奇你是怎么预判的,你认为这究竟能给经济带来多大体量的实际增长?我个人其实一点都不担心巨额资本支出会换不来相应的回报。

Sundar Pichai:我明白你的意思了。不过你看,如果我们回顾互联网时代去审视GDP的增长,你会发现冷冰冰的GDP数据,其实并没有完全体现出互联网带给我们的真实价值。要是没有互联网,过去这些年的GDP增长没准都是负的。这就是经济学里说的“消费者剩余”。所以,要准确预判未来的宏观数据是很难的。

但我确实认为,社会在各个层面上天然存在着各种“阻尼机制”(制约因素)。最明显的一点是底层算力硬件扩建的发展曲线,跟我们上层模型进化的速度曲线是两码事。在算力基建那边,你已经碰到了各种物理和现实的瓶颈,这是一条更受限的曲线。

其次,你如何将这项技术真正普及到社会中?我们现在推进Waymo(无人驾驶)就深有体会。即便你已经让Waymo开得比人类司机更安全了,但你仍必须在扩张速度上保持克制。因为你得考虑,怎么才能负责任地让新技术融入社会?在所有的这些环节上,都是有阻力和限制的。

所以我觉得……今天的美国经济体量,比10年前要庞大太多了。在这个巨大的基本盘上,AI哪怕只是额外拉动0.5个百分点的增长,那也是极其惊人的贡献。我预判未来的实际情况大概率会是如此。

John Collison:听Sundar的分享,让我们深刻感受到了在“真正的互联网规模”下运营一家公司究竟意味着什么。然而,回到现实商业中,大多数企业在做关键决策时,往往只能“闭门造车”(in a vacuum)。他们只能通过自己狭隘的视角去观察互联网经济,手里能用的也仅仅是自家公司那一亩三分地里的数据。

而这,正是Stripe能够大显身手的地方。因为我们每年处理着高达1.9万亿美元的全球支付,这让我们拥有了真正的全局视野。当你在Stripe的平台上构建业务时,你就自动接入了这种庞大的网络智能:无论是验证用户身份、将欺诈防患于未然,还是让企业间的连接变得更顺畅,亦或是洞察当地市场最吃香的支付方式,我们都能帮你搞定。

我们打造的这个系统,汇聚了相当于全球GDP 1.6%的庞大资金动能,只为保护并不断增加你的收入。

你刚才提到了“算力供应受限”,我认为这基本上就是2026年(整个科技行业)一个极其有趣的、决定性的主线特征。顺便确认一下,你刚才说你们的资本支出是1500亿?还是1800亿来着?

Sundar Pichai:我们说过它会在1750亿到1850亿之间。

John Collison:好的,也就是大约1800亿美元的资本投入。我觉得目前这个局面非常有意思,现在就算谷歌手握4000亿美元想全砸进去,你们其实也花不掉。因为市场上根本买不到足够的内存,也批不到足够的电力额度,所有这些核心零部件的产能全都跟不上。你能挨个说说——


一场争夺算力的抢椅子游戏

Sundar Pichai:你找不到我们所需的那么多电工。

John Collison:完全正确。我很想听听你对各种瓶颈的总体看法。

Sundar Pichai:从某种程度上讲,追根溯源,你最终都会卡在实际的晶圆产能这类问题上。这里面有一个最底层的客观现实,也就是我们说的“晶圆投片量(wafer starts)”,这是一个极其硬性的物理限制。

相比之下,我认为电力和能源的问题反而更容易解决。在能源这块,真正的瓶颈可能在于你如何获取政府的审批配额,以及在现有的监管环境下如何把项目实际落地。说到底,真正决定你扩张速度的,其实是这些流程推进的快

慢。

John Collison:在德克萨斯州、内华达州或蒙大拿州等州支持其经济增长的地方,即使有很多土地,但也还是不够的。

Sundar Pichai:我认为我们目前确实取得了巨大的进展。但对美国而言,这其中面临着一个至关重要的挑战。我们常常惊叹于中国的“基建速度”,惊叹于他们项目落地的效率。我真的认为,我们也必须学会以更快的速度去推进实体建设。

我们甚至必须彻底重塑我们的思维方式,去认真思考,在现实的物理世界中,如果想让建设速度实现10倍的飞跃,究竟需要克服哪些困难?我非常担心,实体基建的速度会成为卡住我们脖子的瓶颈。

而且,我预感到这方面面临的社会和监管阻力可能会越来越大。说到底,这绝不是几个决策者一拍大腿说“我们要加速基建”就能迎刃而解的。

John Collison:比如地方上突然叫停数据中心的建设之类的。

Sundar Pichai:没错。总体来讲,目前的限制因素主要就是:最底层的晶圆投片量、获取审批许可的难度,以及实际把项目落地的执行力。当然,我也确实看到政府层面在做很多积极的推动。大家都已经意识到,我们必须在这些环节上做得更好、更快。

此外就是供应链里那些“卡脖子”的关键零部件。内存(HBM)就是一个极其典型的例子。至少在短期内,我们都逃不开这些硬件的掣肘。整个行业也都在根据这些限制做出应对。

我觉得,对于我们这些实际经营公司的人来说,无论你内心对AGI的信仰有多么狂热,接下来都必须去面对一个现实的“容错区间(error band)”,就是你能在商业预判上保持多大程度的乐观?你的报表能承受多低的利润率?因为这个世界随时可能发生你根本无法控制的外部“黑天鹅”事件。

每个管理者都在做这种(在狂热与现实之间的)平衡和调整。这些都是我们必须面对的硬性约束。这就是我眼中目前最主要的瓶颈所在。

John Collison:在所有的硬件里,内存是目前最让你操心的核心组件吗?

Sundar Pichai:毫无疑问,内存绝对是当下最关键的零部件之一。

John Collison:你提到短期内会有瓶颈。那你觉得市场会不会单纯地通过增加供应来应对?也就是说,靠高昂的价格利润去刺激产能,能把这个问题解决掉吗?

Sundar Pichai:头部的这几家内存大厂,是不可能短时间大幅度拉满产能的。所以在短期内,你绝对会面临这些硬性约束。但如果把时间线拉长,这些瓶颈会逐渐松动。我确实预估这些因素都会成为当下的限制,但要知道,这种限制也会倒逼出海量的技术创新。比如,我们会通过技术把这些系统的使用效率足足提升30倍。所有这些(产能的受限与技术的突破)其实都在同时发生。

Elad Gil:那这种高门槛,会迫使整个市场走向寡头垄断吗?尤其是当你把目光放到模型层时。因为如果你去关注业界对于“模型未来将如何演进”的各种预测,很大一部分其实都指向了某种“递归式的自我进化”。这些AI模型会开始越来越多地自己给自己写代码、自己给自己做数据标注,等等。

John Collison:眼下这局面,说白了就是一场争夺算力的抢椅子游戏。

Elad Gil:没错。这就变成了谁手里攥着算力资源,以及相对于全行业的总产能,你到底能扩张到多大体量的问题。如果大家最终能抢到的算力,大概都是按特定比例卡在某个上限位置,那这其实就形成了一个天花板,它直接限制了某一家公司能把同行甩开多远的距离。你觉得这个逻辑成立吗?

Sundar Pichai:我觉得用这个框架去思考是很合理的。不过还有一些变量……顺便提一句,我这次过来(做访谈),刚好也是因为我们刚发布了 Gemma 4。这是一款极其出色的开源模型。中国的开源模型非常强,但我认为放眼中国以外的地区,Gemma 4绝对是非常顶尖的开源选择。


图片来源:Geeky Gadgets

如果你想追赶到Gemma 4这种前沿水平,技术上的跨度看似巨大,但如果换算成追赶的时间,其实并没有那么长。你要知道,Gemma 4是直接基于我们Gemini 3的架构打造的。仔细想想,这是一件非常不可思议的事情。我们刚才聊了那么多庞大的算力和宏观基建,但最终我们谈论的,本质上不过是一组能直接塞进U盘里的模型权重(Weights)而已。

Elad Gil:是的,这很神奇。

Sundar Pichai:这感觉确实太疯狂了……它跟造一枚SpaceX的火箭完全不一样(火箭好歹是个庞然大物)。

Elad Gil:这也是一直让我感到极其震撼的地方。整个庞大的数据中心运转了好几个月,结果最后吐出来的产物,居然只是一个极其普通的数据文件(flat file)。真的,感觉就像是弄出了个Word文档一样,而那就是你耗费巨资训练出来的模型。这简直不可思议。

Sundar Pichai:正是因为AI拥有这些极其独特的属性,所以我才总是想跳出传统的分析框架去反思,我们到底该如何看待这场竞争?

我觉得你的逻辑框架是有道理的……至少在模型的推理端,你刚才的思考方式非常合理。现在全行业都在绞尽脑汁,试图把资本市场逐利的杠杆发挥到极致(突破资本激励的极限),试图用钱去砸破这些物理限制。这股力量是极其巨大的。

然而,就像你说的,地球上现成的内存产能就那么多。无论市场给出多么疯狂的溢价和资本驱动力,你都不可能凭空变出2026或2027年的内存产能。

Elad Gil:那或许就是我们能看到各家大模型真正拉开差距的时候了。

Sundar Pichai:但这些因素必须跟晶圆产能的增加,以及你获批新建数据中心的进度综合来看。单一维度的瓶颈,可能并没有表面上看起来那么严重。你必须把所有需要的资源要素(包括资本在内)全部加总,放在全局的盘子里去权衡。

John Collison:没错。所以我觉得最有趣的点就在于,按常理来说,资本肯定是想砸出远超眼下水平的投资,但我们现在偏偏一头撞上了2026和 2027年真实物理世界的“墙”。

这感觉有点像“霍尔木兹海峡危机”。你大可以随便喊出多高的油价,但归根结底,如果你每天从市场上硬生生抽走2000万桶石油的供给,那你就必须(通过高昂的价格)摧毁掉等量的需求(需求毁灭)。内存市场也是这个逻辑,到最后,肯定有一部分人不得不放弃他们原本想要的算力。

Sundar Pichai:不过说实话,除了硬件,还有其他维度的限制,比如安全。现在的这些AI模型,绝对有能力把几乎所有现存软件的安全防线彻底击穿。没准现在就已经被击穿了,只是我们还蒙在鼓里,就在我们正坐在这儿闲聊的当下。

John Collison:你真的觉得它能攻破所有的软件吗?比如拿SSH协议来说,黑客们试图破解它已经有年头了,也没能轻易得手。你觉得……

Sundar Pichai:我指的是那些常规的软件和大型平台,你想想那里面究竟藏着多少个“零日漏洞”(Zero-day,指软件发布后还未被发现、连开发者都不知道的致命漏洞)。我们现有的系统本身就存在这些安全短板,这不是你闭上眼睛祈祷一下,它们就能凭空消失的。

Elad Gil:有人跟我说,现在“零日漏洞”的黑市价格正在暴跌,因为AI的介入导致漏洞的供给量激增。我觉得这是一个极其有趣的真实市场指标。

Sundar Pichai:我对此一点都不感到惊讶。这种能力究竟会如何在社会中蔓延开来?又会带来什么样的连锁反应?历史上其实能找到类似的先例。我认为未来可能会浮现出很多隐藏的制约因素,甚至可以说,会对现有的社会系统造成巨大的冲击。

但话虽如此,我内心依然坚信,前方的利好和上升空间是极其巨大的。可以说,某些限制的出现反而是件好事。因为限制能倒逼出极致的创造力。

John Collison:没错,这会逼着行业进入一个“压缩周期”(强迫大家做减法去优化),让你的效率变得更高。

Sundar Pichai:是的,这其实就是一种强制倒逼机制。它会逼着我们去展开一些极其重要、但原本绝对不会发生的对话。光就我刚才提到的安全这点来说,我之前就设想过,未来我们(整个行业甚至跨国界)将需要进行大量的协同合作,而这种协同在今天完全是缺位的。未来注定会迎来这样一个节点,可能是一个危机爆发的时刻。所有这些潜在的麻烦,我不认为你能靠祈祷就让它们凭空消失。


谷歌的“隐藏宝藏”

Elad Gil:确实。顺着这个话题,其实挺让人感慨的,谷歌实际上拥有一个极其惊人的项目矩阵,无论是内部孵化的还是对外投资的。单从股权的角度来看,你们持有数量可观的SpaceX股份,我不知道现在的确切比例,但早些年大概是10%左右;你们还持有Anthropic差不多10%的股份;更是控股了Waymo,这真的非常了不起。

而在谷歌内部,显而易见,你们也研发出了大批令人惊叹的硬核技术。我们前面聊了AI和Transformer架构,还有TPU芯片,Waymo也是其中之一。另外还有量子计算,你们最近刚发布了一项非常有趣的成果。那么,谷歌内部还有没有什么大众应该去了解、或者未来可能会产生颠覆性影响的“隐藏宝藏(hidden gems)”?

John Collison:或者说,有哪些是你觉得目前被外界严重低估了的项目?

Elad Gil:那你认为量子计算最终会在哪个领域发挥最大的威力?因为现在大家主要谈论的无非是分子建模和密码学。但在密码学方面,业界一直在开发“抗量子密码”(Post-Quantum Cryptography,指能够抵抗量子计算机破解的新一代密码算法)来未雨绸缪。而在分子建模方面,深度学习模型现在似乎已经表现得极其出色了,说起来,这正是你们用AlphaFold开创的先河。

所以,你觉得量子计算还具备不可替代的重要性吗?如果是的话,它的“杀手级应用”到底在哪?

Sundar Pichai:从一个更抽象的层面来看,我个人的直觉是,它将越来越多地被用于“模拟自然”。因为自然界本质上就是以量子态运行的,所以你需要用真正的量子系统去完美地模拟它。

当然,我们现在可能会用经典的计算技术(比如AI),以令人惊讶的方式解决一些问题,或者通过足够的降维和抽象来得出近似的结果。这种方法确实有效,但我从根本上认为,量子计算在这一领域拥有不可撼动的底层优势。

比如,直到今天我们其实都还没有完全弄懂用于合成化肥的哈伯法(Haber process,一项工业制氨技术)背后极其复杂的微观机制。自然界还有太多如此复杂的化学反应。这大概刚好切中你大学的专业背景了。我的直觉告诉我,像模拟天气系统、模拟真实的物理现实等等,这些绝对是量子计算大显

身手的领域。

另外,技术发展史反复印证了一个规律,即当你把某项底层基础设施做到真正可用的规模时,应用层那些极具创造力的人自然会发掘出它的用武之地。

我经常举的例子是“智能手机 + GPS”催生了Uber。当初研发手机底层技术的人,谁也不可能预见到这种平台级别的跃迁最终会孵化出网约车。所以我深信,只要我们能让量子计算机真正跑起来,它绝对会爆发出成千上万种不可思议的应用。这就是我的基本判断。

Google DeepMind团队目前正在极其深入地探索机器人技术。说实话,机器人在谷歌内部算是一个我们入局太早的领域。但现在回过头来看,AI恰恰是我们在10到15年前构想那些宏大蓝图时,缺失的那块最关键的拼图。

目前,基于Gemini打造的机器人模型在空间推理等能力上已经达到了 SOTA(业界最顶尖)水平。在这方面,我们绝对握有最前沿的模型。

颇具戏剧性的是,我们现在又开始以极其坚定的姿态,重新与波士顿动力(Boston Dynamics)、Agility Robotics等几家公司展开合作,共同推进技术落地。当然,行业里也涌现出了很多非常了不起的初创企业。

除了这些,我们还在投资,比如我前面提到的太空数据中心、量子计算,另外还有Wing的无人机配送业务。目前我们正在迅速扩大Wing的运营规模,在一段时间内,多达4000万的美国人就能享受到Wing的无人机外卖服务了。而且我说的可不是什么要等上好几年的大饼,而是很快就能落地的现实。


图片来源:FOXBusiness

还是那句话,当你着手去做这些长周期的项目时,它们本质上都是一种有条不紊的技术复利,我们是铁了心要做长期投入的。再比如Isomorphic(Alphabet旗下的AI药物研发公司)。

Elad Gil:Isomorphic确实极其让人兴奋。

Sundar Pichai:我的想法是,我们要集中力量,极具针对性地去优化药物研发(靶点发现)流程中的每一个细微环节。这样一来,即便你还要面对像临床三期试验这样极其漫长的研发周期,AI也能帮你大幅提升最终通关并取得成功的概率。

Elad Gil:我认为,这绝对是我见过的在构建各类生物学模型上最聪明、最具前瞻性的路径。你们没有局限在纯分子设计这个狭隘的圈子里,而是去思考了更宏大的全局。要知道,目前绝大多数同行都还卡在那个死胡同里出不来。这一招确实极其高明。


资本蛋糕如何分

John Collison:顺着这个话题我想请教一下,我其实一直很好奇,在谷歌内部,你们的资本配置(Capital Allocation)到底是怎么运作的?

我的意思是,商学院里关于优秀资本配置的核心理念,无非就是要深刻内化资本的机会成本,然后把企业赚来的现金流,投到回报率最高、最能发挥价值的地方去。

拿教科书里最简单的例子来说,假设你是波音公司,账上趴着一笔现金。你面临的选择是要么去竞标下一个国防大单,你可以算出来研发要砸多少钱、财务模型预测能带来多少收入;要么你去研发一款全新的商用客机,你同样能推算出一笔账。这说白了就是单纯比较16%的IRR(内部收益率)和19% 的IRR,那自然是无脑选19%的那个。

但到了谷歌这里,你们内部的项目跨度和差异性实在太大了。比如,你们可以多批一点预算给YouTube团队,让他们去优化推荐算法,从而拉长用户的停留时长,顺便把商业化变现的收入做上去。或者,你们也可以把钱砸给 Waymo团队,让他们能以更快的速度推向市场、跑马圈地。又或者,你们可以选择去投资某种可能要苦等5年才能见效的全新AI路线。

所以我很好奇,当你们试图把手里的巨额资金配置到所谓“最高效、最有价值”的用途上时,你们最终不可避免地要把这些业务放在同一个盘子里做比较。面对这些业务性质天差地别、投资回报曲线形态也完全不在一个次元的项目,你们到底是怎么去衡量和取舍的?

Sundar Pichai:这是个好问题。说来也巧,恰恰是因为现在内部面临着 TPU算力的分配,我现在比以往任何时候都更能深切体会到你说的这种左右互搏。在某种程度上,连Waymo现在都在跟其他业务抢TPU资源。算力竞争,让内部资源配置的问题变得更加尖锐。

在我每天处理的各种事务中,我其实极其期待未来AI能为这种复杂的资源分配提供参考。我认为,一旦我们真正打通了公司内部所有的底层数据并让它们流转起来,这绝对会大有帮助。目前的模型其实已经具备了这种分析能力,关键在于如何解锁这些数据。

回顾过去,我认为谷歌的核心优势之一在于我们往往在一个技术周期的极早期,就做出了战略布局。这几乎是回归了我们作为一家硬核技术驱动公司的本源。这其实也呼应了刚才回答Elad的那个问题,我们是如何思考那些长期项目的。

在技术的萌芽阶段做投资决定反而更容易,因为初期需要的资金量相对较小。但如果你要在未来几年、甚至十几年里保持长期的资源倾斜,你就必须确保团队在取得实质性的深度进展。

只要你能看到底层技术在不断突破,以量子计算为例,我们怎么去评估它值不值得继续投?我们看的是最底层的技术指标。比如,团队定下了关于纠错逻辑量子比特的研发目标,那你们究竟什么时候能跨过技术门槛,实现一个稳定运行的大型逻辑量子比特?团队到底能不能做到?我觉得我们就是用这种硬核的里程碑来做评估的。

我不会说这是什么碾压级的优势,但这确实是我们思考问题、且一直严守投资纪律的方式之一。或者说,至少对我个人而言极其重要的一点是要在极早期、极度坚定地押注那些底层核心技术。这点非常关键。

你要不断地去审视这些前沿业务的长期价值。这感觉就像是,你完全凭商业直觉在脑海中去估算它们的期权价值,以及推演它们5到10年后的总潜在市场规模(TAM)。你可以假设一个极其疯狂的增长曲线,然后再反推今天做出的这些投资决策是否合理。

我们对TPU的长期投资就是一个极好的印证,这么多年来我们一直在稳步砸钱。Waymo也是个绝佳的例子。两三年前,当全行业都对自动驾驶感到悲观、甚至有些同行开始撤资退缩的时候,我们反而选择了逆势加码。

Elad Gil:非常神奇。只要可以,我现在每天都坐Waymo上班。


图片来源:FORTUNE

John Collison:我觉得Waymo就是我刚才那个问题很好的案例。外界都知道,谷歌确实会大刀阔斧地砍掉项目,你们内部尝试过无数新东西,也会果断地拍板,“实际上,我们不会再给X实验室的这个项目批预算了”,或者“我们要把这个产品关停,因为它就是跑不通”。

但在Waymo身上,尽管从一个令人惊艳的Demo走到真正落地市场的商业化服务是一条极其漫长的苦旅,你们却从未动摇过信心。你们内部到底看到了什么?支撑你们坚持下去的,究竟是基于定性的直觉,还是定量的指标?你们当时到底是怎么权衡,从而决定砍掉Loon(高空气球项目),却死保 Waymo的?

Sundar Pichai:我觉得这恰恰印证了你刚才提到的定量分析。如果你去剖析Waymo Driver(Waymo的核心自动驾驶系统),这是最底层的硬核技术,也就是软件究竟是如何去驾驶一辆汽车的。我们一直死盯的是,它在安全性和可靠性上取得的实质性进展。

这是一场极其漫长的探索,系统到底能做到多安全?你打算用什么路径去实现?你会去追踪那条技术进化的曲线,并基于此做出预测,或者设定你们想要攻克的里程碑目标,然后持续盯盘,看我们在这些曲线上的实际表现是否

达标。

在我看来,Waymo团队的表现一直都极其出色。当然,中间肯定也经历过技术停滞不前、似乎毫无进展的阵痛期。但在那些时刻,你需要对团队冲破技术瓶颈的能力抱有绝对的信念。

总结来说,我认为你越是能深入到最底层的硬核技术层面去评估一个项目,你往往就越能做出高瞻远瞩的正确决策。至少,我个人一直都是努力这么去践行的。

Elad Gil:业内关于Waymo有一种讨论,大家觉得你们最近能取得如此大的进展,是因为在过去,自动驾驶主要靠的是人工手写规则(启发式算法)来处理各种长尾的边缘场景,或者去穷举汽车遇到突发情况该怎么反应。甚至毫不夸张地说,过去有一部分工作简直就像是在手工给汽车画行驶路线一样。这种方式的局限性太大了。

直到两年前,随着通用Transformer浪潮的席卷,全面转向端到端深度学习架构,才真正成为了行业的突破口。

所以我有个假设,既然端到端才是真正推动你们实现跨越的破局点,那你觉得如果Waymo是一家5年前才刚成立的公司(而不是实际上的15年前),它今天还能达到和现在同样的高度吗?

Sundar Pichai:我们前面正好聊到了机器人技术。你完全可以把Waymo 视作一台大型机器人。客观来说,如果有人在过去三年里才开始切入机器人赛道,从理论上讲,他们确实能取得更快的早期进展。

但是,Waymo是一个极其庞大且高度集成的复杂系统。它在某些层面的复杂程度,绝不亚于台积电造芯片,或者SpaceX发射火箭。你面临的挑战,是如何将无数个复杂的子系统以极度精密的方式整合在一起。

我认为Waymo最深的护城河就隐藏在这些看不见的地方。在这些深水区,你所熬过的漫长岁月,以及打磨工程底座的手艺(craft),是至关重要且无可替代的。但话虽如此,我也必须承认,端到端的方法在当下的确为我们带来了巨大的突破。

Elad Gil:可以说,单单是保留住了这支(Waymo)团队,对Alphabet和谷歌来说就已经是一笔巨大的财富了。正是因为你们咬牙坚持了长期投资,等到某个时间节点,技术的爆发突然让这笔投入物超所值,这是一步极其聪明且极具远见的险棋。

我觉得很有意思的一个推演是,这种经验如何复用到其他领域?因为就你前面提到的机器人领域而言,现在有了大模型,我们可能会走上一条完全不同的发展轨迹,进化的速度将会变得极其惊人。

所以,你们有没有考虑过把硬件研发重新拿回内部?还是说,未来依然会主要依赖于生态合作的模式,把这些前沿机器带给现实世界?

Sundar Pichai:我觉得我们在这一点上会保持极其开放的心态。但我从 Waymo的漫长研发中、以及在AI端亲自做TPU芯片等项目里获得的一个核心经验是,如果你想真正去突破和引领技术曲线,尤其是在那些同时牵扯到安全性、严格监管等极其复杂因素的领域,你就必须亲自下场。

你肯定希望能获得最真实的、第一手的产品反馈闭环。所以我认为,拥有第一方硬件最终会变得至关重要。关于这一点,现阶段我就先透露这么多。

John Collison:抱歉,关于资本配置,我还有两个问题。回过头看,你觉得谷歌历史上极低的财务杠杆率,甚至账上常年趴着巨额的净现金是完全合理的吗?

要知道,谷歌内部从来都不缺绝佳的创意,你们的点子多到根本做不过来。而且你们的核心业务极其坚挺,你们对这块业务了如指掌,它的增长率也远高于你们的资本成本。

所以,当你现在复盘时,会不会觉得谷歌当年其实应该更具进攻性一点?比如直接向市场宣布:“好吧,相比于保守地攥着一把现金,我们愿意适度加点杠杆,把这些资金砸向新业务。或者干脆直接回购核心业务的股票来回馈股东。又或者,去做更多的少数股权投资。毕竟在这个领域,谷歌的眼光绝对是业界最顶尖的。”

Sundar Pichai:这是个极具深度的问题。举个例子,如果Waymo当年的技术成熟度能早一点达到现在的水平,那我肯定早就把巨额资金砸进去了。

在某种程度上,你的决策标准在于,你必须尽力去做一个卓越的资本管理者。顺着你刚才极其看重的ROIC(资本回报率)逻辑来说,只要项目好,你当然恨不得把所有的钱全倾注进去。

但是,当你账上有多余的资金,而你内部的项目又还没成熟到能消化这些钱时,这就是为什么我们也会去投资外部的公司。我们始终是用资本管理者的视角在做权衡。比如,我们就认为投资你们Stripe是一次极其出色的资本配置,再比如投资SpaceX,以及Anthropic等等。

不过,随着当下AI浪潮的席卷,我认为我们内部现在有了大量极其优质的资金部署机会,所以我们正在全力加码。

其实我们一直都秉持着这种心态。如果能早点给Waymo拨付更多的资金,我当然求之不得。但问题是,它当时的技术成熟度根本还没达到那个阶段。出于对安全的考量,在Waymo发展的某个特定节点,我们必须坚守安全第一的准则。在那种情况下,盲目拿巨资去催熟绝对不是一个正确的做法。

John Collison:所以你的意思是,你其实很难指出有哪些项目,是如果当年尽早砸更多钱就能跑得更快的?因为技术的演进天然就需要一个循序渐进的爬坡期?

Sundar Pichai:可以这么说。但总体而言,哪怕我们在这中间可能做过错误的决策,但至少我们一直秉持的行事准则是只要你对某个技术方向感到兴奋且抱有绝对的信念,你就必须愿意投入真金白银,陪团队熬出结果坚持到底。

John Collison:关于资本配置我还想问一个问题。回顾过去,在传统的科技公司里,绝大部分的研发费用(R&D)说白了就是大楼里来来往往的程序员,也就是人头费。因此,人员编制总是被一套极其严苛的流程管控着。确实,以前当你在分配研发资源时,本质上是在分配高薪的聪明人去应对挑战。除非你们在做极其消耗计算资源的项目。但在绝大多数情况下,跟昂贵的人力成本比起来,技术硬件开销只算是个零头。

但我们现在进入了一个全新的世界。正如你刚才提到的,现在面对TPU算力的分配时,情况已经彻底颠覆了。

所以我想知道,如果落实到具体的预算编制层面,谷歌内部现在到底是怎么运作的?公司层面是不是有一个TPU算力总盘子?以前你给一个项目批资源,批的是人头预算(HC)。现在你是同时给他们批人头预算和TPU算力预算吗?这两笔预算在内部是一盘账吗?当你们在做季度复盘或年度规划时,这套机制具体是怎么运转的?

Sundar Pichai:其实,我们一直都有算力预算这笔账,甚至在传统的经典计算时代也是如此。

我想说的是,在机器学习领域,顺便提一句,我们现在内部是广泛地同时部署TPU和GPU的,关于ML算力的统筹规划,我们在做人头(HC)规划时确实深思熟虑,但算力规划也一直是我们必修的功课。在ML算力上,我们内部经历过资源相对宽裕的阶段,也经历过全公司都被算力卡脖子的阶段。但就眼下而言,算力资源真的是极度紧缺的。

你必须在这上面投入极其庞大的精力。我现在每周至少要雷打不动地抽出一个小时,在极其精细的层面上专门去盘算这个问题。我会清楚地掌握具体到哪个项目、哪个团队占用了多少算力单元,至少这些底层数据我都了如指掌,并且我会亲自去审视和做ROI评估。从某种程度上说,我认为这是眼下最紧要的任务之一。

John Collison:在很多场景下,算力成了最核心的稀缺资源,所以你必须亲自把关,确保谷歌手里极其宝贵的算力,都砸在了那些最值得投入的核心战略项目上。

Sundar Pichai:没错。

Elad Gil:那如果把这个逻辑放到GCP(谷歌云平台)的语境下,你怎么看?因为在云端,你实际上是在把紧缺的算力卖给外部客户,而不是留给自己内部团队用。

考虑到整个系统的算力天花板就摆在那儿,面对内部自研和对外售卖的博弈,你究竟是怎么做这道算力分配选择题的?

Sundar Pichai:说白了,我们靠的是极其前置的规划。当我们在做长远规划时,云业务团队会做他们的远期预测,并且一步步去落实。你为此拨付资金,同时内部业务的需求也得统筹进来。一切都要提前部署。

在这个过程中,你也会跟外部客户签下长期的算力供应承诺。你要知道,我们对客户做出的任何承诺都是神圣不可侵犯的,那是签了合同的铁律。

其实,靠极其严密的规划能解决很大一部分问题。当然,在我们做规划的当下,整个行业确实都处在一个算力受限的世界里。我敢说,云业务团队肯定也会抱怨他们分到的算力不够用等等。但只要你把规划做得足够靠前,这些矛盾是可以被妥善消解的。

John Collison:既然聊到了谷歌云,我这儿可是专门为你攒了一个产品需求,我知道你肯定迫不及待想听了(笑)。

Sundar Pichai:(笑)你大可以去X上发帖直接艾特我嘛。

John Collison:哈哈哈没错。但不开玩笑了,我想说的是,目前GCP结合MCP(模型上下文协议)这点做得极其出色,现在你的AI可以完全通过写代码的方式,直接跟谷歌云进行交互。我猜除了核心的安全权限控制(IAM)之外,你们几乎把所有的接口都对AI开放了。

某种程度上说,我觉得谷歌云之前背负的一个槽点就是功能实在太多、太庞杂了,我猜你也经常听到大家这么抱怨。它的控制台导航极其折磨人,你一登进去,就得先建个组织,再建个项目之类乱七八糟的东西,然后在一堆服务里像走迷宫一样找你需要的那个。

但现在,这一切都无所谓了。你只需要(对AI)吩咐一句:“嘿,帮我把那个谷歌云的功能接进来。”从这个维度来看,GCP庞大且繁杂的功能库反而成了它现在的巨大优势,谷歌云真的吃到了这波红利。

其实我们在Stripe也遇到了类似的问题,当我们给平台加了越来越多的功能后,想要在极其臃肿的产品界面里导航,最完美的解法就是扔一个能帮你读懂所有API文档的AI进去。这体验简直太神了。

Sundar Pichai:这就印证了大家为何如此看好AI作为万物编排层(Orchestration layer)的巨大潜力。回到我之前提到的那个痛点,哪怕是作为一家企业的CEO,你面临的问题往往不是没有数据,而是怎么把这些散落在各处的数据打通并汇聚起来。

放在过去,你大概率只能眼睁睁地看着公司再去硬推一个极其庞大、类似 ERP的IT实施项目,才能把各种数据源连接起来。但现在,AI可以直接作为一层编排系统,以一种对终端用户极其友好的方式在后台调度一切。能亲眼见证这种范式上的转变,真的让人非常兴奋。

John Collison:你们产品的表面积(Surface area,指功能矩阵的广度)越大,这种AI编排带来的红利就越呈指数级放大。我们在Stripe内部其实也或多或少看到了这种现象,但我敢打赌,对于像GCP这种极其庞大且复杂的平台来说,这绝对会产生巨大的乘数效应。

Sundar Pichai:我认为我们在体验上还有很大的优化空间。但你说得对,这里面蕴含着极其巨大的机会。

John Collison:反正我对目前的体验已经相当满意了。好了,我的产品需求提完了。(转头问Elad)你刚才不是也带了点产品建议过来吗?


2027年将迎来质变

John Collison:我其实还有一个特别感兴趣的点,是关于类似OpenClaw 这类工具的PMF(产品市场契合度)。真正让我着迷的是,它们开始让面向消费者的AI具备了有状态(Stateful)的特征。

比如满足那个极其经典的诉求:“去帮我总结每天我感兴趣的新闻,然后设定在每天早上自动发给我”,或者说任何涉及到持久化运行的任务。

放眼当下,市面上所有那些爆火的、主流的AI对话应用,根本都还做不到这一点。这种(具备持久化记忆和后台自动执行能力的)AI,究竟什么时候才会真正到来?

Sundar Pichai:从大方向上看,你确实想赋予用户一种能力,让他们能以安全、可靠的方式,让复杂的任务在后台长期待机。这中间,你肯定得极其严谨地去解决身份认证和访问权限等底层安全问题。

但我深信,这就是未来的绝对方向。这就是真正意义上的智能体的未来。 如何将这种极其硬核的能力平滑地交付给普通消费者,正是我们目前密切关注、也最让人热血沸腾的前沿阵地。

Elad Gil:我刚才原本想提的产品需求也是这个。你看看Dreamer,那是 Stripe的前CTO出来做的项目。我印象里好像最近刚被Meta收购,他们就做出了一个体验极其出色的版本。虽然那还只是个非常早期的视角。

John Collison:对,他们其实是在帮用户自动生成高度定制化的软件,这其中就包含了长期待机的能力,而且你还可以用自然语言去详细定义你的需求。

Elad Gil:没错,基本上就是让你能随时捏出一个专属于你自己的小应用(Mini-app)。

John Collison:就是这样。他们把门槛降得极其低。我觉得,当普通用户第一次真正体验到这种魔力时,绝对会产生一种极其震撼的“啊哈时刻(Aha moment/惊喜与愉悦)”。

Sundar Pichai:说实话,我认为未来的消费者级UI界面,其皮囊之下,本质上隐藏的将是一整套极其完备的编程模型。

它会内嵌极其严密的控制框架,配置好各种随时可调用的技能库,并且拥有能够长期待机、在云端或本地安全运行的权限。

现如今,所有这些底层的计算原语(Primitives,犹如乐高一样的基本积木)其实已经汇聚成型了。你看看现在的极客和开发者们都在干嘛。就今天而言,我觉得世界上可能只有1%,甚至不到1%,大概只有0.1%的人,已经提前活在这个未来里了。他们正在用这些原语疯狂地为自己搭建各种自动化工具。

但是,如何把这种硬核的极客体验,真正无缝地推向大众市场。

John Collison:是的(这正是最大的挑战)。

Sundar Pichai:我认为,这是一个非常令人兴奋的前沿。

John Collison:关于产品,我还有一个槽点。不知道为什么,我不确定你本人有没有同感,但我个人绝对深有体会,在Google Docs里的搜索,明显比在Gmail里的搜索要困难得多。当然,它们背后显然都是同样优秀的底层搜索引擎。

但我感觉问题出在,关键词搜索对查邮件相当管用,因为你往往能记住某封特定邮件里极其独特的几个字眼。但拿我自己来说,我经常遇到的情况是,我想翻一下2026年预算。结果如果你在Google Slides里搜2026预算,这两个词在Stripe海量的PPT里根本没有任何辨识度,所以我永远没法精准定位到我想要的那一份。我很好奇,Sundar本人平时会有这个痛点吗?

Sundar Pichai:说实话,我个人之前可能没有你感受得这么深,但听你刚才这么一拆解,我确实非常有共鸣。事实上,我脑子里刚才已经在盘算要把这段对话发给内部哪个团队听了。我极其清楚该去找谁聊这事儿,也就是具体负责这块业务的人。

我们在这块确实还有很大的优化空间。我认为随着我们将AI深度整合到包括 Google Docs在内的各项服务中,在接下来的几个月里,你会看到体验有大幅的飞跃。我想整个行业刚开始做的都只是1.0版本的AI集成,你只不过是把AI作为一个外挂强塞进去而已。

但随着技术演进,模型能记住多少上下文语境、能在后台缓存哪些信息、又能真正调用哪些关键数据,我认为我们在这些底层能力上还能取得巨大的突破。我们绝对能把这事做得好得多。

John Collison:太棒了。

Elad Gil:我接触(投资)的很多公司,哪怕是最近刚成立的初创团队,都已经不得不大刀阔斧地重塑他们关于产品开发和工程实践的工作流了。这种冲击甚至大到让他们开始重新定义,设计团队里到底需要留什么样的人、具备怎样的能力模型。谷歌内部目前也在重新审视这一切吗?你们的工作流是不是也正在经历剧变?

Sundar Pichai:可以这么说。你可以把谷歌内部的这场变革想象成一圈圈向外扩散的同心圆。内部确实有一部分团队正在经历极其深刻的范式转变。对我而言,眼下一项极其重大的任务就是,尤其是在今年(2026年)这个节点,我们该如何把这种全新的工作模式层层辐射,推广到更庞大的群体中去?

在早期阶段,我们其实很难大面积铺开,因为当时的工具还经常掉链子。那种感觉就像是,你明明已经瞥见了一个充满希望的新世界,但它实际上还是个半成品。但到了今年,我明显感觉到技术进化的曲线迎来了一个拐点。

我已经能看到某些团队,特别是Google DeepMind和一些核心的软件工程团队,正在真正意义上地彻底重塑他们的工作流。说来好笑,我们内部对同一款工具的代号和它对外的名字往往完全不同。比如它(对外)叫 Antigravity,内部代号却叫JetSki(水上摩托)。


图片来源:medium

现在的这些核心工程师已经完全“长”在这些系统里了,他们生活在一个由“智能体管理器”主导的世界里,并用这种前所未有的方式在推进工作。

就在上周,我们刚刚把这套系统推给了核心的Search团队。我们在不断地向前推进。

说实话,在一个庞大的企业组织里,如何做好变革管理,才是这项技术在内部大范围普及的过程中最难啃的骨头。这对小规模的初创公司来说或许轻而易举,因为船小好掉头,可以瞬间完成切换,但大厂的推进要复杂得多。

John Collison:关于AI在行业里的实际落地与普及,我能补充几个我观察到的真实痛点吗?我很好奇你认为我们该如何、以及何时才能跨过这些坎。

因为在我看来,我们目前正处于一个极其庞大的智能溢出阶段。单从抽象层面来看,现在AI能做到的事情简直令人震撼。但如果你去审视一家公司到底有多AI原生(AI-native),或者说它对这种智能的实际利用率有多高,你就会发现中间存在着巨大的鸿沟。

我看到的痛点大概有这几个:

第一,提示词门槛。即使是对于极其专业的工程师来说,要真正精通如何给 AI写出优质的Prompt,实际上也需要一段相当长的学习周期。同样是让AI 写代码,Prompt写得好坏,产出的结果天差地别。比如在Stripe内部,你不仅要擅长写通用的提示词,还得掌握大量专门针对Stripe业务逻辑的复杂提示词,你得极其清楚该让AI调用哪些内部工具。

第二,代码协作的崩溃。这是大家不可避免会撞上的现实。要在AI生成的代码库上进行多人协作,变得极其困难。因为AI改代码的速度太快了,代码的更新迭代率极高,每一次改动都有一个难以预估的爆炸半径。在代码最终发布前,AI可能已经将它重写了好几遍。而在过去大家纯手工敲代码、推进速度较慢的时代,协作显然没这么痛苦。

第三,数据权限的噩梦。当你走出纯工程研发领域,我看到的最大瓶颈就是数据访问。你当然希望你的智能体能随时干活。你想想,全球各大公司的员工,每天要问多少次“嘿,这笔交易目前的进展如何?”这完全是公司内部有记录、且理应能通过智能体直接回答的信息。我确实在Stripe内部看到了一些能完美解答这类问题的酷炫工具。但是,当涉及到员工习惯和数据权限时,尤其当你身处一家规模庞大的大厂时,底层那个决定“谁能看什么数据”的权限引擎,几乎需要被彻底推翻重写。

第四,角色边界的消融。就像你刚才提到的,传统的工程、产品、设计这种岗位分工,其实是过去几年的旧产物了。因为有了AI的加持,你不可避免地会想要在某些场景下,去模糊这些角色的边界,因为借助AI,每个人在各个维度的能力都变强了。

总而言之,这就是我现在,身处2026年的当下所看到的真实割裂感,模型的能力明明已经达到了那个高度,但我们在实际应用中的深度,却仅仅停留在脚下。

你觉得,要把这种庞大的智能真正普及开来,接下来的演进路径到底会是什么样的?

Sundar Pichai:说实话,我们内部有很多人确实在密切关注、甚至亲身参与Gemini团队的动向。具体来说,无论是Gemini企业版团队还是 Antigravity团队,他们眼下正在死磕的,就是你刚才提到的这几大痛点。

毫不夸张地说,你刚才列举的那些,就是我们目前实打实的产品路线图。我们的做法就是在内部亲自去用它,狠狠地撞上这些障碍,然后想办法攻克它,最终把这些解决方案变成对外发布的产品。

我们目前仍在内部大力推广这种模式。因为在实际操作中,打个比方,如果你是谷歌的SRE(网站可靠性工程)团队,你会突然发现自己已经可以用 AI把一部分工作流彻底自动化了。这种单点突破目前正在各个团队内部真实地上演。

但是,当你为AI开发这些技能时,你如何才能做得更加系统化?如何对它们进行集中化管理?如何让模型无缝接入,并且安全地开放给所有人使用?正如你所言,身份与权限控制绝对是一个极其硬核且棘手的难题,这也是我们目前正在集中火力解决的事。

反过来看,这些(安全与权限验证)问题,恰恰也是限制AI在我们谷歌内部大面积普及的卡脖子因素。因为我们在安全标准上极其严苛,所以不得不步步为营。不仅如此,这上面还有另一层极其关键的考量,在让AI自动运行这些服务时,系统的容错代价极高,我们必须把这个隐患彻底排除。

但我坚信,正因为我们经历了这种阵痛,一旦我们把这些底层基建彻底打通,我们就能以一种极其稳健、极其安全的方式把这些能力推向外部市场,这将带来巨大的势能。

我感觉,我们目前正在熬过那个最艰难的固定成本期。但当我们将这套成熟的系统真正推向世界时,你会看到人类的生产力迎来一次史诗级的飞跃。行业里的其他公司也在朝着这个方向努力。随着底层模型以一种更稳健的步伐持续进化,这一切都将水到渠成。

John Collison:谷歌每年应该也会正式地做几次业务重估吧。至少我们在Stripe是这么做的,我们先定好一年的大预算,然后在年内,我们会出具三次正式的重估预测。

如果你仔细去拆解这件事,重估预测本质上就像是特定时间节点上的一个函数。你需要把当下公司的各种业务状态统统收集起来,这其中有些状态只存在于高管的脑子里,但绝大多数都散落在各处的文档中,比如这个产品数据跑得怎么样?、那个功能数据如何?、这笔大单能敲定吗?等等。

在那个特定业务状态的快照节点,我们把所有这些变量全部丢进一个函数里,输出的结果就是当年最新的财务预测数字。你能想象未来由AI去独立执行这个过程,中间完全没有任何人工干预吗?你觉得谷歌大概会在哪个季度,首次跑通这种完全自动化的财务预测?

Sundar Pichai:我绝对相信,在某些特定业务领域,2027年将会是一个发生重大质变的转折点。哪怕是对于目前正手工做预测的财务人员来说,AI 也将彻底沦为他们产出结果的核心工作流。也许在一段过渡期内,你还是会用传统的老办法去交叉验证AI的结果,但随后你们就会彻底切换。但我预感,2027年绝对是个大年,会发生一些根本性的范式转变。

John Collison:我觉得刚才Elad提到的那个痛点在于,工程研发部门往往是AI极其积极的早期采用者,但在工程部门以外的边缘地带。好的,听你的意思,你觉得到了2027年,很多这类非工程类的企业工作流(比如财务、法务)将真正迎来质变。

Sundar Pichai:没错。其实回想你刚才那个关于初创公司速度的问题,我刚才满脑子想的还是Waymo或者机器人赛道的语境。但我现在确实觉得,这(没有历史包袱)将是初创公司与生俱来的一个巨大优势。

初创公司能从第一天起,就组建一支极其纯粹的AI原生团队,甚至在面试环节就能直接筛选具备这种特质的人。而对于像我们这样的巨头来说,我们必须去经历漫长的全员重新培训、阵痛和转型。我认为这绝对是年轻公司独有的巨大红利。但无论多难,我们都必须去强力推动这场内部转型。

John Collison:最后一个问题。我们前面聊了很多谷歌历史上那些起步规模极其微小的内部孵化项目(Initiatives),比如大名鼎鼎的Transformer架构。在它刚启动的那会儿,在谷歌内部根本算不上什么核心战略。那么眼下,在谷歌内部有没有什么正处于萌芽阶段、但让你感到极其兴奋的边缘小项目?

Sundar Pichai:说出来可能会让你有些惊讶。其实,就像我们之前拍板决定要做太空数据中心时一样,它一开始就是从一个极其微型的团队起步的。当时真的就只有区区几个人,手里攥着极少的一点预算,去死磕并达成了第一个技术里程碑。

我一直坚信从小处着手的极其重要性,哪怕你脑子里装的是一个极其宏大的愿景。这就是以小博大的一个绝佳案例。

还有个例子,就在昨天,我专门花时间听了一位研究员向我解释他们在后训练环节取得的一些新突破。听着他详细描述那些正在推进的底层优化,我当时脑子里的反应就是:“哇哦,这绝对会带来一次极其震撼的模型能力跃升。”

这就是我们当下源源不断的技术生命力。关于这第二个突破,我现阶段还不能具体透露它到底是什么,但我确信,我们迟早有一天会发论文把它公之于众的。正是这些在底层悄然发生的、细微却极具爆发力的小步跃升,让我感到无比兴奋。

John Collison:(笑)太棒了,所以我们今天收获了太空数据中心,以及某种神秘的全新机器学习黑科技。

欢迎在评论区留言~如需开白请加微信:YPYP01234567

变量名不存在 {/eyou:field}