登录客服
使用财视扫码登陆 中金二维码

下次自动登录

登录
忘记密码?立即注册

其它账号登录:新浪QQ微信

手机网
首页>>财经>>证券要闻>>  正文
精华推荐 财经号
博客 直播

A股呈现弱势震荡,下周能否重拾攻势?

股海之虾:B浪反弹进行中,市场再现近期地量

缩量上攻 下周迎变盘市场跌不下去 就应该大胆看涨

商业观察:PVDF概念A股上市公司汇总(附股)

四川放大招 算力上太空 机器人出利空

缩量冲高回落 反弹进入后半程电池与消费电子涨幅居前

量能最能表明资金年末的态度3D打印龙头股汇总

  • 徐小明 天赢居 寒江钓客 洛阳上官 幽兰行天下
  • 老孙头谈股 秦国安 龍哥论市 蒋律 股海潜蛟
  • 山东虎子 牛家庄 孔明看市 A炼金师 先知窝窝
  • 灵枝 旗帜先明 短线高手 牛传千股 龙头1988
  • 鸿牛 短线王 律动天成 海西一狼 五域论湛
  • 狗蛋 李博文 波段龙一 股市猎枪 涨停板老黄
  • MORE图说财经

    TPU直通决赛圈!十年磨一芯 谷歌做对了什么?

    2025-11-30 08:48:10 来源:财联社
      随着Gemini 3的横空出世,谷歌TPU从幕后走到台前。英伟达GPU的霸主地位已然有被撼动迹象。

      谷歌云内部高管透露,扩大TPU的市场采用率,有望帮助公司抢占英伟达年收入份额的10%。紧接着,市场便传出“谷歌加紧向客户推销TPU”“Meta拟斥资数十亿美元购买TPU”等一系列消息。大摩分析师大胆预测,2027年谷歌TPU外销量将达到100万颗。

      另一边,投资者纷纷用脚投票,表达了对英伟达GPU市场遭遇侵蚀的担忧。英伟达官方发布紧急声明,强调自家产品比ASIC拥有更高的性能、更强的通用性以及更好的可替代性。

      从闭关修炼的隐世高手,到如今直通AI芯片的决赛圈,谷歌TPU的起源还要从12年前的那场“算力焦虑”说起。

      ▌深度学习的最优解

      2013年,深度学习在谷歌内部的应用开始不断扩散,后台模型的复杂度和算力消耗规模逐渐呈指数级增长。谷歌首席科学家Jeff Dean通过计算发现,若1亿安卓用户每天使用3分钟语音转文字服务,则消耗的算力竟高达谷歌所有数据中心总算力的两倍不止。

      堆砌GPU以获取算力固然是符合直觉的选项,但由于“冯·诺依曼瓶颈”的存在,导致诸如CPU和GPU等计算单元在处理深度学习中大规模矩阵乘法等特定任务时效率低下。相比之下,自研ASIC加速器可为机器学习任务定制架构,能将深度神经网络推理的总体能效降至原来的十分之一,长期来看成本更为可观。

      于是在2013年底,谷歌正式启动了初代TPU项目。据报道,当时谷歌内部有三个团队投身于ASIC的研发工作,包括 Google Brain、DeepMind以及专注数据中心定制硬件开发的部门。后者的TPU最终获选,其关键成员具备多年的芯片架构设计经验。如Jonathan Ross曾参与AMD的Zen架构设计,并于后来创立了AI芯片设计公司Groq。

      谷歌团队进展迅速,距立项仅过去15个月,便完成了初代TPU的设计、验证、制造,乃至在数据中心的部署。项目牵头人Norm Jouppi如此描述当时情景:“我们的芯片设计速度非常快,在没有修正错误或更改掩膜的情况下便已开始出货芯片。”

      2016年,TPU迎来了它的首个“破圈时刻”:人工智能围棋程序AlphaGo击败了世界围棋冠军李世石,引发了人们对AI的广泛关注。当时AlphaGo背后正是初代TPU在提供算力支持。

      研发上,重大的转折发生在2017年。这一年,谷歌团队在《Attention Is All You Need》中介绍了Transformer——一种基于注意力机制的全新深度学习架构。其计算特性与TPU设计高度适配,最终推动 TPU的战略地位从单一AI加速芯片升级为谷歌的AI基础设施底座。值此背景下,TPU v2应运而生。

      同样在这一年,谷歌宣布免费开放 1000 台 Cloud TPU 供开发者和研究人员使用,进一步巩固了TPU 作为AI 基础设施底座的地位。往后的日子里,谷歌引入了大规模液冷技术,将4096颗芯片组成超节点,并利用自研的环形拓扑网络实现近乎无损的跨芯片通信。在各路“外挂”的加持下,TPU朝着更强的性能一路狂飙。

      而在技术之外,谷歌也毫不悭吝地将TPU引进广告系统、搜索核心排序等赚钱产品线。在2024年的应用开发与基础设施峰会上,谷歌公开表示,TPU V6及后续版本的目标是成为“推理时代最省钱的商业引擎”。

      往后的故事逐渐为人所熟知,随着TPU v7被投入人工智能训练,当今公认的最强多模态模型Gemini 3横空出世。谷歌也摇身一变,从算力芯片领域的追随者一跃成为市场眼中的AI新王。人们不禁好奇,十年磨一芯,谷歌究竟做对了什么?

      ▌难以复制的生态护城河

      回顾谷歌的造芯故事,里面没有通往AGI的宏大愿景,也没有遵循Scaling Law的绝对指引,而是始终紧扣一项更符合商业逻辑,也更显务实的指标——成本。

      如果深究,则TPU的历史可以一直追溯到2006年,那时谷歌便开始考虑为神经网络构建ASIC的可能性。只不过由于当时互联网正处于爆发前夜,谷歌数据中心的GPU算力仍有大量冗余,相关需求并不迫切,因此并未透支额外成本来实际推进这一计划。

      这种“量体裁衣”的理念甚至体现在TPU的设计架构本身。与GPU不同,TPU采用极简的“脉动阵列”架构,这虽然付出了放弃硬件通用性的代价,但也意味着能够剥离掉一切无关硬件,从而保证在最小单位追求深度学习的最大效率。

      现如今,这种设计架构显然为谷歌带来了远超“节省成本”的回报,即与其他顶尖AI厂商掰手腕的资本。

      更重要的意义在于,与其他厂商严重依赖外部算力和云设施不同,谷歌以TPU为底座的垂直整合路线,构建出了“芯片-云-模型-应用”的全栈AI能力链条。正如券商分析师们所言,这令其形成了难以复制的生态护城河,也赢得了定义未来AI基础设施的入场券。

      (文章来源:财联社)

    热门搜索

    为您推荐