不论谁赢了ChatGPT大战 英伟达都是最后的赢家

截图来源:Nvidia

2023 财年,数据中心总收入增长 达到创纪录的41% 150.1 就第四季度而言,数据中心的收入仅为1亿美元。 36.2 1亿美元贡献了英伟达全公司的收入 60% 左右。

数据中心增长的基本磁盘来自新一代旗舰产品 H100 出货量持续上升,云渗透率持续增长,超大客户扩大 AI 布局。

就 H100 在第二季度,其收入已经远远高于 A100,后者的收入份额持续下降。据报道,H100 比较训练 A100 快 9 倍,在基于 Transformer 比较大型语言模型的推理 A100 快 30 倍。

与此同时,英伟达正在为越来越多云服务提供商提供快速增长(Cloud Service Providers,简称 CSP)包括甲骨文和一些专注于提供服务的服务 GPU 云服务提供商(GPU specialized CSPs)。在过去的 4 个季度中,CSP 客户贡献了数据中心的收入 40% 左右。

下一步:AI 即服务

在财务报告电话会上,老黄透露了英伟达的新趋势——AI 云上的企业级服务。虽然十几天后会有更多的信息,但是会有更多的信息。 GTC 会议宣布,但英伟达正在与领先的云服务提供商合作 AI 即服务(AI-as-a-service),企业可以访问英伟达 AI 平台。根据官方消息,客户将能够控制它 NVIDIA AI 每一层(包括 AI 生成超级计算机、加速库软件或预训练 AI 模型等)用作云服务。

老黄说,「技术突破的积累 AI 到了拐点。生成式。 AI 多功能性和能力引发了世界各地企业的发展和部署 AI 战略紧迫感。然而,AI 超级计算机基础设施、模型算法、数据处理和训练技术仍然是大多数人无法克服的障碍。」

基于这样的行业痛点,英伟达商业模式的下一个层次是帮助每个企业客户使用它 AI。

客户可以使用自己的浏览器 NVIDIA DGX Cloud 来使用 NVIDIA DGX AI 该服务已经在超级计算机中 Oracle Cloud Infrastructure 可用,预计很快就会出现 Microsoft Azure、Google Cloud 与其他平台上线。在 AI 客户将能够访问平台软件层 NVIDIA AI Enterprise,训练和部署大型语言模型或其他大型语言模型 AI 工作负载。而在 AI 模型是服务层,英伟达将为其业务建立独家生成 AI 企业客户提供模型和服务 NeMo 和 BioNeMo 可定制 AI 模型。

黄仁勋认为,根据其市场前景,ChatGPT 让人们意识到计算机编程的民主化,几乎任何人都可以用人类语言向机器解释要执行的具体任务。所以,全世界 AI 基础设施的数量将会增加,「你会看到这些 AI 工厂无处不在」。人工智能的生产将像制造业一样,未来几乎每个公司都将以智能的形式生产软件产品。数据进来了,只做一件事,利用这些数据生成一个新的更新模型。

他进一步解释了 AI 工厂,「当原材料进入时,建筑物或基础设施将启动,然后出现一些改进的东西,这是非常有价值的,这就是所谓的工厂。所以我希望在世界各地看到它 AI 工厂。其中一些将在云中托管。其中一些将是本地的。有些会很大,有些会很大,然后有些会更小。所以我完全期待着它会发生。」

事实上,老黄是关于的 AI 工厂的愿景正在发生。上个月,他在公开演讲中声称,自从 ChatGPT 自从它出现以来,它可能已经出现了 500 开发出令人愉快、有用的家新创业公司 AI 应用程序。

基于这一前景,英伟达对数据中心的未来充满信心。CFO Cress 通过新的产品周期和生成 AI 随着各行业人工智能的不断采用,数据中心部门将继续实现增长。她说:「除了与各大超大型云服务提供商合作外,我们还与许多消费互联网公司、企业和初创企业合作。这一机会对促进数据中心的强劲增长具有重要意义,并将在今年加速增长。」

汽车向上,游戏向下

除数据中心外,英伟达其他业务板块——游戏、汽车、专业视觉等,本季度的表现有好有坏。

其中,汽车业务表现良好。财年总收入增长 达到创纪录的60% 9.03 1亿美元。第四季度收入创下。 2.94 与去年同期相比,1亿美元的纪录增长了 与上一季度相比,135%增长 17%。

无论是环比还是同比,汽车业务都在继续增长。根据英伟达,这些增长反映了自动驾驶解决方案的销售增长、电动汽车制造商的计算解决方案和 AI 驾驶舱解决方案销售强劲。电动汽车和传统汽车 OEM 客户的新项目推动了这一增长。

值得注意的是,今年 1 月初举行的 CES 在会议上,英伟达宣布与富士康建立战略合作伙伴关系,共同发展 NVIDIA DRIVE Orin 和 DRIVE Hyperion 自动驾驶汽车平台。

相比之下,游戏业务仍然深陷泥潭。

过去几个季度,RTX 4080 销售疲软、视频游戏行业下滑、加密货币市场疲软、去库存压力等因素,使英伟达的游戏业务继续下滑,特别是第三季度,游戏业务收入同比暴跌 51%。但就像 CFO Cress 所言,「最低点可能已经过去了,事情可以改善。」

第四季度,英伟达游戏收入为 18.3 亿美元,同比下降 环比增长46% 整个财年收入下降16% 27%。本季度和财年的同比下降反映了全球宏观经济低迷和中国疫情控制对游戏需求的影响。

但与第三季度相比,英伟达的游戏业务仍有所增长。这是因为它是基于 Ada Lovelace 架构的新 GeForce RTX GPU 推出。黄仁勋也肯定了这一观点,他说:「游戏产业正在从新冠肺炎疫情后的低迷中复苏,玩家热烈欢迎使用 AI 神经渲染的 Ada 架构 GPU。」

最近,游戏行业复苏的好迹象是:动视暴雪(Activision Blizzard)在第四季度,收入正增长,超出预期。但我们仍然需要警惕动视暴雪 PC 和主机一起卖游戏,只有 PC 销售与英伟达有关,主机制造商使用 AMD 显卡。

此外,在财务报告发布前一天,英伟达宣布与微软签署一份为期的合同 10 年协议,将 Xbox PC 引入游戏阵容 GeForce NOW,包括我的世界(Minecraft)》、《光环(Halo)》以及微软模拟飞行(Microsoft Flight Simulator)》。微软完成动视收购后,GeForce NOW 将新增使命召唤(Call of Duty)》和《守望先锋》(Overwatch)》等游戏。

除了游戏业务,专业视觉和 OEM 与去年相比,这两个部门的业务也大幅下滑。由此可见,半导体市场正在经历一个罕见的下行周期。

第四季度专业视觉业务收入 2.26 与去年同期相比,1亿美元下降 与上一季度相比,65%增长 13%财年总收入下降。 27% 至 15.4 1亿美元。本季度和财年的同比下降反映了对合作伙伴的销售较少,以帮助减少渠道库存。台式工作站的环比增长 GPU 推动的。

OEM 与其他收入同比下降 56%,环比增长 15%的财年收入下降。 61%的季度和财年同比下降 OEM 加密货币挖掘处理器(CMP)促进。财年 2023 中,CMP 收入微不足道,但在财年 2022 中为 5.5 亿美元。

为什么英伟达是风口上的赢家?

英伟达 30 年的发展史可分为两部分。从 1993 年到 2006 2000年,英伟达的目标是在竞争激烈的图形卡市场中生存并创造 GPU 这一革命性技术;从 2006 年到 2023 如何利用年度转型? CUDA 这个平台,将 GPU 应用于机器学习、深度学习、云计算等领域。

后者让英伟达走上了人工智能之旅,今天的市值已经超过了老霸主英特尔和 AMD,也是在今天生成的 AI 热潮下,英伟达再次站在风口的前提下。

在 2019 在一年的主题演讲中,黄仁勋分享了英伟达一次又一次地追溯到这个行业的起源——发现了真正重要的问题并坚持下去。他说:「这使我们能够一次又一次地发明和重塑我们的公司,追溯我们的行业。我们发明了 GPU。我们发明了编程着色。是我们让电子游戏变得如此美丽。我们发明了 CUDA,它将 GPU 成为虚拟现实的模拟器。」

回到英伟达的起点。当时 Windows 3.1 刚出来,个人电脑革命才刚刚开始。英伟达想找到一种方法让它开始。 3D 图形消费和民主化使大量人能够接触到这项技术,从而创造一个当时不存在的新行业——电子游戏。他们认为,如果这样做,它可能会成为世界上最重要的技术公司之一。

原因是三维图形主要表现为对现实的模拟,对世界的模拟相当复杂。如果你知道如何创建一个难以区分真假的虚拟现实,模拟物理定律,并引入人工智能,这一定是世界上最大的计算挑战之一。沿途衍生的技术可以解决惊人的问题。

最具代表性的案例是通过 CUDA 该方案对计算和人工智能产生了创新影响,也使其在这一波生成 AI 在浪潮中处于最佳生态位置。

尽管 GPU 发现作为一种计算设备,往往被认为有助于引导深度学习「寒武纪大爆炸」,但 GPU 不是单独工作的。英伟达内外的专家强调,如果英伟达在那里 2006 年没有将 CUDA 如果将计算平台添加到组合中,就不会发生深度学习革命。

CUDA(Compute Unified Device Architecture)英伟达于是计算平台 2006 年度推出的软件和中间件堆栈,其通用的并行计算架构可以使 GPU 通过解决复杂的计算问题。 CUDA,研究人员可以编程和访问 GPU 计算能力和极致并行性的实现。

并在英伟达发布 CUDA 之前,对 GPU 编程是一个漫长而艰巨的编码过程,需要编写大量的低级机器代码。免费使用 CUDA,在英伟达的硬件上,研究人员可以更快、更便宜地开发他们的深度学习模型。

CUDA 本发明起源于可程式化 GPU 的想法。英伟达认为,为了创造一个美丽的世界,首先要做的是模拟它,这些物理定律模拟是一个超级计算机负责任的问题,是一个科学的计算问题,因此,关键是:如何减少超级计算机可以解决问题,进入正常计算机的大小,让你可以模拟它,然后生成图片。这使得英伟达成为可程式化 GPU,这是一个巨大的赌注。

当时,英伟达花了三四年时间研发 CUDA,最后,我发现所有产品的成本都必须上升近两倍,当时并没有给客户带来价值,客户显然不愿意付费。

为了让市场接受,英伟达只能增加成本,而不是价格。黄仁勋认为,这是一个计算架构,每台电脑都必须运行才能让开发者对这个架构感兴趣。因此,他继续坚持,最终创造了 CUDA。但在那段时间里,英伟达的利润「摧毁性」地面下跌,股票下跌 1.5 美元持续低迷 5 年,直到橡树岭国家实验室选择英伟达 GPU 建造公共超级计算机。

然后,世界各地的研究人员开始使用它 CUDA 从分子动力学、计算物理学、天体物理学、粒子物理学、高能物理学等不同的科学领域,一个接一个的应用,一个接一个的科学领域。 CUDA。两年前,诺贝尔物理奖和化学奖得主也是因为 CUDA 帮助完成自己的研究。

当然,CUDA 它还为英伟达的游戏提供了动力,因为虚拟世界与现实世界中的流体力学相同,如粒子物理爆炸和建筑崩塌,这与英伟达在科学操作中观察到的相同,都是基于相同的物理规则。

然而,CUDA 在英伟达发布后的前六年,英伟达还没有「全力投入」AI,直到 AlexNet 神经网络的出现。

即将到来的 GTC 会议上,黄仁勋受邀 OpenAI 联创兼首席科学家 Ilya Sutskever,而 Sutskever 见证了英伟达在人工智能领域崛起的故事。

Sutskever 与 Alex Krizhevsky 及其博士生导师 Geoffrey Hinton 一起创建了 AlexNet,这是计算机视觉领域的开创性神经网络 2012 年 10 月赢得了 ImageNet 竞赛。获奖论文表明,该模型实现了前所未有的图像识别精度,直接导致了未来十年人工智能的主要成功故事——从 Google Photos、Google Translate 和 Uber 到 Alexa 和 AlphaFold 的一切。

根据 Hinton 如果没有英伟达,AlexNet 它不会出现。英伟达的并行处理能力得益于数千个计算核心的支持 GPU 被证明是运行深度学习算法的完美选择。Hinton 即使在一次演讲中,近千名研究人员也应该购买 GPU,因为 GPU 它将成为机器学习的未来。

在 2016 黄仁勋在接受福布斯采访时表示,他一直知道英伟达图形芯片的潜力不仅仅是为最新的视频游戏提供动力,但他没想到会转向深度学习。

事实上,英伟达的深度神经网络 GPU 的成功是「一个奇怪的幸运巧合」,一位名叫 Sara Hooker 的作者在 2020 年发表的文章「硬件彩票」讨论了各种硬件工具成功失败的原因。

她说,英伟达的成功就像「中了彩票」,这在很大程度上取决于「硬件进度与建模进度正确对齐时间」。这种变化几乎是瞬间发生的。「一夜之间,需要 13000 个 CPU 的工作两个 GPU 就解决了」她说。「这是它的戏剧性。」

然而,英伟达并不同意这一说法,并表示 2000 英伟达从年中开始就意识到了 GPU 即使他们不知道人工智能将成为最重要的市场,加速神经网络的潜力。

在 AlexNet 几年后,英伟达的客户开始购买大量的产品 GPU 当时用于深度学习,Rob Fergus(现任 DeepMind 研究科学家甚至告诉英伟达应用深度学习研究副总裁 Bryan Catanzaro,「机器学习研究人员花了多少时间 GPU 编写内核,这太疯狂了——你真的应该研究一下」。

黄仁勋逐渐意识到 AI 这是该公司的未来,英伟达将立即赌注一切 AI 身上。

于是,在 2014 年的 GTC 在主题演讲中,人工智能成为焦点,黄仁勋说机器学习是「当今高性能计算领域最令人兴奋的应用之一」。「其中一个领域已经取得了令人兴奋的突破,巨大的突破,神奇的突破是一个被称为深度神经网络的领域。」黄仁勋在会上说。

此后,英伟达加快了布局 AI 技术不再只是一个家庭 GPU 计算公司逐步建立了一个强大的生态系统,包括芯片、相关硬件和一套优化芯片和系统的软件和开发系统。这些最好的硬件和软件组合平台可以最有效地生成 AI。

可以说,GPU + CUDA 改变了 AI 游戏规则。中信证券分析师徐英博在一个播客节目中评论道:英伟达一直在做一件非常聪明的事情,那就是软硬结合。在 GPU 在硬件半导体的基础上,它衍生出基于通用计算的东西 CUDA。这促使英伟达获得了软件和硬件的双重规模效应。

在硬件端,由于它是图形和计算的统一架构,其通用性保证了它的规模,规模稀释了它的研发成本,因此硬件本身可以通过规模获得比较优势的研发成本。

在软件方面,因为它有一个巨大的开发者生态系统,这些宝贵的软件开发人员,即使这些软件开发人员改变了一家公司,他也可能继续使用它 CUDA 的软件。

主要参考文献:

1)《ChatGPT 火了,英伟达笑了,中国电子报

2)Nvidia: The GPU Company (1993-2006)

3)Nvidia: The Machine Learning Company (2006-2022)

4)NVIDIA CEO Jensen Huang - AI Keynote Session at MSOE

5)Jensen Huang Q&A: Why Moore』s Law is dead, but the metaverse will still happen

6)How Nvidia dominated AI—and plans to keep it that way as generative AI explodes

7)中信证券许英博:从英伟达看国内 GPU 挑战与前景 - 小宇宙 - 创业内幕

本文的部分内容来自网络,仅供参考。如有侵权行为,请联系删除。

相关推荐