点击收看英伟达FY2025Q4业绩电话会议回放$英伟达(NVDA)$操作员谢谢。[操作员指示]。您的第一个问题来自 Cantor Fitzgerald 的 CJ Muse。请继续。CJ Muse是的,下午好。谢谢你回答这个问题。我想对我来说,Jensen,随着 Tepcom 的计算和强化学习显示出如此大的前景,我们清楚地看到训练和推理之间的界限越来越模糊——这对潜在推理专用集群的潜在未来意味着什么?你如何看待对 NVIDIA 和你的客户的整体影响?谢谢。黄仁勋是的,我很欣赏 CJ 现在有多种扩展定律。有预训练扩展定律,它将继续扩展,因为我们拥有多模态性,我们有来自推理的数据,现在用于进行预训练。然后第二个是训练后扩展定律,使用强化学习人工反馈、强化学习 AI 反馈、强化学习、可验证奖励。训练后使用的计算量实际上高于预训练。这在某种程度上是合理的,因为您可以在使用强化学习时生成大量合成数据或合成生成的 token。AI 模型基本上是生成 token 来训练 AI 模型。这就是训练后。第三部分,也就是您提到的测试时间计算或推理、长时间思考、推理扩展。它们基本上都是相同的想法。然后您有一个思路,您进行了搜索。生成的 token 数量,所需的推理计算量已经是一开始大型语言模型的一次性示例和一次性能力的 100 倍。而这仅仅是个开始。这只是个开始。下一代模型可以拥有数千倍,甚至希望是极其周到的、基于模拟和基于搜索的模型,其计算量可能是今天的数十万倍、数百万