当前位置: 系统豆 >  微软资讯 >  黄仁勋:为什么说NVIDIA的护城河如此深不可测?

黄仁勋:为什么说NVIDIA的护城河如此深不可测?

更新时间:2024-10-14 23:36:41作者:xtdptc
黄仁勋:为什么说NVIDIA的护城河如此深不可测?

AI 就像一个高速旋转的飞轮,它不断学习、进步。很多人以为只要造出性能更强的芯片,就能让这个飞轮转得更快,就像以前只要提高 CPU 速度就能让电脑跑得更快一样。

但黄仁勋告诉我们,时代变了!现在,AI 不仅仅需要强大的芯片,还需要海量的数据、复杂的算法以及高效的软件和工具。NVIDIA 不只是提供最快的芯片,而是打造了整个 AI 飞轮!

他说:性能很重要,那是旧的思维方式。之所以说是旧的思维方式,是因为软件是静态的,比如在 Windows 上运行的某些应用程序,这意味着改进系统的最佳方法就是制造越来越快的芯片。但我们意识到,机器学习不是人类编程,机器学习不仅仅是软件,它关乎整个数据管道,事实上,机器学习的飞轮才是最重要的。

这就像一个高效的工厂,NVIDIA 不仅提供了最先进的机器(芯片),还提供了完善的流水线(软件和工具),甚至还培训了熟练的工人(算法和库),让整个工厂高效运转。

为什么 NVIDIA 的优势越来越大?

全栈能力:NVIDIA 不只是做芯片,他们还开发了 CUDA、cuDNN、RAPIDS 等一系列软件和库,这些软件就像机器的操作系统和应用软件,让 NVIDIA 的芯片发挥出最大威力。

并行计算专家:NVIDIA 专注于并行计算,他们的芯片架构天生就适合处理 AI 计算,就像专门为工厂设计的机器,效率更高。

持续优化:NVIDIA 不断改进芯片、软件和算法,让整个 AI 飞轮越转越快,就像不断改进工厂的机器、流程和工人技能,提高生产效率。

生态系统:NVIDIA 拥有庞大的用户群体和开发者社区,他们使用 NVIDIA 的平台开发各种 AI 应用,就像工厂吸引了大量的供应商和客户,形成了一个繁荣的生态系统。

有人担心其他公司会开发出更强的芯片,挑战 NVIDIA 的地位。但黄仁勋认为, NVIDIA 的优势在于整个系统,而不仅仅是芯片。即使其他公司造出了性能更强的机器,也很难复制 NVIDIA 的流水线、工人和生态系统。

就像一个技术精湛、经验丰富的老师傅,即使别人有了更好的工具,也很难超越他多年的积累和沉淀。这就是 NVIDIA 的护城河,它比我们想象的更深更广!

黄仁勋认为,未来的 AI 将会更加复杂,需要处理更多的数据,例如视频数据。NVIDIA 已经开始布局,他们开发了专门用于处理视频数据的芯片和软件,就像工厂为了生产新产品,引进了新的机器和技术。

**NVIDIA 也看到了推理的重要性。**推理是指利用训练好的 AI 模型进行预测和分析,例如图像识别、语音识别等。NVIDIA 正在开发更高效的推理芯片和软件,就像工厂为了提高产品交付速度,优化了物流和配送流程。

所以,NVIDIA 不仅仅是一家芯片公司,而是一家 AI 平台公司。他们正在构建未来的 AI 基础设施,帮助我们解决更复杂的问题,创造更美好的未来。



以下是黄仁勋的中文翻译,重点关注 NVIDIA 的竞争优势:

[主特人]: 关于 NVIDIA,大众对其真正护城河的深度存在误解。人们认为只要有人发明了更好的芯片,你认为 NVIDIA 如今的护城河比三四年前更宽还是更窄?

[黄仁勋]: 我很感谢你认识到计算方式的改变。事实上,人们过去认为(现在很多人仍然这么认为)。你设计出更好的芯片,它有更高的浮点运算能力,有更多的位和字节,你看他们的主题演讲幻灯片,上面全是这些浮点运算能力、条形图之类的东西,这些都很好,我的意思是,性能很重要,这些东西从根本上来说很重要。**然而,那是旧的思维方式。之所以说是旧的思维方式,是因为软件是静态的,比如在 Windows 上运行的某些应用程序,这意味着改进系统的最佳方法就是制造越来越快的芯片。但我们意识到,机器学习不是人类编程,机器学习不仅仅是软件,它关乎整个数据管道,事实上,机器学习的飞轮才是最重要的。**那么,你该如何考虑赋能这个飞轮?一方面,赋能数据科学家和研究人员在这个飞轮中提高效率?这个飞轮从一开始就很复杂。很多人甚至没有意识到,需要 AI 来筛选数据以训练 AI,而 AI 本身就很复杂。

[主特人]:AI 本身也在进步,它也在加速,对吧?同样,当我们思考竞争优势时。它是所有这些系统组合的结果…

[黄仁勋]:因为有更智能的 AI 来筛选数据,我们现在甚至有了合成数据生成和各种不同的数据筛选和呈现方式…所以在训练开始之前,就涉及到大量的数据处理。所以,人们会想,哦,PyTorch,这就是全部。它确实很重要,但别忘了,PyTorch 之前和之后都有大量的工作要做。思考飞轮才是正确的思路。**你应该如何思考整个飞轮,如何设计一个计算系统、一个计算架构,来帮助你尽可能有效地利用这个飞轮?它不是应用程序训练的一个环节,你明白吗?**那只是一步。

[黄仁勋]: 飞轮的每一步都很难。所以,你首先应该做的,不是思考如何让 Excel 更快,如何让 Doom 更快,那是过去的想法,不是吗?现在你必须思考,**如何让这个飞轮更快?这个飞轮有很多不同的步骤,机器学习并不容易,你们都知道。OpenAI 或 X 或 Gemini 和 DeepMind 的团队所做的都不容易。我的意思是,他们所做的都不容易。所以我们决定,这才是你真正应该思考的问题,这是你想要的整个过程。你想加速其中的每一部分,你想尊重阿姆达尔定律。阿姆达尔定律表明,如果这是 30% 的时间,我把它加速了三倍,我并没有真正加速整个过程那么多,明白吗?**你真的想创建一个加速每一步的系统,因为只有做完整件事,你才能真正地显著提高周期时间。这个飞轮,这个学习速度,最终才是导致指数级增长的原因。所以,我想说的是,一个公司对你真正所做事情的看法会体现在产品上,对吧?请注意,我一直在谈论这个飞轮…

[主特人]: … 是的,没错。

[黄仁勋]: … 我们加速了一切。现在,现在主要的焦点是视频,很多人专注于物理 AI 和视频处理,对吧?想象一下前端,每秒进入系统的数据量达到 TB 级别。举个例子,一个管道要如何接收所有这些数据,并为训练做好准备。是的,整个过程都是 CUDA 加速的。人们今天只想着文本模型,是的,但未来是视频模型,以及使用一些像 01 这样的文本模型在训练前处理大量数据。是的,语言模型将参与每一个… 训练语言模型,训练这些大型语言模型,花费了业界巨大的技术和精力。**现在,我们在每一步都使用大型语言模型。**这非常惊人。

[主特人]: 我不想把这个问题过于简单化,但我们总是从投资者那里听到,对吧?是的,但是定制 ASIC 呢?是的,但他们的竞争优势会被这个打破。我听到你说的是,在一个组合系统中,优势会随着时间的推移而增长。我听到你说,我们的优势今天比三四年前更大,因为我们正在改进每一个组件,这是组合式的。这就是… 你知道的,当你想到英特尔作为一个商业案例研究时,对吧?他们曾经在堆栈中拥有相对于你们今天的地位而言的绝对优势,也许只是,再次稍微总结一下。你知道,将你们的竞争优势与他们在周期顶峰时的竞争优势进行比较和对比。

[黄仁勋]: 英特尔非常出色。英特尔之所以非凡,是因为他们可能是第一家非常擅长制造、工艺工程和制造的公司。在制造之上的一个环节,也就是构建芯片,设计芯片和架构芯片,采用 x86 架构,构建越来越快的 x86 芯片,这是他们的才华所在。他们将此与制造融合在一起。我们的公司有点不同,我们认识到,**并行处理不需要每个晶体管都非常出色。串行处理需要每个晶体管都非常出色。并行处理需要大量的晶体管才能更具成本效益。**我宁愿拥有多 10 倍的晶体管,速度慢 20%,也不愿拥有少 10 倍的晶体管,速度快 20%,明白吗?他们希望相反。所以,单线程性能、单线程处理和并行处理非常不同。因此,我们观察到,事实上,我们的世界不是关于向下做得更好。我们希望尽可能地好,但我们的世界实际上是关于向上做得更好。

并行计算、并行处理很难,因为每一种算法都需要不同的方式来重构和重新设计算法以适应架构。人们没有意识到的是,你可以有三种不同的 ISA,CPU ISA。它们都有自己的 C 编译器。你可以把软件编译成 ISA。这在加速计算中是不可能的。这在并行计算中是不可能的。提出架构的公司必须提出他们自己的 OpenGL。因此,我们通过名为 cuDNN 的领域特定库彻底改变了深度学习。如果没有 cuDNN。就没有人会谈论 cuDNN。因为它在 Py 的下一层,在 TensorFlow 和以前的 Caffe 和 Theano,以及现在的 Triton 下面。现在有各种各样的框架。所以这个领域特定库,cuDNN。一个名为 OPTIX 的领域特定库,我们有一个名为 cuQuantum 的领域特定库,RAPIDS,用于特定行业算法的 Ariel 列表,它们位于 PyTorch 下面… 就像我经常听到的那样,你知道,如果 LLM,如果我们没有发明它,上面的应用程序就无法工作,对吧?你们明白我的意思吗?所以 NVIDIA 真正擅长的是数学,是算法,对吧?在上面的科学和下面的架构之间的融合,这就是我们真正擅长的。

[主特人]: 两年前,我和布拉德和你一起吃晚餐,我们问了你一个问题,你认为你的护城河在推理方面会像在训练方面一样强大吗?

[黄仁勋]: 是的。你刚才提到了很多这些要素,比如,可组合性,或者… 我们不知道在一个时间点给客户的总组合是什么。能够在两者之间保持灵活性非常重要。

[黄仁勋]: 但是,你能谈谈,既然我们现在处于推理时代?它是,推理,训练,是大规模推理。我的意思是,你是对的。所以,**如果你训练得好,你很可能推理得好。如果你在没有考虑的情况下在这个架构上构建它,它将在这个架构上运行。**可以吗?你仍然可以针对其他架构进行优化,但至少,因为它已经在 NVIDIA 上构建了,它将在 NVIDIA 上运行。**当然,另一方面是资本投资方面,当你训练新模型时,你希望你最好的新设备用于训练,对吧,这就留下了你昨天使用的设备。这些设备非常适合推理。所以,在新基础设施后面有一系列免费设备,一系列免费基础设施,它们都兼容 CUDA。**所以,我们非常自律地确保我们始终兼容,以便我们留下的一切都将继续保持出色。




关注《森林聊AI商业》公众号


了解 AI 如何塑造商业的未来

Copyright ©  2009-2024 系统豆 www.xtdptc.com 版权声明 网站地图