Episode Details
Back to Episodes
2773.英伟达CUDA的优势及挑战
Description
欢迎收听雪球出品的财经有深度,雪球,国内领先的集投资交流交易一体的综合财富管理平台,聪明的投资者都在这里。今天分享的内容叫英伟达CUDA的优势及挑战,来自wangdizhe。
d s 对英伟达的挑战,并不是简单的“算法平权”,还有开源对闭源的挑战。如果只是了解a h100或者gb200这种东西,意义不大,英伟达的护城河主要是CUDA
CUDA的故事起步于2006年11月份发布的GeForce8800GTX,19年前了,那是一个起点。2007年6月份发布了英伟达的通用图形处理器、CUDA出世,这个跳跃是让显卡不仅能用在图像绘制了,也能用在其他方面。
A I 的本质,其实和 B T C 的哈希算法类似,都是大量的数学计算。这也可以解释为啥近10年金融越来越“数学化”,包括做对冲的幻方能弄出 d s,也是因为它是最具“金融数学化底蕴的对冲私募”。
主要就是transformer那套,也就是比如从一维的向量到二维的矩阵,然后再到三位或高位的张量,核心不在于算的多难,而在于算的题量很大。
G P U 更像一个“事业部经理”,而 C P U 类似于一个“ c e o ”。 i t 世界一开始,c e o 比较重要,因为机会多多,需要面面俱到,就像80到90年代做生意,压对方向很重要。但随着时间发展,需要不断“细分而深化”,尤其是显卡计算部分,这部分其实初期是游戏推进的,但后期科学计算的需求上来了,把控机会需要更好的“项目经理”。
G P U 内部有很多逻辑计算单位,每个单元基本上只做简单的加减乘除,靠着分工协同完成庞大的计算任务。CUDA就是G P U这个项目部经理手下的“调度总管”,比如计算张量这个活,就具体分派谁谁来做,也就是CUDA的作用,其实就是“算力调度者”,它优化算法效率。
这个作用类似于斯隆对通用汽车的管理,也就是在具体的“算力事业部内”,CUDA这个算力调度者,甚至有比肩整个事业部经理的实力。因为所谓的算力,A M D 也有,也就是经理不稀罕,调度总管那套管理方法,却是稀缺的。
算力管理的优化,也是 d s 之所以引人瞩目的地方,因为人们认为“算力调度工作”应该在CUDA逻辑下优化,但没想到 d s 用了一些方法,似乎实现了更大的优化。人们好奇的就是它是如何实现的?以及优化算力之后,对于未来算力需求是不是降低?以及这对于“算力优化”世界,意味着什么?
CUDA的好处,是如果研究者,只会 a i 模型的训练及推理方法,而不会任务分类的话,也没事,英伟达有自动分配的程序库,这样玩ai的,只需要专注于训练或推论就行了。这降低了项目开发的门槛,等于是一个特殊的“懒人包”。所以开发人员都喜欢用,然后20年过去了,用的人越来越多,产生生态影响力和开发依赖度。
未来英伟达还要推行量子计算,比如2023年就推出了 CUDA Quantum 平台,这部分也是为未来布局。其实逻辑核心依然是“并行计算”,也就是用多个处理单元,同时推进,计算量越大,越快,就越容易“大力超快出奇迹”。从一定程度上,可以理解CUDA在G P U 领域,是类似于x86在 C P U 领域的那种“专利优势”。
CUDA未来就没有挑战么?当然有的,大概4个维度
1、硬件挑战
首先基本上,每个做 C P U 的,其实都看着别人火而眼馋。A M D 的mi300x,直接对标英伟达的H100,价格基本是其三分之一。然后 A M D还通过ROCm平台通过兼容CUDA代码吸引开发者,弱化CUDA生态。英特尔虽然遇到困境,但有美国政府撑腰,也没闲着,其G P U 加速器结合了Xe架构和开放标准SYCL,通过OneAPI实现跨硬件统一编程,降低对CUDA的依赖。
Listen Now
Love PodBriefly?
If you like Podbriefly.com, please consider donating to support the ongoing development.
Support Us