当前位置:首页 > 芯闻号 > 充电吧
[导读]从Nervana的历史说起首先,我们看看 英特尔 与Nervana之间的故事。在被英特尔收购之前,Nervana声称其产品性能将比GPU高至少10倍。然后发生了一件有趣的事,NVIDIA的Tensor

从Nervana的历史说起

首先,我们看看 英特尔 与Nervana之间的故事。在被英特尔收购之前,Nervana声称其产品性能将比GPU高至少10倍。然后发生了一件有趣的事,NVIDIA的TensorCores让所有人感到惊讶,因为TensorCores的性能不是Pascal的2倍,而是5倍。然后NVIDIA用NVSwitch再将其性能翻倍,这使得它能够实现惊人的高性能(售价40万美元,非常昂贵)8 GPU DGX-2服务器,它的性能击败了大多数(如果不是全部)竞争对手。

与此同时,NVIDIA CuDNN库和驱动程序的性能提升了大约一倍。它还构建了基于GPU的云,让GPU的使用非常简单,只需点击并下载大约30个深度学习和工作负载的优化软件堆栈容器即可。所以,正如前面文章提到的那样,英特尔的10倍性能优势已经消失,Nervana不得不重新设计,英特尔承诺将在2019年底推出新芯片。英伟达基本证明了拥有扎实基础的10000多名工程师可以超越50名顶级的工程师(雷锋网注,Nervana被收购时拥有50人的团队)。对此没人应该感到惊讶,对吧?

10000名工程师团队的优势

进入到2019年,竞争对手再次声称他们研发中的芯片有超越英伟达GPU 10甚至100倍的性能优势。需要注意的是,NVIDIA拥有规模达10000名工程师的团队,在全球与顶尖研究人员和最终用户建立协作关系。现在,他们正在为NVIDIA的下一代7nm芯片寻找最佳设计,在我看来,这将是英伟达的产品从“带有AI的GPU芯片”转变为“带有GPU的AI芯片”的转变。

图1:NVIDIA的DGX-2超级计算机一体机可在NVSwitch上互连的16个V100 GPU上提供2 peta-ops的AI性能

NVIDIA工程师可以为下一代产品增加多少“沙子”(逻辑区域)?虽然以下分析很简单,但对于寻找关键问题的答案是有用的。

让我们从具有出色性能的ASIC—— 谷歌 TPU开始,我看到有分析师估计每个TPU芯片大约集成了20-25亿个晶体管。Volta V100在12nm制造工艺中拥有大约210亿个晶体管,它是台积电可以制造的最大芯片。随着NVIDIA使用的制造工艺从12nm变为7nm,芯片可以包含大约1.96(1.4x1.4)的晶体管。因此,从理论上讲,如果NVIDIA没有添加图形逻辑单元(不可否认),它将拥有另外200亿个晶体管,这大约是TPU逻辑量的十倍。假设逻辑差2倍。在这种情况下,NVIDIA工程师仍然有5倍的逻辑单元用于AI功能。现在,NVIDIA可能全力以赴提升性能,而非降低成本或功耗。

在训练市场,这就是用户需要的——更短的训练时间。关于NVIDIA可能会做哪些改良有很多观点,包括片上内存或处理器中更多的TensorCores。

我的观点是,NVIDIA毫无疑问拥有可用于芯片创新的储备,就像TensorCores一样。我采访过许多AI芯片初创公司,但我最尊重的那些人告诉我不要低估NVIDIA,也不要认为NVIDIA被锁在GPU的思维中。NVIDA DLA和Xavier,这两个ASIC和SoC,证明了NVIDIA可以构建各种加速器,而不仅仅是GPU。因此,许多这些创业公司的CEO决定不用NVIDIA的方式,而是首先进入推理市场。

我认为NVIDIA在训练市场的劣势不会长期存在,它现在的问题可能是芯片成本高,但对于AI训练,客户愿意付出代价。此外,在推理市场,NVIDIA的Xavier是令人印象深刻的芯片。

深度学习寒武纪爆炸有利于可编程性

让我们回到寒武纪爆炸的想法。NVIDIA指出我们还处于AI算法研究的早期阶段。比如用于图像处理的卷积神经网络的ASIC可能(并且几乎肯定会)对于其它网络比如GAN,RNN或尚未发明的神经网络表现就会非常糟糕。

不过,如果NVIDIA能够解决急待解决的内存墙问题,GPU的可编程性再加上NVIDIA工程师共同构成的生态系统,GPU应该可以相当快地适应一种新的神经网络处理形式。NVIDIA已经通过NVLINK创建8个GPU和256GB高带宽(HBM)内存网络,以极高的价格为代价解决内存问题。我们不得不等待下一代GPU,以了解它是否以及如何解决延迟和带宽问题,这将需要大约10倍HBM性能的内存。

推理战争

边缘和数据中心推理市场需求多样,并且有望实现快速增长,但我怀疑的是,大众推理市场是否会成为一个特别具有吸引力的市场。毕竟,随着越来越多公司关注和抢占这一市场,产品的最终利润率可能相当薄弱。

现在,一些推理很简单,但有些推理却非常困难。后者的市场将保持较高的利润率,因为只有配备CPU的复杂SoC(比如Nervana)、GPU、DSP和ASIC等具备并行处理能力的处理器才能为自动驾驶等提供所需的性能。

任职于英特尔的Naveen Rao最近在Twitter上发布的消息透露, Nervana推理处理器可能是基于10nm的 SoC,集成Ice Lake CPU内核。NVIDIA已经引领了这种方法,比如用于自动驾驶的Xavier SOC。 Xilinx 也采用了类似的方法,今年晚些时候,它的Versal将推出。想要用这样的方式的任何创业公司都需要具备两个特性:1)非常高的能耗比,2)创新的产品路线图,这将使他们能取得领先。

结论

总之,我将强调以下内容:

1.  人工智能的未来需要专用芯片,专用芯片的市场将变得巨大。

2.  世界上最大的芯片公司希望在未来的AI芯片战争中获胜。虽然英特尔正在追赶,但不要低估它能做些什么。

3.  有很多资金充足的初创公司,其中一些会取得成功。如果你想投资一家,请确保他们不会对NVIDIA的实力不屑一顾。

4.  未来5年,中国将在很大程度上摆脱美国的人工智能技术。

5. NVIDIA拥有超过10000名工程师,其下一代为AI设计的高端GPU可能会给我们带来惊喜。

6. 推理芯片市场将快速增长,并且在特定应用领域也有市场空间。FPGA,特别是Xilinx的下一代产品可会在这一领域发挥重要作用。


本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

3月29日消息,根据国外媒体报道,2024年2月,韩国半导体产业迎来了显著的增长,其产量增幅达到了14年来的最高水平,同比增长65.3%。

关键字: AI ChatGPT 人工智能

随着科技日新月异的进步,语音识别技术已成为人工智能领域的一项核心突破。这项技术旨在模拟人类听觉系统,通过复杂算法和模式识别手段将连续或离散的语音信号转换为可理解的文本或指令信息。本文深入探讨了语音识别技术在多个领域的广泛...

关键字: 语音识别 人工智能

随着人工智能和信息技术的飞速发展,语音识别技术已经从实验室走向了现实生活中的各个角落,成为人机交互领域的重要组成部分。语音识别产品不仅丰富了我们的日常生活,也正在深刻地改变着众多行业的工作模式和服务形态。

关键字: 语音识别 人工智能

在当今大数据和人工智能时代,机器学习作为核心的技术驱动力,正以前所未有的速度改变着我们的生活和工作方式。从基础的数据分析到复杂的决策支持系统,机器学习模型的成功构建和应用离不开一套严谨的流程。本文将详尽阐述机器学习过程中...

关键字: 机器学习 人工智能

机器学习作为人工智能领域的核心技术,其应用日益广泛,从搜索引擎优化到医疗诊断,从金融风控到自动驾驶等众多领域均发挥着重要作用。深入理解并掌握机器学习的关键步骤是成功构建高效模型和解决方案的基础。本文将详细阐述机器学习的主...

关键字: 机器学习 人工智能

是德科技(Keysight Technologies, Inc.)现已开启与全新 NVIDIA 6G 研究云平台的合作。该平台包括 NVIDIA Aerial Omniverse 数字孪生,这是一个开放、灵活的网络仿真资...

关键字: 6G 人工智能 RAN

纵观人类近现代史,每一次工业革命都是将战略性科技转化为生产力,从而创造巨大的新增财富和全面提升国家竞争力的过程;而且一个国家在工业革命面前的“沉与浮”,则取决于一个国家对这些战略性科技和产业化能力的把控。从被称为蒸汽机时...

关键字: 人工智能 算力 大模型

Arm Neoverse 旨在为从云到边缘的全场景基础设施用例提供高性能和出色能效。针对需要更高性能的工作负载和用例,Arm 推出了 Neoverse V 系列。其中,Neoverse V2 核心已被行业先行者广泛部署于...

关键字: 云计算 人工智能 CPU

本文中,小编将对人工智能AI予以介绍,如果你想对它的详细情况有所认识,或者想要增进对它的了解程度,不妨请看以下内容哦。

关键字: 人工智能 AI

在这篇文章中,小编将为大家带来人工智能AI的相关报道。如果你对本文即将要讲解的内容存在一定兴趣,不妨继续往下阅读哦。

关键字: 人工智能 AI
关闭
关闭