当前位置:首页 > 消费电子 > 消费电子
[导读]Hot Chips 31本周在美国硅谷举办,两款最大的芯片发布引人注意,分别是Cerebras最大的深度学习芯片WSE,还有赛灵思发布全球最大的FPGA。Intel发布的两款AI芯片Nervana NNP-T/NNP-I同样备受关注。

Hot Chips 31本周在美国硅谷举办,两款最大的芯片发布引人注意,分别是Cerebras最大的深度学习芯片WSE,还有赛灵思发布全球最大的FPGA。Intel发布的两款AI芯片Nervana NNP-T/NNP-I同样备受关注。

访问购买页面:

AMD旗舰店

不过,AMD在Hot Chips期间并没有获得巨大的关注,这或许是因为在当今AI大热的情况下,他们采用“观望式”的AI策略。

Intel、AMD和NVIDIA如何预估AI市场?

NVIDIA预计,其数据中心和人工智能潜在市场(TAM)到2023年将达到500亿美元。这包括HPC(高性能计算),DLT(深度学习训练)和DLI(深度学习推理)。

Intel估计,其DLT和DLI 潜在市场在2020年将达到460亿美元。

AMD尚未发布任何关于深度学习潜在市场的预测,因为它更专注于从Intel和NVIDIA获得市场份额。因此,也没有看到AMD有专注于人工智能的芯片。

不过,AMD首席执行官苏姿丰(苏姿丰)表示,AMD正在努力成为人工智能领域更重要的参与者。

苏姿丰:CPU的局限性

任何计算性能的讨论都始于摩尔定律,但摩尔定律正在放缓。摩尔定律指出,随着芯片尺寸缩小和晶体管密度增加,计算性能将每两年翻一番。

在AnandTech Hot Chips 31的报道指出,苏姿丰在主题演讲中解释说,AMD通过各种方式改善了CPU的性能,包括工艺制程、芯片面积、TDP(热设计功耗)、电源管理、微体系结构和编译器。

先进工艺制程的贡献最大,这使得CPU的性能提升了40%。增加芯片尺寸也可以带来两位数性能的提升,但这不符合成本效益。

AMD通过微体系架构将EPYC Rome服务器CPU IPC(每个周期的指令)在单线程和多线程工作负载中分别提升了23%和15%。高于行业平均5%-8%的水平。上述所有方法在两年半内都会使性能翻倍。

苏姿丰:人工智能所需的加速计算

苏姿丰表示,一方面,摩尔定律正在放缓。另一方面,世界上最快的超级计算机的性能每1.2年翻一番。这意味着过去十年的解决方案将失效。

该行业目前的需求是优化系统的各个部分,使其成为人工智能工作负载的理想选择。她解释说,ASIC和FPGA的每瓦特性能最高,CPU最低,通用GPU在每瓦性能方面介于CPU和FPGA之间。

苏姿丰指出,每个人工智能工作负载都有不同的计算要求。互连技术是解决方案,因为它将不同的部分互连到同一个系统。她用以下例子解释了这一点:

- NAMD(纳米级分子动力学)工作负载取决于GPU

- NLP(自然语言处理)工作负载在CPU、GPU、内存带宽和连接性之间保持平衡

业界使用传统方法提高了CPU和GPU的性能。苏姿丰强调,业界应该通过关注互连,I/O、内存带宽、软件效率和软硬件协同优化来提高性能。

AMD的AI策略

苏姿丰表示,AMD已采用CPU / GPU /互连策略来挖掘人工智能和HPC的机会。

她说,AMD将在Frontier超级计算机中使用其所有技术。该公司计划为实现超级计算机全面优化其EYPC CPU和Radeon Instinct GPU。它将通过其Infinity Fabric总线技术进一步增强系统性能,并通过其ROCM(Radeon Open Compute)软件工具解锁性能。

与Intel和NVIDIA不同,AMD没有专用的人工智能芯片或专用的加速器。尽管如此,苏还指出,“我们绝对会看到AMD在人工智能方面是一个很重要的参与者。”

AMD正在考虑是否要建立一个专用的AI芯片,这一决定将取决于人工智能如何发展。

苏姿丰补充说,许多公司正在开发不同的人工智能加速器,如ASIC、FPGA和张量(Tensor)加速器。这些芯片将缩小到最可持续的状态,然后AMD将决定是否构建可以广泛应用的加速器。

与此同时,AMD将与第三方加速器制造商合作,并通过其Infinity Fabric互连将其芯片与自己的CPU / GPU连接。这个策略类似于其光线跟踪策略,NVIDIA去年推出了实时光线跟踪,但AMD并没有急于推出这项技术。

不过,苏姿丰表示AMD将在生态系统完善并且该技术被广泛采用的情况下引入光线跟踪技术。

鉴于AMD是一个相对较小的玩家,与拥有充足资源的大型玩家竞争,上述策略具有经济意义。

在已经建立的市场中分享份额可以减少因采用率低而导致产品失败的风险,并保证最低的回报。

AMD AI战略与Intel和NVIDIA战略的不同

AMD在开发AI芯片之前采用了观望态度。他们现在做的,是利用其现有技术来满足AI工作负载。

Intel开发了全面的技术,包括Xeon CPU、Optane内存、Altera FPGA和互连技术。也在开发独立GPU Xe。

在Hot Chip 31中,Intel推出了专用于深度学习训练和深度学习推理的Nervana AI芯片。Intel的芯片由自己生产,虽然这使Intel能够更好地控制其技术,但需要大量的时间和资源。

NVIDIA的AI策略是提供通用GPU以及可用于任何AI应用程序的CUDA软件支持。它还具有NVLink互连技术。英伟达正与合作伙伴共同探索人工智能新市场。虽然这种策略需要大量研究并且有很高的失败风险,但这些高风险也会带来高回报。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

4月17日消息,Intel官方宣布,工程师内部研发了一种新的AI增强工具,可以让系统级芯片设计师原本需要耗费6个星期才能完成的热敏传感器设计,缩短到区区几分钟。

关键字: Intel 芯片 1.8nm

业内消息,昨天美国芯片设计公司 AMD 推出了锐龙PRO 8040/8000系列AI处理器芯片,为支持人工智能的PC提供动力,试图在与英伟达和英特尔等竞争对手的AI PC 竞争中获得领先地位。

关键字: AMD 锐龙 AI处理器 芯片

Supermicro广泛多元的系统产品组合提供高度灵活性,可满足现今针对工作负载优化且具液冷设计的数据中心需求,并集成了新型高效核(Efficient-core)与性能核(Performance-core)处理器,这些处...

关键字: Intel MICRO SUPER 处理器

Intel日前举办了Vision 2024年度产业创新大会,亮点不少,号称大幅超越NVIDIA H100的新一代AI加速器Gaudi 3、品牌全新升级的至强6、AI算力猛增的下一代超低功耗处理器Lunar Lake,都吸...

关键字: Intel 芯片 1.8nm

4月12日消息,Intel日前发布了LGA1851独立封装接口的酷睿Ultra处理器,代号Meteor Lake-PS,但不是给消费市场用的,而是面向嵌入式和边缘计算。

关键字: Intel 芯片

AI的纷争越来越激烈,老黄跟苏妈都相继推出了自家的AI加速器。不过大家似乎忘记了还有一个芯片巨头——Intel。

关键字: Intel 芯片 1.8nm

4月10日消息,Intel Vision 2024产业创新大会上,Intel宣布面向数据中心、云和边缘的下一代至强处理器品牌焕新,升级为“至强6”(Xeon 6),此前代号Sierra Forest、Granite Ra...

关键字: Intel 芯片 1.8nm

为无处不在的端侧设备插上AI的翅膀,AMD发布第二代Versal™ 自适应 SoC

关键字: AMD FPGA 自适应SoC AI 边缘计算

业内消息,近日AMD在其官网上公布了两款新APU(锐龙5 7235H/7235HS),两款处理器均采用了Zen 3+核心架构的Rembrand-R芯片,隶属锐龙7035系列。尽管AMD并没有公开披露这两款新处理器,但出现...

关键字: AMD 锐龙5 移动处理器

近日外媒引述消息人士报道称,中国推出采购需求标准,或意味着中国将禁止政府电脑使用英特尔和超微半导体(AMD)CPU(处理器)芯片,截止目前英特尔和AMD尚未就此消息做出回应。

关键字: 英特尔 AMD 芯片
关闭
关闭