当前位置:首页 > 公众号精选 > Techsugar
[导读]信息技术发展的主要矛盾,就是当前硬件有限的算力和带宽与用户不断增长的算力与带宽要求之间的矛盾。在PC时代和移动互联时代,终端设备的算力与带宽都曾在需求推动下,按摩尔定律的预测指数性增长。近年来,随着人工智能应用(人工智能和机器学习,即AI/ML)的兴盛,对算力与内存带宽的要求又推到了一个新层次,据统计,从2012年到2019年,人工智能训练集增长了30万倍,每3.43个月翻一番,支持这一发展速度需要的远不止摩尔定律所能实现的改进,这需要从架构开始,做算法、硬件和软件的共同优化,才能不断提升系统性能以满足人工智能训练的需求。

信息技术发展的主要矛盾,就是当前硬件有限的算力和带宽与用户不断增长的算力与带宽要求之间的矛盾。在PC时代和移动互联时代,终端设备的算力与带宽都曾在需求推动下,按摩尔定律的预测指数性增长。近年来,随着人工智能应用(人工智能和机器学习,即AI/ML)的兴盛,对算力与内存带宽的要求又推到了一个新层次,据统计,从2012年到2019年,人工智能训练集增长了30万倍,每3.43个月翻一番,支持这一发展速度需要的远不止摩尔定律所能实现的改进,这需要从架构开始,做算法、硬件和软件的共同优化,才能不断提升系统性能以满足人工智能训练的需求。

训练能力大幅提升

数据来源:openai.com



人工智能训练主要发生在云端和数据中心,而在边缘侧,人工智能推理也被广泛采用,在自动驾驶等应用中,推理对于带宽和实时性要求极高。


训练和推理


在人工智能/机器学习应用中,训练和推理往往成对出现。训练是“知”,是学习,是机器“理解”被研究对象的过程;推理是“行”,是决策,是利用训练好的模型对设备或系统的未来操作进行指导的过程。


在“知”的阶段,已知数据集被喂给待训练的神经网络(或深度神经网络,Deep NeuralNetwork, 简称DNN,这里将神经网络和深度神经网络统称为神经网络),神经网络对数据集所表示的内容进行学习后作出推断,推断的误差用来调整神经网络框架的各种参数,例如神经网络各层中的数据集权重,随着训练过程的继续,将反复迭代上述过程对神经网络进行调整,直到其能以足够的准确性进行推断。


数据集有大有小,有的可能需要数千张图像,但也有数据集达到数千万张。如前所述,随着人工智能技术发展,数据集规模在不断加大,对存储的要求在不断加大。而在训练过程中,算法专家要引导神经网络模型收敛并在推断时达到所需的精度。这可能需要运行数百次实验,尝试不同的神经网络设计并调整其参数。每个实验可能需要大约“exaflops”(十亿亿次操作)次计算,整体计算要花几小时到数天才能完成。为了加快这种漫长训练过程,算法专家通常会在数据中心中训练神经网络。


在“行”的阶段,未知数据集被喂给训练好的神经网络,神经网络对未知数据集进行分类识别和决策。部署训练好的神经网络可能很简单,但为图像和自然语言处理等人工智能任务而生成的神经网络模型往往规模巨大,形式复杂,有数百万甚至数十亿权重参数将数十或数百层人工神经元连接起来。神经网络规模越大,运行该网络所需的算力、内存和能量也就越多,将数据输入神经网络到得出结果的响应时间也就越长。要满足推理时系统对功耗和延时的要求,通常要对训练好的神经网络进行修剪和量化,在保证推理精度的前提下,降低神经网络复杂度,以减少功耗和降低延时。


内存带宽是影响人工智能发展的关键因素


一般而言,推理相对比训练对算力和内存带宽的要求要低一些,但这并不是绝对的。以自动驾驶为例,必须能够在毫秒内检测到目标并做出响应,以避免发生事故。第3级与第4级自动驾驶系统的复杂数据处理需要超过200 GB/s的内存带宽,高带宽是复杂人工智能算法实时处理的基本需求,在道路上这些算法需要快速执行大量计算并安全地执行实时决策。在第5级,即完全自主驾驶,车辆能够独立地对交通标志和信号的动态环境作出反应,以及准确地预测汽车、卡车、自行车和行人的移动,将需要超过500GB/s的内存带宽。


随着新一代人工智能加速器和专用芯片的快速发展,新的内存解决方案,如高带宽内存(HBM、HBM2、HBM2E)和GDDR6 SDRAM(GDDR6)渐被采用来提供所需的带宽。


HBM和GDDR


高带宽内存( High Bandwidth Memory )是一种立体(3维或2.5维)堆叠存储方案。该概念最早由AMD在2008年引入,以解决PC系统对存储容量提升导致的功耗和尺寸不断增加的问题,通过与韩国海力士等公司合作,由海力士在2013年生产了第一批HBM存储器,该技术也于当年10月被标准组织JEDEC(电子元件工业联合会,Joint Electron Device Engineering Council)接受为标准JESD235。


此后HBM技术发展不断向前推进,2016年JEDEC通过HBM2标准JESD235a,在2018年末,JEDEC宣布对HBM2规范更新至HBM2E,以提升带宽和容量。当传输速率上升到每管脚3.6Gbps时,HBM2E可以实现每堆栈461GB/s的内存带宽。此外,HBM2E支持12个DRAM的堆栈,内存容量高达每堆叠24 GB。


HBM2E提供了达成巨大内存带宽的能力。连接到一个处理器的四块HBM2E存储器将提供超过1.8TB/s的带宽。通过3D堆叠内存,可以以极小的空间实现高带宽和高容量需求。进一步,通过保持相对较低的数据传输速率,并使内存靠近处理器,总体系统功率得以维持在较低水位。HBM2E的劣势是加工复杂,成本较高。


HBM封装示意图


GDDR(Graphics Double Data Rate)是另外一种比普通DDR存储器更快的内存方案。GDDR出现最初是为了适配高端显卡,主要用于图像处理所以得名。其工作频率、电压都和标准DDR不同,一般比标准DDR时钟频率更高,发热量更小,带宽更大。最新一代GDDR6的数据传输速率为16Gbps。GDDR6提供了比GDDR5大幅改善的带宽、容量、延迟和功率。GDDR6将工作电压从GDDR5的1.5V降低到1.35V,以获得更高的功率效率,并使数据传输速率(16Gbps比8 Gbps)和容量(16GB比8GB)都比GDDR5翻了一番。随着GPU在人工智能领域的广泛应用,GDDR也在人工智能应用中发挥着越来越重要的作用。


GDDR的优势是成本更低,可以用标准DDR生产工艺来制造,而且利用现有的基础架构和流程让系统设计者可沿用过去经验,从而降低了开发成本和实现的复杂性。但由于不是立体封装,所以在功耗和面积上不如HBM2E。


HBM与GDDR分别适应训练和推理需求


训练和推理对存储的需求有所不同,所以系统设计者需要根据高存储带宽应用的具体需求来选择究竟用HBM2E还是GDDR6。


对于训练来说,带宽和容量至关重要,特别是考虑到训练集的规模正以每3.43个月翻一番的速度增长。HBM2E的性能非常出色,所增加的成本可以透过节省的电路板空间和电费冲销。在物理空间日益受限的数据中心,HBM2E紧凑的体系结构提供了切实的好处。它的低功率意味着它的热负荷较低,而散热成本是数据中心最大的运营成本之一。考虑到所有这些需求,HBM2E是更优的人工智能训练硬件的内存解决方案。


在推理的应用场景下,带宽和延迟对于实时操作至关重要。对于人工智能推理这一日益具有挑战性的领域,GDDR6是一个更优的解决方案。建立在成熟的制造工艺基础上,其出色的性价比使其适合广泛的采用。


Rambus提供全面且现成的HBM2E和GDDR6内存接口解决方案,可集成到人工智能/机器学习的训练和推理SoC中。最近,该公司的HBM2E内存接口解决方案实现了创纪录的4 Gbps性能。该解决方案由完全集成的物理层和控制器组成,搭配业界最快的来自SK海力士的3.6Gbps运行速度的HBM2E DRAM,该解决方案可以从单个HBM2E设备提供460 GB/s的带宽。此性能可以满足TB级的带宽需求,能应对当前最严苛的人工智能训练或推理应用需求,也适用于高性能计算等应用场景。


对Rambus的HBM2E和GDDR6感兴趣的读者,可以扫描下图二维码或点击阅读原文下载Rambus有关HBM2E和GDDR6的技术白皮书。



繁荣的市场需求带来更好的前景

根据德勤发布的统计预测数据显示,2020年全球人工智能市场规模将达到6800亿元人民币,复合增长率(CAGR)达26%。而中国人工智能市场的表现尤为突出,到2020年市场规模预计将达到710亿元人民币,自2015年至2020年,五年间的复合增长率高达44.5%。

近年来,中国正在积极推动人工智能与实体经济的融合,从而实现产业的优化升级。2017年7月,国务院印发了《新一代人工智能发展规划》,这一规划与2015年5月发布的《中国制造2025》共同构成了中国人工智能战略的核心。这份具有里程碑意义的规划,对人工智能发展进行了战略性部署,力争到2030年把中国建设成为世界主要人工智能创新中心。此外,2020年是中国的新基建元年,而人工智能作为一大重点板块,势必成为新基建的核心支撑。

中国人工智能产业规模在2019年末达到510亿元人民币,其中人工智+能企业超过2600家。随着中国加速推进人工智能应用以引领经济增长,这一趋势将推动计算机硬件和软件各方面的快速发展。

需求的繁荣,必然驱动人工智能生态加速发展,Rambus将持续在高带宽存储等技术上投入,以满足人工智能对内存带宽更高的要求。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

无论您是在研究如何使用 10GigE 还是寻求所需考虑事项的建议,本文均提供有实践,帮助确保单相机 10GigE 视觉系统设置顺利并拥有良好性能。 我们列出了主机系统配置、布线和相机设置的实践。

关键字: 视觉系统 CPU 存储器

2024年4月12日,中国--服务多重电子应用领域、全球排名前列的半导体公司意法半导体(STMicroelectronics,简称ST;纽约证券交易所代码:STM)宣布,松下自行车科技有限公司(Panasonic)宣布采...

关键字: 人工智能 电动自行车

4月17日消息,斯坦福大学近日发布《2024年AI指数报告》(AI Index Report 2024),凭借AI在大规模胰腺癌早筛上的创新突破,阿里达摩院(湖畔实验室)医疗AI入选科学与医疗领域的年度亮点研究(High...

关键字: AI 人工智能 集成电路

4月17日消息,去年,中国大陆的半导体设备支出约占据了全球总额的三分之一。

关键字: 半导体 传感器 人工智能 电动汽车

上海2024年4月16日 /美通社/ -- 4月11日,中智《百川汇流 央地融通,全力以赴加快五个中心建设》主题大会在上海成功举办,本次大会由上海市经信委和上海市国资委指导、中智经济技术合作股份有限公司和中智管理咨询有限...

关键字: AI 电气 人工智能 半导体

该实验室的创新技术能够增强人工智能边缘解决方案,提高神经网络能力

关键字: 人工智能 神经网络

存储器是计算机系统中的关键组件,负责存储程序指令和数据,是实现计算和信息处理的基础。根据其工作原理、存储容量、访问速度、稳定性以及持久性等诸多特性,存储器可以被细分为多个类别。本篇文章将详细介绍存储器的主要分类,并探讨各...

关键字: 存储器 RAM

机器学习作为人工智能领域的重要组成部分,其过程涉及到多个核心环节。本文将详细阐述机器学习的四个主要步骤:数据准备、模型选择、模型训练与评估,以及模型部署与应用,以揭示机器学习从数据到应用的完整流程。

关键字: 数据 人工智能 机器学习

随着信息技术的迅猛发展和大数据时代的到来,机器学习成为了人工智能领域中的核心技术之一。机器学习是通过模拟人类学习行为,使计算机系统能够从数据中自动发现规律、提取特征并进行预测和决策的过程。它在诸多领域取得了广泛的应用,包...

关键字: 计算机 人工智能 机器学习

机器学习算法是人工智能领域中的核心技术之一,它通过对大量数据进行学习,自动发现数据中的规律和模式,从而实现对新数据的预测、分类、聚类等任务。本文将深入探讨机器学习算法的基本过程,包括数据准备、模型选择、训练与评估等关键步...

关键字: 数据 人工智能 机器学习
关闭