当前位置:首页 > 智能硬件 > 智能硬件
[导读]目前大多数训练都是在数据中心进行的,但也有少数是在边缘端进行。像Google、Facebook、Amazon、Apple和Microsoft这样的大公司都拥有大量消费者资料,因此可以为他们的“服务器农场”提供足够多的数据进行工业规模的AI训练,以改善其算法。训练阶段需要速度非常高的处理器,例如绘图处理器(GPU)或Google开发的张量处理器(TPU)。

机器学习有两个基本阶段:训练和推理。人工神经网络旨在模仿大脑的运作方式,首先要读取大量的已知数据——例如狗和猫的图片——这样才能学会识别每个物体的样子以及它们的不同之处;然后经过训练的神经网络或模型就可以开始工作,根据所学到的知识推断呈现在面前的新数据是什么事物,例如判别影像中的是狗还是猫。

目前大多数训练都是在数据中心进行的,但也有少数是在边缘端进行。像Google、Facebook、Amazon、Apple和Microsoft这样的大公司都拥有大量消费者资料,因此可以为他们的“服务器农场”提供足够多的数据进行工业规模的AI训练,以改善其算法。训练阶段需要速度非常高的处理器,例如绘图处理器(GPU)或Google开发的张量处理器(TPU)。

当边缘设备收集到数据——例如建筑物或人脸的照片——并传送到推理引擎进行分类时,推理就会发生。以云端为基础的AI因为固有的延迟缺点,对许多应用来说是不可接受的;例如自动驾驶车需要对看到的物体做出实时决策,这以云端AI架构就不可能实现。

随着AI功能逐渐向边缘端发展,它们将推动更多的AI应用,而且这些应用会越来越需要更强大的分析能力和智能,好让系统在本地即可做出运作决策,无论是部分还是完全自主的,就像自动驾驶车辆所配备的功能。

传统CPU不是很擅长这类任务,而高端GPU则是功耗大、价格昂贵;边缘端推理需要更便宜、功率更低的芯片,可快速透过神经网络识别一种动物、一张脸,锁定一个肿瘤,或将德语翻译成英语。如今有超过30家公司正在研发AI专用的硬件,以提高在智能手机、平板电脑和其他边缘设备中完成这类特殊运算任务的效率。

分析师们预测,从2017~2021年,全球AI芯片市场将取得高达54%的年复合成长率(CAGR),其关键成长动力在于能满足机器学习要求的强大硬件。

消除内存瓶颈

所有AI处理器都仰赖于数据集,也就是“学习过的”对象种类(如影像、声音等等)模型,用以执行识别功能;每个对象的识别和分类都需要多次存取内存,而当今工程师面临的最大挑战就是如何克服现有架构中的内存访问速度和功耗瓶颈,以实现更快的数据存取,同时降低数据存取消耗的能源成本。

透过在尽可能接近AI处理器核心的位置储存训练数据,可获得最快访问速度和最大能效;但是目前的设计所采用之储存架构,都是几年前还没有其他实用解决方案时打造的,仍然是速度快但小容量的嵌入式SRAM与大容量但速度较慢的外部DRAM之传统组合。当训练模型以这种方式储存,嵌入式SRAM、外部DRAM和神经网络之间频繁且大规模的数据交换会增加功耗及传输延迟;此外,SRAM和DRAM都是挥发性内存,限制了在待机状态的省电效果。

利用高密度、高速和低功耗的非挥发性内存将整个训练模型直接储存在AI处理器芯片上,就可以实现更高的能效和速度。透过实现以内存为中心的新架构(如图1),整个训练模型或知识库就可以放在芯片上,直接与神经网络链接,这样就有实现大规模节能与性能提升的潜力,并因此能大幅延长电池寿命并提供更好的用户体验。现在已经有几种新一代内存技术正竞相实现此一目标。

 

 

图1 内存位于AI架构中心。

ReRAM的潜力

针对AI应用的理想非易失性嵌入式内存应该具备如下特点:容易制造、容易整合到成熟的CMOS后段工艺、容易微缩到先进工艺节点、可大量供应,并且能够满足各种应用对功耗和速度的要求。

在工艺微缩方面,电阻式内存(ReRAM)会比磁性内存(MRAM)或相变化内存(PCM)更具优势,这在考虑14纳米、12纳米甚至是7纳米晶圆工艺时是一个重要因素;其他内存技术都需要比ReRAM更复杂和昂贵的工艺,运作功耗也更高。

 

举例来说,美国业者Crossbar的ReRAM所采用之纳米丝(nanofilament)技术,可以在不影响性能的情况下微缩到10纳米以下。ReRAM以简单的组件结构为基础,采用适合CMOS工艺的材料和标准生产流程,可以在现有的CMOS晶圆厂生产;因为是一种低温、后段工艺整合的方案,可以在CMOS逻辑晶圆上整合多层ReRAM数组,以构建3D ReRAM储存架构。

AI需要最佳的每瓦性能,尤其对于小功率的边缘设备;ReRAM的能效可达到DRAM的五倍——达到每奈焦(nanojoule) 1,000位的读取—同时表现出比DRAM更好的整体读取性能,高达12.8GB/s,随机延迟小于20ns。

以内存为中心的架构

科学家们一直在探索各种新颖的大脑启发典范,试图透过模仿中枢神经系统的神经元和突触(synapses)之交互作用来实现更高的能效。以ReRAM技术为基础的人工神经突触是一种非常有前途的方法,可用于在神经形态结构中实现这些高密度且能终极微缩的突触数组。藉由在边缘端启动AI,ReRAM有可能在现有和全新的AI解决方案中扮演重要角色。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

为无处不在的端侧设备插上AI的翅膀,AMD发布第二代Versal™ 自适应 SoC

关键字: AMD FPGA 自适应SoC AI 边缘计算

当我们提到成本优化型FPGA,往往与简化逻辑资源、有限I/O和较低制造工艺联系在一起。诚然,在成本受限的系统设计中,对于价格、功耗和尺寸的要求更为敏感;但随着一系列创新应用的发展、随着边缘AI的深化,成本优化型FPGA也...

关键字: AMD FPGA Spartan 边缘计算

远程边缘计算需要高性能AI和训练解决方案来支持高阶工作负载以提高生产力

关键字: 边缘计算 AI 大语言模型

如何把握住2024年的行业新机遇,实现技术突破创新,赋能各类新兴应用的发展?在新一年伊始,我们采访到了Imagination公司副总裁,中国区总经理刘国军先生,他和我们分享了Imagination这一年来的成绩,以及对于...

关键字: Imagination 边缘计算 AI review2023

Visionary.ai公司用于增强相机应用的神经网络软件 ISP 和 ENOT.ai公司神经网络优化工具及人工智能辅助工具现可用于 Ceva 的 NeuPro-M NPU

关键字: 人工智能 NPU 边缘计算

【2024年1月15日,德国慕尼黑讯】卫星上的边缘计算和推理可实现近乎实时的数据分析和决策制定。随着联网设备的数量及其产生的数据量不断增长,这一点变得愈发重要。为满足太空应用中的这些高性能计算需求,英飞凌科技股份公司(F...

关键字: 存储器 嵌入式 边缘计算

康佳特 COM-HPC Client模块搭载最新LGA1700英特尔酷睿处理器,提供卓越性能表现

关键字: 边缘计算 处理器 CPU

一直关注米尔工程师都知道,米尔推出基于NXP系列的低、中、高端核心板开发板,为客户提供不同功耗、可扩展性、计算性能、安全性的产品,满足客户多样化的开发需求。分别有i.mx6ul、i.mx 8mini、i.mx 8m pl...

关键字: 核心板 开发板 边缘计算
关闭
关闭