当前位置:首页 > 智能硬件 > 人工智能AI
[导读] 由于,人工智能(AI)担负工作与目前大多数计算机的运算工作有些不同。然而,AI隐含着分析预测、推理、直观的能力与功能。实时是最有创意的机器学习算法也受到现有机器硬件能力的束缚。因此,若要在AI方

由于,人工智能(AI)担负工作与目前大多数计算机的运算工作有些不同。然而,AI隐含着分析预测、推理、直观的能力与功能。实时是最有创意的机器学习算法也受到现有机器硬件能力的束缚。因此,若要在AI方面取得长足进步,我们必须在硬件上进行改变,或是半导体材料上进行突破。演变从GPU开始,引入模拟设备(analog devices),然后演变成为具容错性量子计算机(fault tolerant quantum computers)。

现在从大规模分布式深度学习算法应用于图形处理器(GPU)开始将高速移动的数据,达到最终理解图像和声音。DDL算法对视频和音频数据进行训练,GPU越多表示学习速度越快。目前,IBM创下纪录:随着更多GPU加入能提升达到95%效率,就能识别750万个图像达到33.8%,使用256个GPU 于64个Minsky电源系统上。

自2009年以来,随着GPU模型训练从视频游戏图形加速器转向深度学习,使分布式深度学习每年以约2.5倍的速度发展。所以IBM曾于2017年IEEE国际电子设备会议(2017 IEEE International Electron Devices MeeTIng)针对应用材料发表Semiconductor Futurescapes: New Technologies, New SoluTIons,谈到需要开发哪些技术才能延续这种进步速度并超越GPU?

如何超越GPU

IBM研究公司认为,GPU的转变分为三个阶段进行:

1、首先将在短期内利用GPU和传统的CMOS构建新的加速器以继续进行;

2、其次将寻找利用低精密度和模拟设备(analog devices)来进一步降低功率和提高性能的方法;

3、然后进入量子计算时代,它可是一个机会,能提供全新的方法。

在CMOS上的加速器还有很多工作要做,因为机器学习模型可以容忍不精确的计算。正因为“学习”模型可以借助错误学习而发挥作用,然而,在银行交易是无法容忍有一些许的错误。预估,精准运算快速的趋势,到2022年每年以2.5倍在提高。所以,我们还有五年时间来突破模拟设备(analog devices),将数据移入和移出内存以降低深度学习网络的训练

时间。因此,analog devices寻找可以结合内存和运算,对于类神经演算的进展将是非常重要的。

类神经演算如同模拟脑细胞。神经元(neurons) 结构相互连接以低功率讯号突破von-Neumann的来回瓶颈(von-Neumann’s back-and-forth bottleneck),使这些讯号直接在神经元之间传递,以实现更高效的计算。美国空军研究实验室正在测试IBM TrueNorth神经突触系统的64芯片数组,专为深度神经网络推理和挖掘信息而设计。该系统使用标准CMOS,但仅消耗10瓦的能量来驱动其6400万个神经元和160亿个突触。

但相变化内存(phase change memory)是下一代内存材料,可能是针对深度学习网络优化的首款仿真器件。

进入量子时代 (quantum)

据IBM公司的研究论文,在Nature Quantum InformaTIon中展示了机器学习中量子的优势证明(“DemonstraTIon of quantum advantage in machine learning”),展示了只有五个超导量子位处理器,量子运算能够稳定减少达100倍运算步骤,并且比非量子运算更能容忍干扰的信息。

IBM Q的商业系统现在有20个量子位,并且原型50个量子位设备正在运行。它的平均时间为90μs,也是以前系统的两倍。但是容错系统在今天的机器上显示出明显的量子优势。同时,试验新材料(如铜相通的替代品)是关键 - IBM及其合作伙伴在IEDM上推出的其他关键芯片改进,以推进所有运算平台,从von Neumann到类神经及量子。

解决处理器到储存器的连接和带宽瓶颈,将为AI带来新的储存器架构,最终可能导致逻辑和储存器制造过程技术之间的融合。IBM的TrueNorth推理芯片就是这种新架构的一个例子,其中每个神经元都可以存取自己的本地储存器,并且不需要脱机存取储存器。

借助训练和推理形式的AI运算,必须推向边缘装置上(edge devices),例如:手机、智能手表等。因此,这将兴起由计算设备组成的网络系统。大多数这样的边缘装置会受到功率和成本的限制,所以他们的计算需求可能只能透过高度优化的ASIC来满足。现在,传统无晶圆厂半导体公司是否有能力提供这类型的ASIC或是否由AI芯片新创公司例如云端服务提供商,由谁主导目前还为时过早。

备注:*冯诺伊曼架构(von Neumann bottleneck):是一种将程序指令内存和数据存储器合并在一起的计算机设计概念架构,因此也隐约指出将储存装置与中央处理器分开的概念。在CPU与内存之间的流量(数据传输率)与内存的容量相比起来相当小,在现代计算机中,流量与CPU的工作效率相比之下非常小。当CPU需要在巨大的数据上执行一些简单指令时,数据流量就成了整体效率非常严重的限制,CPU将会在数据输入或输出内存时闲置。由于CPU速度远大于内存读写速率,因此瓶颈问题越来越严重。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

作为英特尔首个神经元数量达到11.5亿的神经拟态系统,Hala Point为更高效、规模更大的AI开辟了道路。

关键字: 神经拟态系统 AI 深度学习模型

基于大语言模型研发的品牌定制化AI客服解决方案,获得业界高度认可 上海2024年4月16日 /美通社/ -- transcosmos集团(中文名:大宇宙集团;以下简称:transcosmos)于2024年4月11日在C...

关键字: TRANS TI COSMOS AI

全新Balletto™系列无线MCU基于Alif Semiconductor先进的MCU架构,该架构具有DSP加速和专用NPU,可快速且低功耗地执行AI/ML工作负载

关键字: 处理器 微控制器 AI

业内消息,近日京东集团创始人、董事会主席刘强东以“采销东哥”AI 数字人开启直播首秀,同时亮相京东家电家居、京东超市采销直播间,不到1小时直播间观看量超2000万,并创造京东超市采销直播间开播以来观看人数的最高峰。

关键字: 京东 AI 数字人 刘强东 直播

回看历史,人工智能总会时不时爆发一次,然后又归于沉寂。

关键字: AI OpenAI AGI 通用人工智能

4月17日消息,斯坦福大学近日发布《2024年AI指数报告》(AI Index Report 2024),凭借AI在大规模胰腺癌早筛上的创新突破,阿里达摩院(湖畔实验室)医疗AI入选科学与医疗领域的年度亮点研究(High...

关键字: AI 人工智能 集成电路

4月17日消息,近日微软硬件设计领域的重量级人物、Surface设计团队负责人Ralf Groene在领英上发帖宣布退休。

关键字: 微软 AI 机器AI 比尔盖茨

上海2024年4月16日 /美通社/ -- 4月11日,中智《百川汇流 央地融通,全力以赴加快五个中心建设》主题大会在上海成功举办,本次大会由上海市经信委和上海市国资委指导、中智经济技术合作股份有限公司和中智管理咨询有限...

关键字: AI 电气 人工智能 半导体

引领行业质量变革新浪潮“蔡司,‘质’敬明天” 聚焦五大领域 为本土产业中国质量护航  上海2024年4月16日 /美通社/ -- 5月20日第25个"世界计量日"之际,ZEISS Quality Innovation...

关键字: INNOVATION QUALITY 新能源汽车 AI

Apr. 16, 2024 ---- NVIDIA新一代平台Blackwell,包含B系列GPU及整合NVIDIA自家Grace Arm CPU的GB200等。TrendForce集邦咨询指出,GB200的前一代为GH2...

关键字: CPU GPU
关闭
关闭