当前位置:首页 > 智能硬件 > 人工智能AI
[导读] 智能终端AI芯片产业呈现快速扩张之势,未来可期。 2017年,华为率先发布麒麟970芯片,集成寒武纪的深度学习内核。同年,苹果发布双核架构神经网络引擎(NeuralEngine)的A11

智能终端AI芯片产业呈现快速扩张之势,未来可期。

2017年,华为率先发布麒麟970芯片,集成寒武纪深度学习内核。同年,苹果发布双核架构神经网络引擎(NeuralEngine)的A11Bionic芯片。2018年,华为和苹果相继发布7nm工艺的麒麟980和A12。2019年,华为和苹果推出麒麟990和A13,AI处理性能进一步提升。目前AI处理能力已逐渐向中端产品渗透,除追求性能提升外,大部分终端AI芯片专注于基于推断计算的应用场景进行优化,少数的终端AI芯片具备训练能力。根据ABIRe-search预测,2024年,终端AI芯片市场规模将增长至710亿美元,2019年至2024年间的年复合增长率将达31%。

AI算力从云端向终端迁移

传统意义上,大多数对神经网络的训练和推理都是在云端或基于服务器完成的。随着终端处理器性能的不断提升,很多人工智能的推理工作,如模式匹配、建模检测、分类和识别等逐渐从云端转移到终端侧。

这主要有三点原因。首先,AI能力的端侧迁移是用户使用场景所需的必然结果。数据由云走向边缘。IDC数据统计,未来几年内边缘侧数据将达到总数据量的50%,这些数据由终端采集和产生,也需要端侧AI芯片就近分析处理。其次,AI能力的端侧迁移亦是提升人工智能用户体验的重要方式。在端侧,人工智能关键优势包括即时响应、隐私保护增强、可靠性提升,此外,还能确保在没有网络连接的情况下用户的人工智能体验得到保障。最后,AI处理能力的端侧迁移是人工智能数据隐私保护的需要。

终端AI芯片不断演化

AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中涉及的各类算法的AI加速计算模块(其他非AI加速计算任务仍由CPU负责)。作为AI技术的三大核心要素之一,芯片承载着AI应用部署的坚实基础——计算能力。AI芯片算力的高速发展,是工业场景和自动驾驶等高实时性AI终端应用的有力保障。同时,芯片的算力和功耗之间的兼顾和优化,是AI芯片未来发展的主题。各种类型的智能终端AI芯片还将在多种多样的人工智能应用场景中进行差异化竞争。

AI终端芯片技术现状

从通用芯片、专用芯片和异构结合三个维度,对基于人工智能场景的终端芯片的技术现状进行分析。

通用芯片方面,智能终端常用的通用AI处理芯片主要是CPU、GPUFPGA三种,在传统CPU(CentralProcess-ingUnit)中,仅有单独的ALU(逻辑运算单元)模块是用来完成指令数据计算的,其他各种模块的存在是为保证指令能串行有序执行。这种通用结构对于传统的编程计算模式非常适合,但是对于需要海量数据运算的深度学习的计算需求,无法提供足够的AI专用计算支撑。

GPU依靠通用灵活的强大并行运算能力,契合当前人工智能中广泛采用的深度学习所需要的密集数据和多维并算处理需求。按照比例来说,在CPU上约有20%的晶体管是用作计算的,而在GPU上有80%的晶体管可用作计算。高效的算数运算单元和简化的逻辑控制单元,把串行访问拆分成多个简单的并行访问,同时进行运算。如向量相加,可让CPU串行循环对每一个分量做加法,也可让GPU采用大量并行线程对应各个分量同时相加。

FPGA(FieldProgram-mableGateArray)即现场可编程门阵列,依靠电路级别的通用性,加上可编程性,适用于开发周期较短的IoT产品、传感器数据预处理工作以及小型开发试错升级迭代工作等。FPGA可灵活支持各类深度学习的计算任务,适合在推断环节支撑海量的用户实时计算请求。FPGA的可编程性是关键,让智能终端及其应用设计公司能提供与其竞争对手不同的解决方案。

专用芯片方面,ASIC(ApplicationSpecificIn-tegratedCircuit,专用集成电路)细分市场需求确定后,以TPU为代表的ASIC定制化芯片,将在确定性执行模型的应用需求中发挥作用。ASIC的特点是需要大量的研发投入,如果不能保证出货量,其芯片成本难以下降,而且芯片的功能一旦流水线生产后则无更改余地,若市场深度学习方向一旦改变,ASIC前期投入将无法回收,具有较大的市场风险。但ASIC性能高于FPGA,在高出货量下,其芯片成本可远低于FPGA。

异构结合方面,AI处理芯片还可通过统筹多芯片任务处理,提高任务处理效率,帮助AI应用程序对数据进行分类及排序处理。这样的处理模式并非完全依赖于专用AI芯片,芯片厂家可通过采用异构的芯片构架实现。由于AI场景众多,神经网络自定义层繁复,单种处理器硬件已无法满足所有需求,通过软硬结合解决方案,如在已有芯片平台加入神经网络处理引擎(NeuralPro-cessingEngine,NPE)来调动处理器中已有的CPU、GPU及其他计算模块,可以实现面向人工智能任务的异构计算。通过软硬结合的开放型异构计算可满足AI的多场景需求、面向整个手机平台所需的通用性和灵活性,也可更好地利用终端原有计算资源完成AI计算。

智能终端AI芯片展望

虽然我国智能终端芯片厂商在核心技术方面仍然依赖于国外厂商,但机遇与挑战并存。依托国家政策并抓住发展机遇,我国相关AI芯片业的前景可期。同时,当前各厂商AI芯片不受制于传统CPU芯片和软件应用生态(如英特尔X86芯片),这对自主AI芯片的发展十分有利。

当前,国家政策持续利好。继2017年国务院发布《新一代人工智能发展规划》后,《促进新一代人工智能产业发展三年行动计划(2018-2020年)》又吹响了前进的号角。同时从芯片资本市场来看,国家集成电路产业投资基金(二期)的募资工作已经完成,规模在2000亿元左右,撬动的社会资金规模可达6000亿元左右。

面向未来,在技术发展策略层面,需要积极构建生态圈,支持国内AI芯片企业自有指令集的研发。在产业应用方面,政府、事业单位和国有企业应优先使用国产AI芯片,为国产芯片操作系统生态提供支持。同时,鼓励我国智能终端AI芯片、框架和自主操作系统深度耦合全生态发展,研发与深度学习框架结合的AI芯片,构建芯片、操作系统和应用一体的软硬结合技术体系。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

LED驱动电源的输入包括高压工频交流(即市电)、低压直流、高压直流、低压高频交流(如电子变压器的输出)等。

关键字: 驱动电源

在工业自动化蓬勃发展的当下,工业电机作为核心动力设备,其驱动电源的性能直接关系到整个系统的稳定性和可靠性。其中,反电动势抑制与过流保护是驱动电源设计中至关重要的两个环节,集成化方案的设计成为提升电机驱动性能的关键。

关键字: 工业电机 驱动电源

LED 驱动电源作为 LED 照明系统的 “心脏”,其稳定性直接决定了整个照明设备的使用寿命。然而,在实际应用中,LED 驱动电源易损坏的问题却十分常见,不仅增加了维护成本,还影响了用户体验。要解决这一问题,需从设计、生...

关键字: 驱动电源 照明系统 散热

根据LED驱动电源的公式,电感内电流波动大小和电感值成反比,输出纹波和输出电容值成反比。所以加大电感值和输出电容值可以减小纹波。

关键字: LED 设计 驱动电源

电动汽车(EV)作为新能源汽车的重要代表,正逐渐成为全球汽车产业的重要发展方向。电动汽车的核心技术之一是电机驱动控制系统,而绝缘栅双极型晶体管(IGBT)作为电机驱动系统中的关键元件,其性能直接影响到电动汽车的动力性能和...

关键字: 电动汽车 新能源 驱动电源

在现代城市建设中,街道及停车场照明作为基础设施的重要组成部分,其质量和效率直接关系到城市的公共安全、居民生活质量和能源利用效率。随着科技的进步,高亮度白光发光二极管(LED)因其独特的优势逐渐取代传统光源,成为大功率区域...

关键字: 发光二极管 驱动电源 LED

LED通用照明设计工程师会遇到许多挑战,如功率密度、功率因数校正(PFC)、空间受限和可靠性等。

关键字: LED 驱动电源 功率因数校正

在LED照明技术日益普及的今天,LED驱动电源的电磁干扰(EMI)问题成为了一个不可忽视的挑战。电磁干扰不仅会影响LED灯具的正常工作,还可能对周围电子设备造成不利影响,甚至引发系统故障。因此,采取有效的硬件措施来解决L...

关键字: LED照明技术 电磁干扰 驱动电源

开关电源具有效率高的特性,而且开关电源的变压器体积比串联稳压型电源的要小得多,电源电路比较整洁,整机重量也有所下降,所以,现在的LED驱动电源

关键字: LED 驱动电源 开关电源

LED驱动电源是把电源供应转换为特定的电压电流以驱动LED发光的电压转换器,通常情况下:LED驱动电源的输入包括高压工频交流(即市电)、低压直流、高压直流、低压高频交流(如电子变压器的输出)等。

关键字: LED 隧道灯 驱动电源
关闭