当前位置:首页 > 嵌入式 > 嵌入式新闻
[导读]物联网配合人工智能将会给社会带来巨大的变化,然而目前基于深度学习的芯片难以实现物联网对于低功耗的需求。这时候就是神经模态芯片大展身手的地方。

物联网配合人工智能将会给社会带来巨大的变化,然而目前基于深度学习的芯片难以实现物联网对于低功耗的需求。这时候就是神经模态芯片大展身手的地方。

神经模态计算目前或许只要把神经元的数量和神经突触连接数量跨过一个阈值,那么神经模态计算就有可能爆发出巨大的能量,甚至远超之前的想象。

GPU在AI主导地位将终结

IBM大胆预测,GPU在AI中的主导地位正在结束。GPU能够为图形处理进行大量的并行矩阵乘法运算,这种矩阵乘法碰巧与神经网络所需的完全相同。

因为没有那些GPU,我们永远无法达到今天在AI性能方面已经达到的性能水平。但是,随着更多企业已经掌握了更关于如何实现人工智能的知识,他们也在寻找设计出更高效硬件的方法和途径。

工程界已经意识到,降低能耗的关键是尽量减少计算架构中出现数据必须从内存迁移到处理器用于计算的这一情况发生,因为这样的迁移需要耗费大量时间和精力。

模拟技术天然适合边缘的人工智能。模拟计算需要低功耗,证明它具有高能效,但却不准确。模拟正在回归,因为内存计算与模拟计算可以相互配合。内存阵列负责神经网络权重,模拟元件负责求和和触发。

而人工智能学科发展与人类智能差距之一就是对多模态信息的智能化理解。人造信息量带来了更大多样性,视觉、声音、符号语言、嗅觉和触觉等信息,具有无限多样性。

神经模态计算的重要意义

①目前的深度学习仅能实现人类大脑极小一部分的功能,距离人类的智能还有非常远的距离,而使用神经模态计算直接模仿神经元系统在人工神经元数量足够多时,或将有希望能实现比起深度学习更好的效果,更接近人类大脑。

②目前深度学习计算在部署上遇到的困难是能效比和延迟问题,在对于功耗要求非常低的物联网领域,以及对于延迟要求非常高的领域无人驾驶领域,部署深度学习会遇到很大的挑战。

恰好神经模态计算则可以解决这两大问题

①神经模态计算的一大优势就是其计算功耗与输入有关,在输入不会激活大量神经元的情况下,其功耗可以做到非常低。

②对于物联网应用来说,神经模态计算可以利用这样的规律,仅仅在需要的时候激活神经元消费能量来完成事件识别,而在其他没有事件的时候由于神经元未被激活因此功耗很低,从而实现远低于深度学习芯片的平均功耗。

③神经模态计算并非常规的冯诺伊曼架构,神经模态计算芯片一般也不会搭配DRAM使用,而是直接将信息储存在了神经元里。这样就避免了内存墙带来的功耗和延迟问题,因此神经模态计算芯片的延迟和能效比都会好于传统的深度学习。

神经模态芯片发展的方向

①神经模态芯片的发展方向首先是规模化,即扩大神经元的规模,这也是Intel和IBM等大厂主要押注的方向。

②利用神经模态计算低功耗和低延迟的特点并进一步优化芯片设计来开发出高能效比低延迟的芯片。这类芯片或许神经元数量不多,但是可以实现非常低的功耗和非常好的能效比,从而可以部署在传统深度学习无法部署的场景。

神经模态芯片的商业化落地

①对于Intel和IBM这类在大规模神经元领域大量投资的公司,更看重在这几年内把神经模态计算的研究、生态先做起来,等到神经模态计算研究取得突破时就能获得先机。

②在中等规模神经元规模、主打低功耗的神经模态芯片方向上,物联网将会成为最佳的落地应用。

多模态人工智能存在不少难点

①数据模态多种多样,包括2D图像、3D模型、结构化信息、文本、声音及更多无法量化的数据。

②多模态数据的不对应,如从图像到文字,从文字到图像,都是“一对多”的过程,会有多种的描述和呈现。

③多模态数据的融合,一个软件或算法的进步较为容易,但多个算法一起,难度将几何级上升,要经过语言模型、三维建模、自动寻路、图像分析这些步骤。

④多模态监督。

AI芯片向多模态演进

目前,物联网和人工智能都是发展大势,而AI芯片正处于从通用型向专用型发展和转化的过程当中,特别是在物联网边缘侧,通用型AI芯片的计算效率较低,继而带来了成本和功耗的失配。

在物联网应用初期,很多AI芯片都是以单模态功能切入市场的,最为普遍的就是语音应用。但是未来的应用会是多模态融合的,机器人就是一个典型的多模态应用实例,还有如车载芯片,因此多模态是市场发展的必然趋势。

对于架构,虽然每家芯片企业的架构都有各自的特点和实现方法,支持机器学习的算法会逐渐形成统一的框架。未来有可能形成在不同AI芯片硬件上面,可以运行所有神经网络的模型,这在不久的将来是完全有可能出现的。

随着5G和物联网的大面积铺开,低功耗AI芯片将是未来的主要发展方向,只要相关标准能够确定,则商机无限。

企业先后跨足神经形态领域

虽然2016年时在航空、军事与国防、汽车、消费、医疗、金融服务、基础设施和公用事业等产业中使用神经形态技术的应用并不多,但在接下来的十年,这些产业将开始大量采用神经形态技术。

像IBM、Intel、惠普等巨擘都跨足这个领域,为神经形态晶片开发硬体,同时,高通也计划在2018年以前商用化其认知运算与机器学习平台Zeroth,从而将神经形态功能整合在嵌入式系统中。

整体神经形态晶片市场在2016年时约有12亿美元的价值,并以26.3%的复合年成长率成长,在2022年时达到48亿美元的市场规模。

而这还不包括消费终端产业,而是指由工业检测、航空、军事与国防等领域所带动的神经形态晶片市场需求。到2022年,亚洲将占据一半以上的神经形态市场。

国内神经模态芯片被重视

国内神经模态芯片得到了国家和业界的重视。清华类脑计算中心做出了卓越的贡献,其工作发表在全球顶级期刊和会议上。上海也于今年建立了上海脑科学与类脑研究中心,神经模态计算是该中心的重点方向之一。

在商业化方面,清华类脑计算中心孵化的初创公司灵汐科技在今年发布了自主研发的“天机二代”芯片系统,使用众核存算一体架构,具有高速度、高性能、低功耗的特点。

相比国外同行,我国的神经模态计算在最近几年得到了来自国家非常高的重视,相信在未来几年内将会有全球领先的成果诞生。

过去几年,尹首一副教授针对这一前沿课题,领衔研究和设计了可重构多模态混合神经计算芯片(代号Thinker)。

Thinker芯片基于该团队长期积累的可重构计算芯片技术,采用可重构架构和电路技术,突破了神经网络计算和访存的瓶颈,实现了高能效多模态混合神经网络计算。

Thinker芯片具有高能效的突出优点,其能量效率相比目前在深度学习中广泛使用的GPU提升了三个数量级。

其支持电路级编程和重构,是一个通用的神经网络计算平台,可广泛应用于机器人、无人机、智能汽车、智慧家居、安防监控和消费电子等领域。

结尾:

目前Intel和IBM在内的企业正积极探索超低功耗神经模态芯片在不同领域的应用,在未来几年内随着AI+IoT的发展,神经模态计算将会迎来一波新的热潮。

目前如何高效训练大规模神经模态神经元的算法还没有找到,因此在现有训练框架的基础下,或许优先把能效比做到极致是比把神经元数量做大更接地气的方向。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

4月26日,MediaTek宣布推出天玑汽车平台新品,以先进的生成式AI技术赋能智能​汽车的体验革新。

关键字: AI 汽车电子

2024年4月26日,中国深圳——2024年是OPPO品牌成立20周年。在2024年世界知识产权日,OPPO正式发布首份《OPPO创新与知识产权白皮书》,系统性地展现了OPPO 20载技术创新和知识产权保护成果。

关键字: OPPO 知识产权 AI

此战略布局将Wi-Fi HaLow置于台湾无线网络产业中心

关键字: Wi-Fi 无线网络 物联网

北京——2024年4月25日 我们的客户选择亚马逊云科技运行他们的关键应用程序和最敏感的数据。每天,世界上发展最快的初创公司、最大的企业和最值得信赖的政府机构都选择亚马逊云科技作为技术基础设施平台。他们之所以选择亚马逊云...

关键字: GPU 计算 生成式AI

「人工智能浪潮下的中国制造」论坛顺利召开 上海2024年4月17日 /美通社/ -- 4月12日,由百年名校法国里昂商学院主办,斯巴诺萨设计承办,福州东湖数字小镇,福建亚太合会数字经济专委会协办的"中法建交6...

关键字: 微软 雷诺 AI 中国制造业

根据调研机构Gartner的预测,由于竞相投资AI以及IT设备更换周期的到来,全球2024年的IT支出将增长8%。

关键字: GenAI IT AI

据报道,日本电信巨头软银集团将在未来两年投资1500亿日元(9.6亿美元)升级其计算设施,该计划包括大量采购英伟达GPU。

关键字: 软银 英伟达 GPU AI

芯科科技推出其迄今最高能量效率且支持能量采集功能的无线SoC

关键字: 物联网 能量采集 SoC

【2024年4月24日,德国慕尼黑讯】英飞凌科技股份公司(FSE代码:IFX / OTCQX代码:IFNNY)发布全新PSOC™ Edge微控制器(MCU)系列的详细信息,该系列产品的设计针对机器学习(ML)应用进行了优...

关键字: 物联网 机器学习 MCU

TDK株式会社(东京证券交易所代码:6762)新近推出InvenSense SmartEdgeMLTM解决方案,这是一种先进的边缘机器学习解决方案,为用户提供了在可穿戴设备、可听戴设备、增强现实眼镜、物联网 (IoT)...

关键字: 机器学习 物联网 传感器
关闭
关闭