当前位置:首页 > 工业控制 > 工业控制
[导读]人工智能将推动新一轮计算革命,深度学习需要海量数据并行运算,传统计算架构无法支撑深度学习的大规模并行计算需求。因此,深度学习需要更适应此类算法的新的底层硬件来加速计算过程。 芯片也为响应人工智能和深度学

人工智能将推动新一轮计算革命,深度学习需要海量数据并行运算,传统计算架构无法支撑深度学习的大规模并行计算需求。因此,深度学习需要更适应此类算法的新的底层硬件来加速计算过程。

 

芯片也为响应人工智能和深度学习的需要,在速度和低能耗方面被提出了更高的要求,目前使用的 GPU、FPGA 均非人工智能定制芯片,天然存在局限性,除具有最明显的优势GPU外,也有不少典型人工智能专用芯片出现。

一、谷歌——TPU(Tensor Processing Unit)即谷歌的张量处理器

 

 

TPU是一款为机器学习而定制的芯片,经过了专门深度机器学习方面的训练,它有更高效能(每瓦计算能力)。大致上,相对于现在的处理器有7年的领先优势,宽容度更高,每秒在芯片中可以挤出更多的操作时间,使用更复杂和强大的机器学习模型,将之更快的部署,用户也会更加迅速地获得更智能的结果。

根据Google一位杰出硬件工程师Norm Jouppi在一篇部落格文章中的说法,该种加速器早在一年多前就运用于Google的数据中心:“TPU已经启动许多Google的应用,包括用以改善搜索引擎结果关联度的RankBrain,以及在街景服务(Street View)改善地图与导航的精确度与质量。”

谷歌专门为人工智能研发的TPU被疑将对GPU构成威胁。不过谷歌表示,其研发的TPU不会直接与英特尔或NVIDIA进行竞争。

二、中星微——中国首款嵌入式神经网络处理器(NPU)芯片

 

 

中星微在今年6月 20 日,率先推出中国首款嵌入式神经网络处理器(NPU)芯片,这是全球首颗具备深度学习人工智能的嵌入式视频采集压缩编码系统级芯片,并取名“星光智能一号”。这款基于深度学习的芯片运用在人脸识别上,最高能达到98%的准确率,超过人眼的识别率。该芯片于今年3月6日实现量产,目前出货量为十几万件。

NPU采用了“数据驱动”并行计算的架构,单颗NPU(28nm)能耗仅为400mW,极大地提升了计算能力与功耗的比例,可以广泛应用于高清视频监控、智能驾驶辅助、无人机、机器人等嵌入式机器视觉领域。

三、英特尔——非传统意义上的英特尔处理器(CPU)

 

 

英特尔公司开发的第二代Xeon Phi处理器完美契合了人工智能的需求。Xeon Phi并非传统意义上的英特尔处理器(CPU),最新的Xeon Phi协处理器拥有多达72个内核,而且每个内核有两个用于提供更好的单核浮点运算性能的英特尔AVX-512 SIMD处理单元,所以这些处理器非常适合运行机器学习/深度学习工作任务。

四、人工智能风口下最受关注的还是要数GPU

GPU 因其并行计算优势最先被引入深度学习,全球可编程图形处理技术的领军企业英伟达借此已开始打造新的计算平台。目前,包括谷歌、Facebook、微软等科技巨头公司在内的人工智能领域研究的领先者,已经在使用英伟达所提供的专门应用于该领域研究的芯片产品。

Facebook的人工智能硬件平台Big Sur就是依托Nvidia的GPU而打造的。GPU在人工智能中的应用十分广泛,因为这种芯片上搭载的处理核心数量多于Intel生产的传统处理器,使得它们十分适用于AI软件所需要的海量计算。“Big Sur”的设计特点是易于维修的主板,它装有8个NVIDIA的Tesla M40。

(1)GPU对于人工智能领域的意义又是什么呢?英伟达(NVIDIA)制造的图形处理器(GPU)专门用于在个人电脑、工作站、游戏机和一些移动设备上进行图像运算工作,是显示卡的“心脏”。该公司正从一家显卡供应商转变为人工智能服务器供应商。

GPU在“深度学习”领域发挥着巨大的作用,因为GPU可以平行处理大量琐碎信息。深度学习所依赖的是神经系统网络——与人类大脑神经高度相似的网络——而这种网络出现的目的,就是要在高速的状态下分析海量的数据。例如,如果你想要教会这种网络如何识别出猫的模样,你就要给它提供无数多的猫的图片。而GPU擅长的正是海量数据的快速处理。

对于人工智能和深度学习来说,目前硬件加速主要靠使用图形处理单元(GPU)集群作为通用计算图形处理单元(GPGPU)。

与传统的通用处理器(GPP)相比,GPU的核心计算能力要多出几个数量级,也更容易进行并行计算。尤其是英伟达的CUDA,作为最主流的GPGPU编写平台,各个主要的深度学习工具均用其来进行GPU 加速。

(2)GPU有什么优势呢?GPU最明显的优势是更快的处理速度,相比于CPU,GPU的一大优势是高速度。国内最好的人工智能硬件研究项目“寒武纪”小组的最新研究结果表明,GPU能够提供平均 58.82X 倍于CPU的速度。GPU的另一大优势,是它对能源的需求远远低于CPU。

 

 

最新款的专门用于人工智能研究领域的Tesla P100图形处理芯片,号称公司为这款GPU的研发投入了20亿美元。它可以执行深度学习神经网络任务,速度是英伟达之前高端系统的12倍,预计新产品将会极大推动机器学习的极限。

黄仁勋在4月初的发布会上表示,未来10年,人工智能市场总值约为5000亿美元。他表示,深度学习令我们的业绩加速增长。这是一种全新的计算模式,利用GPU的大规模处理能力来学习人工智能算法。它的普及正在席卷一个又一个行业,推动我们的图形处理器市场需求不断增长。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

瑞典乌普萨拉,2024年3月27日 – 全球领先的嵌入式系统开发软件解决方案供应商IAR自豪地宣布:公司备受全球数百万开发者青睐的开发环境再次升级,已率先支持瑞萨首款通用32位RISC-V MCU,该 MCU 搭载了瑞萨...

关键字: MCU RISC-V CPU

联发科与高通骁龙的对决可以说是一场性能与价值的较量,那么,你对两者的芯片有了解吗?在移动设备领域,芯片制造商的竞争愈发激烈。其中,来自台湾的联发科(MediaTek)与美国的高通(Qualcomm)无疑是该领域的两大巨头...

关键字: 联发科 高通骁龙 CPU 处理器

随着科技日新月异的进步,语音识别技术已成为人工智能领域的一项核心突破。这项技术旨在模拟人类听觉系统,通过复杂算法和模式识别手段将连续或离散的语音信号转换为可理解的文本或指令信息。本文深入探讨了语音识别技术在多个领域的广泛...

关键字: 语音识别 人工智能

随着人工智能和信息技术的飞速发展,语音识别技术已经从实验室走向了现实生活中的各个角落,成为人机交互领域的重要组成部分。语音识别产品不仅丰富了我们的日常生活,也正在深刻地改变着众多行业的工作模式和服务形态。

关键字: 语音识别 人工智能

在当今大数据和人工智能时代,机器学习作为核心的技术驱动力,正以前所未有的速度改变着我们的生活和工作方式。从基础的数据分析到复杂的决策支持系统,机器学习模型的成功构建和应用离不开一套严谨的流程。本文将详尽阐述机器学习过程中...

关键字: 机器学习 人工智能

机器学习作为人工智能领域的核心技术,其应用日益广泛,从搜索引擎优化到医疗诊断,从金融风控到自动驾驶等众多领域均发挥着重要作用。深入理解并掌握机器学习的关键步骤是成功构建高效模型和解决方案的基础。本文将详细阐述机器学习的主...

关键字: 机器学习 人工智能

是德科技(Keysight Technologies, Inc.)现已开启与全新 NVIDIA 6G 研究云平台的合作。该平台包括 NVIDIA Aerial Omniverse 数字孪生,这是一个开放、灵活的网络仿真资...

关键字: 6G 人工智能 RAN

纵观人类近现代史,每一次工业革命都是将战略性科技转化为生产力,从而创造巨大的新增财富和全面提升国家竞争力的过程;而且一个国家在工业革命面前的“沉与浮”,则取决于一个国家对这些战略性科技和产业化能力的把控。从被称为蒸汽机时...

关键字: 人工智能 算力 大模型

云和超大规模服务运营商正不断增大计算密度。随着 Microsoft Cobalt、阿里巴巴的倚天 710、AmpereOne等配置 128 核或以上的 CPU 设计进入市场,单个封装可实现的性能更强,且下一代的目标还将远...

关键字: CPU 处理器

Arm Neoverse 旨在为从云到边缘的全场景基础设施用例提供高性能和出色能效。针对需要更高性能的工作负载和用例,Arm 推出了 Neoverse V 系列。其中,Neoverse V2 核心已被行业先行者广泛部署于...

关键字: 云计算 人工智能 CPU
关闭
关闭