当前位置:首页 > ai芯片
  • 地平线余凯:车规级AI芯片,引领汽车驶向超级计算机时代

    地平线余凯:车规级AI芯片,引领汽车驶向超级计算机时代

    9月3日,第二届全球IC企业家大会暨第十七届中国国际半导体博览会(IC China 2019)在上海召开,本届大会主题为“开放发展 合作共赢”,由工业和信息化部、上海市人民政府指导,中国半导体行业协会、中国电子信息产业发展研究院联合主办。地平线作为在AI芯片领域的先锋创业企业受邀参加本届大会,于上周宣布量产了中国首款车规级人工智能芯片——征程二代的消息也在整个半导体行业内引起不小的震动,创始人兼CEO余凯也在会上向IC同行和产业相关人士们阐述了地平线就车规级AI芯片研发和落地的产业布局。 图:地平线创始人兼CEO余凯 边缘计算是应对终端数量激增和海量数据计算挑战的关键 余凯在演讲伊始提到,计算的变迁一直围绕着终端的变化,计算终端变迁将助力计算机发展史,迎来AI新时代。5G时代将产生无处不在的AI节点,同时也会看到,时代主流的变化,智能机器的数量,将会数倍于全球总人口数,蕴含前所未有的商业机会。这对边缘计算来说,会有一定的发展空间。 图:地平线创始人兼CEO余凯 边缘计算可靠性高、低延时、低传输存储成本、脱敏合规等特点更符合无人驾驶的应用场景需求,是应对终端数量激增和海量数据计算挑战的关键。目前大家的关注点都在4级、5级的无人驾驶,余凯认为3级自动驾驶是一个转折点,是人机交互的切换点,目前真正在产业界规模化量产的是2级、2.5级的辅助驾驶,人工智能计算在辅助驾驶方面,可以提高安全性。他说“无人驾驶毫无疑问是车载人工智能计算最有想象力的未来,但是今天无人驾驶始终还有一些关键问题需要解决,它是确定性的未来,但是当下来讲,人工智能计算还在辅助驾驶的阶段,我们不是说替代司机,而是让司机驾驶更加安全、体验更好,包括车载娱乐导航的人机交互,包括高精度地图众包的生产,边缘计算已然在自动驾驶到来之前,可以产生巨大的市场规模。” 智能驾驶的发展亟待更强大的边缘处理器 边缘计算虽然不是数据中心,但它的计算负载同样很大,一辆自动驾驶车辆平均每天产生600-1000 TB的数据计算,仅2000辆自动驾驶车辆产生的数据量超过2015年我们整个文明一天数据用量,大规模设备端部署需要成本效率。根据摩尔定律,在过去的发展过程中,推动的不仅仅是IP层,还有人工智能层,都受到推动。如果摩尔定律继续,未来1000美金,我们就能买到等同于大脑的算力。如果无人驾驶更加智能化,则亟需更强大的边缘处理器。 地平线征程二代处理器在此背景下应运而生,其搭载自主创新研发的高性能计算架构BPU2.0(Brain Processing Unit),可提供超过4 TOPS的等效算力,典型功耗仅2瓦,且具有极高的算力利用率,典型算法模型在该芯片上处理器的利用率可以高于90%,能够高效灵活地实现多类AI任务处理,对多类目标进行实时检测和精准识别,可全面满足自动驾驶视觉感知、视觉建图定位、视觉ADAS等智能驾驶场景的需求,以及语音识别,眼球跟踪,手势识别等智能人机交互的功能需求,充分体现BPU架构强大的灵活性,全方位赋能汽车智能化。 图:地平线征程二代芯片核心参数 在能效比和开放性方面,征程二代具备显著优势。打造极致的AI能效是地平线芯片设计的核心理念。基于这一理念,征程二代芯片具备极高的算力利用率,每TOPS AI能力输出可达同等算力GPU的10倍以上。与此同时,征程二代还可提供高精度且低延迟的感知输出,满足典型场景对语义分割、目标检测、目标识别的类别和数量的需求。征程二代全面开放,提供从参考解决方案,到开放的感知结果,再到芯片及工具链的基础开发环境,并可依据客户的不同需求提供不同层次的产品交付和服务。 为什么地平线能够将AI处理器的算力利用率做得如此之高?原因在于地平线在AI处理器设计的初始就开始从整个芯片的系统级设计和芯片级别角度上思考SoC的设计思路,将经典芯片设计思想和带宽利用率优化结合在一起,注重真实的AI能力输出,既守住主效能又兼顾灵活效能的BPU思想。同时,地平线还从能源转化为计算的效率、算力成本、算力利用率和算力转化为AI输出的效率四个指标率先重新定义了AI处理器的真实性能。并且前瞻性的对重要应用场景中的关键算法发展趋势进行预判,提前将其计算特点融入到计算架构的设计当中,使得AI处理器经过一两年的研发,在推出的时候,仍然能够很好地适应时下最新的主流算法。因此,和其他典型的AI处理器相比,地平线的AI处理器,随着算法的演进趋势,始终能够保持相当高的有效利用率,从而真正意义上受益于算法创新带来的优势。 光有这些还不够,大家并不能够很好把这种处理器和算法高效算法利用起来,怎么办呢?地平线还推出了全栈式工具链Horizon OpenExplorer(“天工开物”开发工具链),包括核心转化工具模型结构检查性能分析、编译器、模拟器,输入可以是各种开源主流的深度学习框架产生出来训练模型,输出可以部署到人工智能处理器高效运行的模型,使用起来非常方便。 车规级芯片产品开发周期长,难度大,是硬科技、长跑道的创新 车载AI芯片被余凯看做是人工智能行业的珠穆朗玛,也是自动驾驶实现大规模落地的前提。众所周知,车规级芯片需要满足“高安全性、高可靠性、高稳定性”的技术标准要求,并需要经过严苛的研发、制造、封装、测试和认证流程,产品开发周期长,难度大,余凯说“需要有超强的耐力、耐得寂寞才能把这件事情做好”。地平线征程二代从设计之初就严格按照汽车电子可靠性标准AEC-Q100的要求进行。 地平线明年目标推出面向L4/L5 征程三代芯片,整个计算能力达到192TOPS,功耗仅48瓦,实际车载计算算力将是特斯拉自动驾驶平台的三倍。 关于车规级芯片的研发,地平线也给出了明确的发展路线图: 明年,地平线将发布16nm的J2A。而地平线的第三代车规级AI处理器J3,性能将达到域控制级L3,符合功能安全车规级,除了满足可靠性AEC-Q100,还符合功能安全,芯片达到ACILB,系统达到ACILD,并有保密价值加密机制,整体提供了安全可靠的芯片为自动驾驶护航。J3将基于BPU3.0架构,协同CPU、CV等形成异构计算,在智能驾驶场景下达到最优。其整个SoC支持多达8路以上的视频输入,并支持4K,地平线会将包括数据通路在内的整个架构做优化,最后达到一个极好的效果。 之后,地平线还会推出J3 max,目前已在规划中,预计会采用7nm等更先进工艺,针对L4、L4+高性能车规级处理器,可支持多达12路,算力达100TOPS,功耗目标是25瓦,芯片等级达C或D。 最后余凯指出,随着地平线这样的IC玩家不断往前奔跑,整个行业不断推进摩尔定律往前发展,车载的计算从分布式ECU架构,演进到现在的主流预控制器,到2025年会往中央计算单元去发展,汽车会展现出跟今天我们理解的PC还有移动产业发展格局本质属性,会变成四个轮子上面超级计算机。

    时间:2020-05-24 关键词: 5G ai芯片 地平线

  • 智慧安防技术研发 算力尤为重要

    智慧安防技术研发 算力尤为重要

    “人类生产力发展已经进入算力时期,计算能力成为这个时期最强大的新型生产力。”中国移动副总裁李正茂曾作如上表述。在安防行业,随着AI技术的不断渗透,技术价值中心也逐渐由软件算法层向核心算力曾转移。近年来许多安防企业也逐渐意识到在数据、算法层的领先无法完全覆盖产业竞争的现实需要,算力大战随之拉开帷幕。 智慧安防技术研发 算力尤为重要 智慧安防落地,算力提升才是王道。现阶段,从前端摄像头提高边缘智能,到端到端的一体化解决方案,再到后端服务器进行大规模训练分析,算力在很大程度上决定着安防系统的功能、成本、稳定性等方面。 此外,机器视觉、语音识别等技术已经进入成长期,较易实现图像、语音数据的标签化,且拥有丰富的数据集,提高AI计算系统性能与效率就变得尤为重要。 提升算力水平 厂商发力AI芯片 智慧安防产业在数据积累、算法应用等方面虽然有一定优势,但在算力方面依然存在差距。算力的提升则离不开芯片的支持,具有高算力的AI芯片由于能够满足行业计算需求并得到了快速发展,这也是当下智慧城市、智慧社区、安防监控所急需的垂直算力。 虽然就目前而言,AI芯片领域中国外巨头占据了大部分市场份额,但国内公司正在奋起直追。例如,华为近期就推出了目前为止全球已发布的单片算力最强的AI处理器——昇腾910。 华为公司轮值董事长徐直军曾直言“AI研究中遇到的最大困难就是缺少算力——AI本质就是暴力计算”。当AI芯片算力提升上来,智慧安防技术的研究与应用也就会迈入一个新阶段。 现有算力资源也需充分运用 尽管目前算力非常稀缺,但由于资源分配不到位,海量个人计算设备及资源被闲置,而分布式计算就能够有效利用冗余的计算容量。当下,随着云边结合分布式架构广泛应用到安防系统当中,云计算和边缘计算的应用会越来越多地被运用到项目当中。 然而即使是相对成熟的云计算还没有被许多大型企业所完全接纳,此外,虽然终端计算对于算力的要求较低,但是其功耗约束很强,可用的功耗在1W以下,甚至可以低至几十毫瓦级别,同时终端设备对于成本也很敏感。 不过,毋庸置疑的是,伴随边缘计算技术稳定性的提升,通过 “自托管”来实现算力去中介化和共享化的分布式计算在安防领域的应用将持续拓展延伸。 结语:“未来数据就是生产资料,算力就是生产力。”技术不断向前发展,随着算力不断增强,在不远的未来,将会呈现协同共享、虚实融合、网罗一切以及时间空间不断压缩等特征,完成更为深入的智能化。

    时间:2020-05-22 关键词: 安防 ai芯片

  • 随着技术的不断进步 可用于多个场景的AI芯片也被研制出来

    随着技术的不断进步 可用于多个场景的AI芯片也被研制出来

    为什么AI芯片一出,就能够引起巨大的反响,并引起国内外资本巨头的广泛关注呢?这个问题需要思考,也值得追究。 众所周知,芯片是一种内含集成电路的硅片,体积很小,常常是计算机或其他电子设备的一部分。随着技术的不断进步,芯片的性能不断得到优化,可用于多个场景的AI芯片也被研制出来。 一时之间,不仅世界各国的科研人员睁大了好奇的双眼,在认认真真观察和分析AI芯片,就连手机制造商、电子元件制造商也凝神聚力、跃跃欲试,希望能够加深对AI芯片的人士和了解,并推动其应用,这无疑使本就火热的芯片市场愈加热闹,AI芯片也成为了普通民众街谈巷议的热点话题。 放眼全球,英、美、德等国家在AI芯片、物联网、无人驾驶等领域投入了大量的人力物力,一些国家在核心技术研发方面也已经取得了一定的成果。作为世界经济体的重要组成部分,我国也立足国情,从政策、资金、税收等方面对AI芯片相关产业发展予以大力支持。 在各有关方面的共同推动下,国产AI芯片产业迈开大步,向着高质量、高效益方面转型升级。实际上,AI芯片产业的大踏步发展,一方面为传统芯片企业转变生产流程、优化生产模式提供了契机,另一方面也促使芯片企业积极与同行进行交流,并共同探讨促进AI芯片产业的新途径。 近几年,我国芯片研发制造企业也纷纷涌现出来,国内的AI芯片企业总体呈现出十分活跃的局面。与此同时,传统芯片巨头英伟达、ARM、IBM、高通等也持续加大了对AI芯片的投入力度。 值得注意的是,近两年一些科技巨头开始加入自研芯片的阵营。例如,华为海思推出了一款采用了台积电10nm工艺的新一代芯片麒麟970,是内置独立NPU(神经网络单元)的智能手机AI计算平台,为手机提供了更加迅速的处理速度和更低的功耗。 在芯片产业发展迅速之际,一些业内人士也表示了自己的担忧:在国际政治经济复杂多变、国际贸易规则尚未完全统一的大环境下,国产AI芯片该如何自处,国内AI芯片企业到底该如何布局才能争取到更大的发展机会,并实现健康、可持续发展呢? 有分析人士指出,影响AI芯片产业发展的因素是多种多样的,国产AI芯片要想突出重围,还要在人才培养、技术研发等方面多下功夫,多多努力。归根结底,加强自主研发能力的培养、加大对AI芯片核心技术的研发力度,将成为今后一段时间内推动我国AI芯片事业发展的重中之重。 通常来讲,AI芯片产业的产业链很长,包括设计、制造、封装、测试等多个环节,每个环节都具有较高的要求。而一款AI芯片的出现,就凝结了产业链上各环节劳动者的智慧和汗水。因此,除了努力提升芯片研制技术外,还需要通盘考虑产品设计、制造等各个方面,把有利于芯片产业发展的各项积极因素充分调动起来,以此促进我国AI芯片产业的健康发展。 据市场调研机构Gartner预测,全球AI芯片市场规模将在未来五年内呈现飙升态势,到2023年将达到108亿美元,复合年均增长率有望达到53.6%,AI芯片将成为具有较大发展空间的蓝海市场。 面对这一难得的机遇,无论是国内外各科技巨头,还是创业公司,都将加紧布局AI芯片,整个AI芯片市场竞争将变得更加激烈。今后,各芯片制造商为获取丰厚的市场收益,将加快推出高品质的AI芯片,并力求在核心技术研究方面取得新成果。 长风破浪会有时,直挂云帆济沧海。顺风也好,逆风也罢,相信在经过了重重考验之后,我国国产AI芯片的研制水平将迈上一个新的台阶,而性能稳定、使用便捷的AI芯片,将在国际芯片市场中“盛放”,并将科技的大花园点缀的更加绚丽多姿。

    时间:2020-05-21 关键词: ai芯片

  • 技术不断提高 国内AI芯片有望实现弯道超车

    技术不断提高 国内AI芯片有望实现弯道超车

    长期以来,中国在CPU、GPU等传统芯片领域的自主研发能力较弱,绝大部分高端芯片依赖国外进口。国家集成电路产业投资基金股份有限公司总经理丁文武曾表示,2018年中国进口芯片总额已经超过了3000亿美金,达到3125亿美金,2017年是2700多亿美金。并且,在进口芯片当中份额最高的是高端核心芯片,比如CPU、MCU和存储芯片。 集成电路是我国战略性、基础性、先导性的产业,自2014年国家成立集成电路产业投资基金以来,半导体芯片行业迎来黄金发展期,芯片的自给率不断提高,国产化趋势加速。其中视频监控行业的“中国芯”作为集成电路产业重要组成部分,表现尤其亮眼。华为海思、富瀚微等众多国内芯片厂商,凭借其高性价比、过硬的技术实力以及本地化定制服务等特点迅速占领市场,能够与安霸、德州仪器等国际一流大厂进行正面较量。 视频监控领域国内企业已崛起 近几年来,以海思为代表的国产芯片厂商正在不断压缩海外竞争对手的市场份额。自从海思从2006年在全球推出针对安防应用的H.264芯片后,其在安防从前端到后端各个环节均进行了布局,并凭借高性价比、快速的支持响应速度、完整的解决方案赢得了国内大部分市场份额。此外,还有更多国产芯片厂商瞄准了安防市场,包括在ISP芯片领域具备较强实力的富瀚微、最近两年推出IPC芯片产品的北京君正、国科微等。 在前端,随着豪威科技被国内企业收购,摄像机图像传感器cmos领域,终于有了国产化的产品提供商,另外,伴随着CMOS图像传感器的应用场景越来越广,安防摄像机、智能手机,再加上汽车等新兴市场的推动,国内也有一众CMOS生产企业,如格科微电子、思比科微电子、比亚迪微电子、锐芯微电子等等纷纷发力图像传感器cmos领域。 另外,前端ISP芯片、IPCSoC芯片领域,目前国内市场国产芯片(主要是华为海思)的提升到70%左右,国外芯片占比降低到30%左右,富瀚微ISP芯片实力强劲,并积极开拓IPC芯片市场;另外,国科微凭借集成电路产业基金加持,已成功在IPC芯片市场站稳脚跟。 在后端,无论是在DVRSOC芯片、NVRSOC芯片上,华为海思已经占了接近80%的市场份额,其他厂商在该领域缺乏竞争力。 国内AI芯片有望实现弯道超车 随着新兴产业、技术和产品不断涌现,大数据、云计算、5G通信、人工智能等技术为芯片提供了巨大的市场。前瞻产业研究院曾公布这样一组预测数据,2021年全球人工智能芯片市场规模将达到111亿美元,与2016年的36亿美元相比,年复合增长率达25%。 尤其是人工智能的兴起,正在引发各行各业的变革。旧型芯片不能完全满足机器学习的需求,国内以华为及一众AI创业公司为代表芯片制造企业已经同国外芯片研发制造站在了同一个起跑线上,AI芯片也已经成为企业和资本布局新焦点。在政策利好的大背景下,越来越多的企业和资本竞相布局AI芯片。华为、寒武纪等众多企业纷纷推出新款AI芯片,并在手机、机器人等领域布局;此外,AI芯片的资本市场也很活跃,寒武纪、地平线等企业都获得了资本市场的垂青,完成了多轮融资。截止2018年第三季度,中国AI芯片的投融资额达30.2亿元,AI芯片逐渐成为中国人工智能投融资的热点领域。 另外,作为国内芯片领域的代表,华为2018年发布AI战略,并且发布两款均基于“达芬奇”架构的AI芯片,昇腾910(一款服务器芯片,昇腾910每秒浮点运算次数(FLOPS)达到256T,实现单芯片计算密度最大,比英伟达V100还快一倍。)、昇腾310(一款高效计算低功耗Soc),并且Soc目前已经商用。明年华为还将发布昇腾920和昇腾320。 今年6月份,寒武纪公司推出云端AI芯片“思元”——第二代云端AI芯片思元270(MLU270)及板卡产品。思元270芯片处理非稀疏深度学习模型的理论峰值性能提升至上一代MLU100的4倍,达到128TOPS(INT8);同时兼容INT4和INT16运算,理论峰值分别达到256TOPS和64TOPS;支持浮点运算和混合精度运算。思元270采用寒武纪公司自主研发的MLUv02指令集,可支持视觉、语音、自然语言处理以及传统机器学习等人工智能应用。另外,面向人工智能训练任务的思元270训练版板卡产品将于本年度第四季度推出。 经过多年的高速发展,中国已经初步具备了一定规模的微电子人才储备和巨大的市场,芯片技术和产业已经发展成为体系化网络,正符合发展人工智能芯片的两项基本条件,实现弯道超车还是有可能的。

    时间:2020-05-20 关键词: 视频监控 ai芯片

  • 类脑芯片会是AI的终极答案吗

    类脑芯片会是AI的终极答案吗

    今年8月,有个消息轰动了中国科技界,尤其是AI圈。由中国科研团队研发的“天机”芯片登上了《自然》杂志封面。相关文章展示了清华大学施路平团队研发的世界首款异构融合类脑芯片,它既可支持脉冲神经网络又支持人工神经网路,并且公布了利用“天机芯片”完成自行车自动驾驶的实验视频。 这件事给投资界、产业界的直接影响,是在近段时间“类脑芯片”和“类脑计算”相关的投融资、并购与创业公司突然多了起来。“类脑”相关的会议活动也突然增加。虽然说“类脑热”还远远谈不上,但这个领域的突然升温却是真实可见的。 如果我们把目光放得更远一点,类脑芯片确实在这几年有了大规模的爆发。各大学实验室以及科技巨头纷纷拿出了类脑芯片产品,也有不少专家学者认为,人工智能要经历简单人工智能、深度人工智能、通用人工智能三个阶段。而今天的深度学习代表了第二阶段的开始,类脑计算则是通用智能大门的钥匙。 事已至此,可能给大众的感觉是,类脑芯片已经是注定的未来,人类已经借由它找到了通向强人工智能的门径。 然而果真如此吗?类脑芯片是否就是AI的终极答案,今天还埋藏着太多不确定性。而想要客观认识类脑芯片的未来,我们可能必须要把时间倒回一些,先理解它的过去。 一段人类认识神经与大脑的过去。 神经行为学:AI之外的另一条路 从人类的大脑和智慧中,抽取提炼某种技术,是一件源远流长的工作。能不能让机械像人类一样识别、判断和思考,最终发展出了今天的AI。 而在另一项“兄弟研究”里,却一步步发展出了今天的类脑芯片——换言之,类脑芯片的起点某种程度上来说跟AI没啥关系。因为它类的是青蛙的脑。 早在16世纪,达芬奇就在手稿中分析过无头青蛙也能活的现象,某种程度上来说他发现了生物电和中枢神经系统的秘密。但是我们知道达芬奇手稿近世才被披露,所以这个发现就像他很多惊天发明一样变成了“达芬奇的秘密”。 1786年,伽格尼发现了青蛙挂在金属栅栏上腿会抽动的现象,继而一步步建立了早期生物电学。沿着青蛙们以高贵牺牲精神开拓的道路,人类逐渐发现了生物电和神经系统的奥秘。即生物的神经运转,是依靠生物电刺激神经元节点,最终实现了大脑控制机体的网状神经结构。 由这个结构开始,神经学界很自然就会思考另一个问题:既然动物是依靠神经元来传递信息、进行控制的,那么这种控制是如何发生的呢? 围绕这个问题,人类在20世纪开始漫长的,对神经传递、神经动力的研究,并在1963年完成了神经行为学的术语概念确认。这个学科中,研究者从生物、解剖、神经反射等多个角度提出了关于神经元的行为学模型。其中很多关于神经元计算的讨论,甚至早于AI概念的提出。 我们知道,今天人工神经网络是AI的基石,但人工神经网络的提出,其实只是上世纪70年代,AI和计算机学界对神经元研究的一次借鉴,主要是模仿了神经元分层处理的特征。它的基础还是坐落在统计学和控制论的概念上。 但随着AI和现代计算的不断发展,作为“兄弟学科”的神经行为学自身也在进步。于是就有人联想到了,能不能直接整体移植神经元系统,在现实世界里,把类似动物大脑中神经元行为的动力机制变成一种运算机制? 之所以要这么干,主要还是临近21世纪,人类发现冯诺依曼架构不断抵近极限。一种从根儿上不同于经典计算的计算架构,或许是最一劳永逸的解决办法。量子计算是一种解决方式,而全仿生神经元行为学的解决方案则是另一种——这一种在大部分时候就被简称为类脑计算。 事实上,类脑计算中除了神经元行为学的仿生计算,也还要其他计算方式。但今天,毫无疑问模仿神经元行为是最成功的一种,于是我们今天看到的二者大体是可以划等号的。 毕竟人脑肯定是最好的计算机,加上想发展AI,那么类似人脑结构的计算方式显然极具魅惑。于是类脑计算在众多新计算形式中天然占据着加分项,而又过了几十年,摩尔定律的极限愈发明显的今天,类脑计算也确实拿出了一些成绩。 类脑计算:比特之外的另一条路 想要了解芯片化的类脑计算之前,我们还要先了解两个东西:SNN和人造突触。 上面咱们说过了,人工神经网络(ANN),本质上还是一种基于统计学递归原理所构建的计算架构。那么想要搞类脑计算,就需要一种更仿生大脑神经元运作的计算架构。这种架构应该体现出人脑计算的高效、精准和连续性,从而对存储分离的冯诺依曼架构提出挑战。 是不是有这种东西呢?还真有。 这就是今天类脑芯片们的基础检验标准:脉冲神经网络SNN。1952年,发现了神经学的功能的离子学说和突触电位的诺贝尔医学奖得主,艾伦·劳埃德·霍奇金爵士提出了脉冲神经网络这种神经行为学模型。 SNN的价值在于,它描述了神经元之间的电位是如何产生和流动的,它认为神经元之间的交换主要靠“神经递质”来产生化学放电,从而在神经网络中实现复杂和可变的神经系统交互。 这一发明来到了计算世界,就变成了一种高度模仿神经元的计算架构。它用发生脉冲的仿生来模拟神经元电位,构成了一种独特的网络结构。 今天,SNN已经在很多领域,比如低功耗和通用处理能力证明了自己的优秀。 但是对于很多说SNN一定是ANN的进化,是下一代神经网络,这个说法有失偏颇。事实上,SNN的出现并不比ANN晚。说白了要有用早就用了,真正让它停留在实验室中的,还是缺乏实际的任务处理能力。但就像大规模并行计算重新激活了沉睡几十年的ANN一样,SNN的未来谁又说得准呢? 类脑计算的另一个关键点,是计算节点的问题。我们知道,比特计算的节点是晶体管的导电开关。而类脑计算则要求模拟出与人类神经元相似的计算节点,来实现非比特计算的另一条路。这也就是说,我们需要人造神经突触。 今天关于如何模拟,或者制造人工突触,已经有相当多的探索。但整体而言新材料还有这样那样的问题,能够量产的类脑芯片,基本还是用电路模拟人造突触的方式来实现类脑计算。这样做对工艺要求很高,生产效率地下,其实并非长久之计。 沿着这两条路,人类慢慢就摸到了类脑芯片的大门。 2011年,IBM发布了TrueNorth芯片,这也是人类用电路模拟神经行为学的开端。2014年TrueNorth更新了第二代,功耗达到了平方厘米消耗 20 毫瓦,印证了类脑芯片的低功耗价值,也在一些AI任务上印证了类脑芯片的实际工作能力。 而紧随其后的,想想也知道应该是英特尔。2017年,英特尔发布了类脑芯片Loihi,其拥有13万个人造突触。今年7月,英特尔发布了号称业界首个大规模神经形态计算系统Pohoiki Beach。这个系统由64块Loihi组合而成,已经可以在自动导航、陆续规划等需要高效执行的AI任务中带来高于GPU的功耗和处理能力。 除此之外,业界比较出名的类脑芯片还有高通的Zeroth,以及一些高校实验室和创业公司发明的芯片。吃瓜群众一致表示,这个场子现在就缺谷歌了。 事实上,某种程度上看2019年是类脑芯片爆发应用潜力的一年。无论是中国的天机,还是英特尔和IBM的类脑芯片,都已经在今天被证明了在低功耗和超高速反应上,具有值得期待的效果。这可能给AI领域的一些相关任务,比如非监督学习、快速定位、路径规划上带来帮助。 但是客观来说,类脑芯片并不是完全成熟的。虽然主流科技公司纷纷布局,中国浙大的“达尔文”芯片、清华的“天机”芯片都已经在路上。但类脑芯片距离真正确立产业价值,从实验室步入现实世界,还有很长的路要走。 已知的,未知的:类脑芯片的今天 类脑芯片到底是什么?是人类的朗基努斯枪,还是唐·吉歌德面向风车的宣言?或许我们真的没有必要在今天就给出答案。计算史上从来不是每一次尝试都必须成功,同时很多失败也具有伟大的价值。 综合来看,今天类脑芯片的发展至今,已经可以明确它的几大优势和特性,也就是类脑芯片的光明面: 1、像人脑一样的存算一体,打破了存储计算分离的架构,这是类脑计算的核心突破。 2、功耗极低,并且不会因计算任务的架构复杂化而功耗激增。这终于让计算耗电和散热两大难题找到了新的方向。 3、可能更适合SNN代表的类神经元计算架构,在未来AI发展之路上想想无限。并且具备架构灵活,阵列化计算效率不衰减等等优点。 当然,最根本的优势在于,类脑计算可以绕开比特编程和摩尔定律。在算力极限面前,是跟量子计算一样都是人类的主要救生船。 但是光明面的背后当然就是阴影,也要确实看到的是,类脑芯片在今天还有极大的不确定性,尤其是有一些基础问题无从解答。 比如类脑芯片的任务性处理能力差、算力水平过低。第一代TrueNorth甚至无法处理任何有价值的任务。虽然经过几年的发展,类脑计算可以处理的任务越来越多,但是要看到这些任务都有严苛的先决条件。对于绝大部分计算目标来说,类脑芯片都表示带不动。 另一方面,用电子电路模拟人造突触,是极其不划算的一件事。它要花费极高的工艺与技术成本,来实现效率并不高的神经元模拟。所以面向未来,更多人认为一定要找到可以代替经晶体管的,属于类脑计算的新材料——但是这个材料是什么,如何才能做到像硅晶片一样便宜,今天都是未知数。 另一方面,适配类脑计算的架构、算法、编程方案等等也处在广泛的空白期。总体来看,类脑芯片今天就像一片新的开发区,附近有机场,有铁路,但其他东西都还停留在开发方案上。 尤其在我们身边,还要特别警惕一件事,那就是类脑芯片虚假繁荣带来的危险。AI火了之后,更未来更AI的技术成为投融资与政府扶持热点,是一件很自然的事。但类脑计算和类脑芯片,事实上还有非常远的路要走。今天在产业中讨论它,很多时候都是漫无边际的非理性畅想。 笔者曾经参加过一些地方产业组织牵头举办的类脑芯片活动,现场讨论莫衷一是,产学各界代表完全没有在统一的技术逻辑上展开对话。乱拳打死老师傅模式的盲目发展类脑,很可能最终留下“遇事不决,量子力学”般的一摊浆糊。 回到类脑芯片的真实发展路径,今天的类脑芯片,本质上还处在有太多不确定性的实验室探索阶段。它的进步在真实发生,中国也确实站在非常具有想象力的起跑线上,但想让类脑芯片为世界贡献些什么,我们可能还要拿出更多,更多的,以及更多的耐心。 不知道大家看过电影《富春山居图》没有?那是一部划时代的烂片,但它主题曲的几句歌词,非常适合放在这里作为结尾: “反正你的亲吻无凭无证 就随天机而死天意而生 只要答案,不要问”

    时间:2020-05-18 关键词: 人工智能 AI ai芯片

  • 矿机厂商为什么都争着开发人工智能芯片

    矿机厂商为什么都争着开发人工智能芯片

    美国当地时间 10 月 28 日,全球第二大矿机设计与制造厂商嘉楠耘智正式向美国证券交易委员会(SEC)提交首次公开发行(IPO)招股书,计划 11 月下旬以股票代码“CAN”在纳斯达克上市。在招股书中,嘉楠耘智将自己定位为:“领先的超级计算解决方案提供商”,希望利用先进工艺技术的早期和大规模采用的趋势来建立世界一流的半导体公司。 招股书显示,嘉楠耘智已经具备 AI 芯片设计能力,这也是嘉楠耘智商业模式的一部分。2018 年 9 月,嘉楠耘智发布了第一代 AI 芯片 Kendryte K210,并于 2018 年第四季度开始批量生产。同时,招股书中也说明,公司会在将来平衡矿机业务和 AI 芯片业务(当前 AI 芯片业务占比较小),半导体行业的领先者和新入者也被视为潜在的竞争对手。 除了嘉楠耘智,其他矿机厂商也在不断尝试进入AI芯片领域。比特大陆在2016年宣布业务向AI芯片方向延伸。利用其在研发矿机时在ASIC芯片上的技术积累,比特大陆已量产发布多款云端系列和终端人工智能芯片,可应用于人脸识别、自动驾驶和城市大脑等诸多人工智能场景,将为福州的城市大脑项目提供基础算力支持。比特大陆两位创始人之间的争斗也是在詹克团试图让比特大陆在人工智能芯片行业加大投入的背景下发生的。 另一方面,国内第三大矿机制造商亿邦国际在去年年底提交的招股书中也表示,已完成了包括物联网应用在内的三项人工智能芯片开发项目的初步可行性研究,分别是智能家居系统,智能健康终端及服务器,以及智能自动化务农系统。其首款人工智能芯片预计于2019年下半年完成。 为什么三大矿机厂商都对人工智能芯片如此热情?为什么比特大陆联合创始人詹克团要顶着团队不和、公司内斗的风险转型人工智能芯片呢?链得得记者对蜂鸟矿机CEO刘志赟和人工智能专家张砾进行了采访。他们认为,矿机厂商进军人工智能芯片不但是大势所趋,也有先天优势。 从市场的角度来看,人工智能芯片不但是未来芯片产业的发展方向,更是我国半导体产业弯道超车的重要节点。比特大陆、嘉楠耘智、亿邦国际等矿机厂商作为全球半导体行业新贵,将目光转向人工智能芯片领域是大势所趋。 随着全球范围内越来越多的政府和企业组织逐渐认识到人工智能在经济和战略上的重要性,并从国家战略和商业活动上涉足人工智能,全球人工智能产业发展迅速,根据德勤的一份报告中显示的数据,2018年中国人工智能市场规模超过300亿元人民币,人工智能企业数量超过1000家,位列全球第二。据德勤推算,世界人工智能市场将在2020年达到6800亿元人民币,复合增长率达26.2%。人工智能芯片作为人工智能产业链的上游,无疑也面临着巨大的发展前景。ABI Research在一份报告中预测,AI 芯片市场预计将从 2019 年的 42 亿美元增长到 2024 年的 100 亿美元。 曾任堪萨斯大学深度学习实验室主任的人工智能专家张砾告诉链得得App,作为全球发展最快的人工智能市场,中国在芯片制造方面均落后于国际先进水平。长期以来,中国的芯片大部份依赖进口,芯片设计和制造方面的技术基础薄弱。根据中国海关总署数据显示,2015-2017年中国进口芯片总量分别为3140亿块、3425亿块、3770亿块,进口额分别为2299千亿美元、2270千亿美元和2601千亿美元。这也使芯片进口额连续三年超过了原油。 但张砾也表示,人工智能领域的应用目前还处于面向行业应用阶段,生态上尚未形成垄断,国产处理器厂商与国外竞争对手在人工智能这一全新赛场上处在同一起跑线上,因此,基于新兴技术和应用市场,中国在人工智能芯片行业方面将大有可为。 蜂鸟矿机CEO刘志赟在接受链得得App专访时表示,从技术的角度来看,人工智能芯片和矿机芯片在设计、制造等方面都有着较高的重合度,技术壁垒并非难以逾越,矿机芯片的设计和生产经验将大大降低人工智能芯片的设计和生产难度。 通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片。为了支持多样的 AI计算任务和性能要求,理想的AI芯片需要具备高度并行的处理能力,同时也需要较低的功耗和极高的能量效率。 因此,同样需要具备高度并行的处理能力,同时也拥有较低的功耗和极高的能量效率的矿机芯片与人工智能芯片的需求高度重合,并且也拥有近似的架构。矿机采用的专用集成电路,是专为进行哈希运算而特殊设计的定制芯片。定制的特性有助于提高 ASIC 的性能功耗比,缺点是电路设计需要定制,相对开发周期长,功能难以扩展。但在功耗、可靠性、集成度等方面都有优势,尤其在要求高性能、低功耗的移动应用端体现明显。 刘志赟认为,矿机厂商所拥有的芯片设计团队在设计挖矿使用的ASIC芯片方面已经拥有了从设计到投产的一系列经验,这种经验对于越过人工智能芯片的技术壁垒无疑是有帮助的。 因此,综合市场与技术的角度来看,矿机厂商进军人工智能芯片不但是大势所趋,也有先天优势。但需要注意的是,虽然人工智能芯片市场方兴未艾,还有大量的发展空间,但竞争却非常激烈。在AI芯片领域,高通、谷歌、英伟达、英特尔、AMD等国际巨头纷纷发力,国内的寒武纪、华为海思、阿里平头哥也不甘示弱,在研发上投入了大量资源。与这些巨头相比,矿机厂商的先天优势并不明显。因此,想要进军人工智能芯片领域,矿机厂商们还需要付出更多努力。

    时间:2020-05-18 关键词: 人工智能 AI ai芯片

  • 怎样使自动驾驶行业更加的智能化

    怎样使自动驾驶行业更加的智能化

    自动驾驶重新定义汽车,实现人们更高层次出行需求的技术,带来未来交通深刻变革 当自动驾驶、智能网联逐渐充斥着我们的生活,这就意味着智能化真正来到了我们的身边。万物互联、万物智能,汽车行业正在与包括AI、芯片、物联网等新一代先进技术深度融合。 就在不久前举办的第二届智能网联汽车大会上,工信部部长苗圩表示,未来将以深化供给侧结构性改革为主线,把智能网联汽车作为汽车产业转型升级的重要方向,着力促进融合创新,加快推动产业发展,支持企业开展协同创新,建立面向未来的融合创新平台。 智能化正在成为引领汽车行业深刻发展的重要标志和手段。 自动驾驶的高光时刻 从2009年谷歌启动自动驾驶项目研究至今,自动驾驶已经走过十年光景。从寥寥几家科技公司涉猎,到获得全球众多车企、科技公司、初创企业的追捧,自动驾驶俨然已经成为汽车行业当之无愧的焦点。此前,据互联网公司英特尔预测,自动驾驶产业未来市场规模达7万亿美元。 自2016年开始,自动驾驶的风真正刮到了国内。从百度、阿里、腾讯组成的BAT联盟,到小马智行、地平线、文远知行等初创公司的兴起,再到全产业链的介入,汽车产品形态正从单纯的交通运输工具,向移动办公、共享出行的方向发展。自动驾驶作为解决方案,推动着汽车与交通的全面转型与升级。 自动驾驶的本身自带的变革特质,无法避免地重塑着汽车产业链的形态,加速推进向前进。以百度为代表的科技公司,正成为国内甚至全球自动驾驶行业研究的头部玩家。今年9月26日,首批45辆百度Apollo与一汽红旗联合研发的“红旗EV” Robotaxi自动驾驶出租车车队开始在长沙部分已开放测试路段进行试运营。10月25日,由元戎启行和东风汽车共同研发,具备L4级自动驾驶的RoboTaxi在国家智能网线汽车(武汉)测试示范区接受嘉宾体验。 自动驾驶产业的风口正在来临。目前,全国近20个城市已经发放自动驾驶道路测试牌照200余张。以往人们的认知中,都普遍对较高级别即L4级别的自动驾驶存有疑虑,但越来越多的路测试运营,让人们逐渐认识到了自动驾驶真的落地越来越靠近现实。 据一位在长安汽车工作的自动驾驶工程师透露,2020年似乎会成为自动驾驶发展的一个“分水岭”。 从先行者寥寥,到群雄并起,汽车产业接待新事物的速度比想象中要快得多,自动驾驶正在为大众带来未来交通的更多可能,实现对于汽车智造和智慧生活的全新理解,重新定义着汽车。 智能带来汽车全新升级 在第二届智能网联汽车大会上,智能驾驶方案提供商四维图新展示了正在研发推出的新一代车机系统雅典娜OS。这款系统具有了未来智能网联汽车的想象,拥有包括音乐、天气、地图等基本车载网联智能应用,还能满足人脸识别等人车交互性能,通过人脸识别系统,车辆可以自动记录驾驶人的驾驶习惯、行进路线、爱听什么歌曲等,可以自动帮助驾驶人选择更合适的线路等,实现着V2X的应用。 事实上,车路协同已经成为具有中国特色的自动驾驶技术发展路径。包括北京、无锡等在内的中国多个城市都在开展智能网联汽车道路测试,2018年以来,北京新增开放20多条测试道路,目前累计测试里程已经达到73万公里。 10月31日,工信部与三大运营商举行5G商用启动仪式,中国移动、中国联通、中国电信正式公布5G套餐,并于11月1日正式上线5G商用套餐,这标志着我国将正式进入5G商用时代。伴随着5G商用,在系统信号传输和技术上,都为智能网联带来全新的升级,迎来了更多可能。 长安汽车智能化研究院副总经理黎予生此前曾表示,在未来10到20年间,智能汽车会有革命性的变化。无论是传统车企、还是初创企业,都在加快布局,推进商业化进程。随着市场需求的提升,智能网联将成为汽车产业未来的发展方向。 中国智能网联汽车规模可达1000亿元 赛迪顾问总裁孙会峰表示,未来互联网将成为汽车标配功能之一,车网互联使得车辆不仅仅是独立个体,而是庞大交通网络体系中的有机一员,自动驾驶车辆将接受网络智能调度,将交通出行打造成智能化、自动化、联网化的有机整体。 这也意味着,自动驾驶的实现也是智能网联技术实现的一部分,汽车依靠着智能网联技术,实现着包括车路协同、智慧城市的构建,让汽车不止于汽车。正如百度副总裁、百度智能驾驶事业群组总经理李震宇表示,智能网联汽车的发展引发自动驾驶新业态的诞生,促进生态更加开放繁荣。未来将会产生更复杂的智能设备、更多不同的公司和产业形态。 据业内人士预测,预计到2020年,中国的智能网联汽车市场规模在1000亿元以上,未来的市场竞争将极大考验科技创业企业的技术研发能力以及商业落地能力。但可以肯定的是,拐点已至,中国汽车智造升级的时代已经来临,或许自动驾驶L4级“飞入寻常百姓家”、智能网联汽车驶入千家万户的时代正一步步走近。 ■何为汽车智能化? 汽车智能化:即在自动驾驶、物联网等新技术的作用下,汽车行业与其深度融合,从而实现人们更高层次的出行需求的技术。 时间年轮 2013年百度组建自动驾驶研发团队,自动驾驶的“风”刮到国内。 2018年工信部、公安部、交通运输部三部委联合印发《智能网联汽车道路测试管理规范(试行)》,自动驾驶路测规范发布。 2019年首批45辆百度Apollo与一汽红旗联合研发的“红旗EV”Robotaxi自动驾驶出租车车队在长沙部分已开放测试路段试运营。

    时间:2020-05-18 关键词: 自动驾驶 ai芯片

  • AI芯片助力下 智能安防的价值也得到了释放

    AI芯片助力下 智能安防的价值也得到了释放

    去年云栖大会,“平头哥”横空出世;今年云栖大会,“平头哥”发布正式流片的芯片。据悉,这款名为含光800的芯片推理性能达到78563 IPS,在杭州城市大脑的业务测试中,1 颗含光 800 的算力相当于 10 颗 GPU。 算力是AI的引擎,AI芯片不仅代表着计算的规模和效率,也代表智慧的程度。清华大学微电子所所长魏少军曾用“无产业不AI,无应用不AI,无芯片不AI”来描述芯片对的AI产业应用的重要性。 AI芯片更强算力释放安防价值 作为AI落地的重要领域,安防产业的摄像机、交换机等安防产品均需要芯片,这也决定了整个安防系统的业务表现。 以杭州主城区交通监控视频处理为例,该业务需要40颗传统GPU,且有300ms的延时;而含光800这种算力级别的芯片仅需4颗即可完成同样的业务量,且延时降至150ms。强大的算力能够更大程度释放智慧安防的价值,算力对安防产品应用效果的影响不可谓不大。 场景不同 要求不同:安防哪一领域好掘金? 当然,安防领域AI芯片的应用并不是“大力出奇迹”,还需要考虑更多因素。例如,端侧和后台对AI芯片的要求不同,在当下城市智能安防系统状况下,端侧以减少传输压力为目的,是作为基本算力的存储,而后台需要专注于算力提升,且要求更加通用化以及各种算法的同时调度能力。 而应用场景的不同也引出了另一个问题:做通用芯片还是专用芯片?专用芯片牺牲了灵活性,对特殊场景进行优化;通用芯片适配多种场景,能耗也相应上升。 那么,端侧和云端哪个有更大的机会?目前安防中,“云边结合”是发展的趋势。但从当前AI芯片市场前景和竞争格局看,国内AI芯片企业在边缘端的机会更多,尤其是视频处理相关芯片具有很大潜力。国内很多人工智能企业锁定的都是交通监控、人脸识别、公司考勤等单点单技术的应用,随着5G、物联网等应用兴起,这类企业的市场空间将进一步扩大。而国内企业在云端芯片领域预计很难有所突破,不过仍在加速追赶,对于其前景可以持乐观态度。 安防AI芯片走向何方? 安防产业链长且高度碎片化,因此目前AI芯片在安防领域仍不能实现大规模快速落地,这与工程化难度以及技术积累也有关系。 目前,安防AI芯片更多从技术角度出发,以满足特定性能需求,不能灵活适应多场景,未来需要专门为AI设计的灵活、通用的芯片。另外,现阶段AI芯片产业主要以企业为主体,同环节的企业竞争激烈,产品上下游企业的运营和管理却相对独立,未来产业发展则应以合作为主线,形成产业生态。 AI芯片这把“火”也从安防烧到了其他领域。据市场调研公司ReportLinker预计,到2023年全球AI芯片市场规模将达到108亿美元,复合年均增长率达53.6%。届时,中国企业能否从激烈的竞争中脱颖而出?

    时间:2020-05-15 关键词: 智能安防 ai芯片

  • 微软通过云提供并由英国初创公司开发的AI专用芯片的功能

    微软通过云提供并由英国初创公司开发的AI专用芯片的功能

    (文章来源:教育新闻网) 微软已开始向云计算平台MicrosoftAzure的客户提供英国初创公司Graphcore开发的AI芯片的访问权限。通过从头开始为AI创建的专用芯片,AI应用程序可以实现巨大的飞跃。从1980年代到1990年代,微软凭借在英特尔处理器上运行的Windows操作系统的成功,一直在市场上处于主导地位。这样,当时的英特尔和微软的蜜月就被称为“ Wintel”。 现在,微软希望通过新的硬件和软件组合重塑过去的成功,从而赶上亚马逊和谷歌。竞赛的阶段是通过云提供人工智能(AI)功能的最新技术。 从零开始专为AI设计的芯片,11月13日,Microsoft开始为其MicrosoftAzure云计算平台客户提供对英国Graphcore芯片的访问。Graphcore是一家于2016年在英国布里斯托尔成立的初创公司。据说图形核心芯片可以加快AI所需的计算速度,并且受到了AI研究人员和投资者的极大关注。但是,该公司尚未公开发布该芯片,也未发布早期测试人员的测试结果。 Graphcore于2018年12月宣布获得2亿美元(约217亿美元)的融资,微软参与了这一轮投资。随着使用AI应用程序的客户数量的不断增长,Microsoft急切地寻找能够使其云服务更具吸引力的硬件。 与用于AI的许多其他芯片不同,Graph Core处理器是专为AI而设计的。Graphcore希望该芯片对经营需要使用AI的公司有吸引力。研究下一代AI算法的研究人员将要测试该平台的性能。微软和Graphcore也在13日发布了一些基准测试。graphcore芯片是为NVIDIA和Google平台编写的算法,其性能将达到或超过两家公司的同类最佳AI芯片。为图形核心编写的代码可能更加高效。

    时间:2020-05-15 关键词: 微软 ai芯片

  • AI脑芯片可以解决自闭症和精神分裂症的治疗难题

    AI脑芯片可以解决自闭症和精神分裂症的治疗难题

    (文章来源:教育新闻网) 马斯克(Elon Musk)相信他的神经技术公司Neuralink将能够“解决”精神分裂症和自闭症。 在星期二出版的Lex Fridman的人工智能播客上发表讲话时,马斯克被问到他认为对他的公司Neuralink来说最令人兴奋的影响是什么。Neuralink的目标是开发一种支持AI的芯片,该芯片可以植入人的大脑中,从而既可以记录大脑活动又可以刺激大脑活动。 “因此,Neuralink,我认为起初会解决很多与脑有关的疾病。自闭症,精神分裂症,记忆力减退等任何事物都可能发生,就像每个人在特定年龄段都会经历记忆力减退。父母不记得自己孩子的记忆力。名字和类似的事情,”马斯克回答。 目前尚不清楚马斯克“解决”自闭症的含义,这不是一种疾病,而是一种发育障碍。英国国家自闭症协会表示:“自闭症不是疾病,不能被'治愈'。人们常常认为自闭症是其身份的基本方面。”世界卫生组织将精神分裂症描述为“严重精神障碍”。 马斯克于2016年创立了Neuralink,在公司成立的最初几年,该公司相对秘密。今年,该公司更具说服力:它在7月份发表了有关其脑芯片设计的白皮书,而埃隆·马斯克(Elon Musk)兴奋地宣布,该公司已开始对猴子进行动物实验。 马斯克此前曾表示,该技术可以用于治疗神经系统疾病,例如阿尔茨海默氏症和帕金森氏症。他还告诉弗里德曼,它可以用来解决“对大脑或脊髓的严重损害”。但是他最终的目标是将人类意识与人工智能融合。“这是[Neuralink]旨在解决与数字超级智能相关的生存风险。我们将无法比数字超级计算机更智能,因此,如果您不能击败'em,请加入'em,” Musk告诉Fridman。      

    时间:2020-05-15 关键词: 智能医疗 ai芯片

  • 自动驾驶在未来会有一席之地吗

    自动驾驶在未来会有一席之地吗

    此文所讨论的是指汽车的自动驾驶,不是飞机,也不是轮船。 在英文中我们它会叫做Autonomous Driving,强调了车具有了自主意识,有自我决策能力甚至可以完全的无人驾驶,也称为Self-Driving , Driverless 或 Fully Automated Driving ,注意这些不同于Automated Driving,后者还停留在被动性的,没有自我决策的能力,我们常说的高级辅助驾驶(ADAS-Advanced Driving Assistant System)大约可归于此。 有不少机构对自动驾驶作过等级的划分,但目前最主流的当属SAE(Society of Automotive Engineers)的定义。目前最新版是201806的,参考如下链接: SAE J3016_201806 根据系统参与驾驶的比重,失效时如何响应,以及它的设计运行范围。它把自动驾驶的级别分成了5级,如下图: DDT Dynamic driving task 动态驾驶任务,指汽车在道路上行驶所需的所有实时控制操作,主要是一些决策控制类的行为,不包括行程安排、目的地和途径地的选择等战略上的功能。 OEDR Object and event detecTIon and response 是对车辆周边环境监控和响应的意思,是感知和判断,可以通过对物体和事件检测、认知归类和并作出后续响应。 DDT Fallback 动态驾驶任务支援,比如系统性的失效或者路况过于复杂超出了系统的判断决策能力时,如何进行支援。可以看出在Level 2水平时要完全由司机来处理,到了Level 3时系统就有了一定的自主决策能力了。 ODD OperaTIonal Design Domain 是设计运行域的意思,指自动驾驶系统被设计的起作用的条件及适用范围,比如行驶区域范围,道路情况(直路、弯路的半径)、车速等,以确保系统的能力在安全的环境之内。 结合下图,对五个等级进一步解释: Level 1 具有一定的驾驶辅助功能,它在横向或者纵向控制上二选一,比如加减速或者转向的控制,高速公路上具有定速巡航,车道保持功能的车处于这个级别。但所有的驾驶的操作和决策都还是由人完成。 Level 2 可以同时支持横向和纵向的控制,但驾驶员仍然需要实时监控环境,手要时刻放在方向盘上,同时要保证出问题时随时进行接管。此时系统也还不具备决策能力,比如特斯拉的自动驾驶就处于这个级别,目前顶多也只能算是2.5级,如当它要变道时,你要打转向灯告诉系统,系统才能启动变道的功能。 Level 3 它与L2最大的区别是系统具备了一定的自我决策能力,它能在某些情况下实现完全的自动驾驶,但是驾驶员仍要随时准备应对接管车辆,不同的是系统会在失效前给司机提示和预留一定的时间,比如当出现复杂环境系统无法响应时,它会做出反馈,可以预留十几秒或者更长的时间等人来接管控制权,并保证在这个时间内不出问题。要注意领航和巡航是有很大差距的,L1、 L2只能实现巡航功能,就是跟着别的车后面走,到L3级别是可以实现领航了,就有了自主决策的能力,这个的技术难度和复杂度会增加很多。 2018年奥迪A8就达到了这个级别,它们称为Audi AI 交通拥堵自动驾驶系统TJP(Traffic Jam Pilot)在交通拥堵的路段可以启动自动驾驶功能,驾驶员就可以完全不用管了,这个还是比较实用的,但在中国由于政策法规限制,这个功能现在无法用的,比如我们规定你的手不能长时离开方向盘。因为Level 3时仍需要一个驾驶员,并且要根据系统提示接管对车辆的控制,但车在路况好的时候人长时间不用关注车的驾驶,所以司机更容易走神,此时忽然遇到一个复杂情况系统无法处理,而驾驶员此时可能也无法回过神来。所以有些公司或机构在调研后认为这个级别更不安全不靠谱,直接忽略此级别,直接上更高级别,比如Google的Waymo。而传统的OEM和一级供应商可能会一个级别一个级别的去实现,不会采用相对激进的方式,也可能因为市场策略不同。 Level 4 在这个级别已经完全不需要人来参与了,但它是有限制的完全自动驾驶,比如在某个园区或者公园的内行驶,另外对速度等也有可能一定要求。百度和金龙客车合作的自动驾驶巴士“阿波龙”就属于这个级别,并且在车内你看不到驾驶位,并且没有了方向盘。它今年在很多地方都在试运营,这个已然不是PPT,是实实在在的产品了。 Level 5 这个级别是无限制的自动驾驶,可以理解为在一个城市内,或者城市间,在任何的复杂交通场景中,自动系统都能够胜任。这个级别是非常难以实现的。 自动驾驶的技术 自动驾驶是一个知识密集且科技含量很高的技术,不基于点什么很难把它讲的相对清楚。做自动驾驶的公司也很多,而对于学习研究,百度的Apollo开源平台是一个很好的选择,我就根据这个平台,结合个人理解粗略地讲下自动驾驶所需技术。 无论诗和远方或是闲晃总会有一个目的,为了体验驾驶乐趣的闲晃这里不讨论,对自动驾驶而言,首先需要一个目的地。先告诉汽车让它知道要去哪里,定位出自己在哪里,然后再解决如何去,如果这些都是由汽车自动完成,就实现了高级别的自动驾驶。 如下图可以很好地解释自动驾驶的内涵: 据此我们可大体猜测下要用到的技术: 定位和规划 要知道自己在哪儿,要有定位系统,就要用到GPS, 对于要厘米级的定位需要RTK技术,要用到IMU来互补GPS更新频率慢的问题,还需要用到激光雷达点云匹配定位以解决长时间没有GPS信号的问题,如能过山谷或隧道。我们所说的在哪是汽车要实时知道自己在高精度地图的坐标,在这个前提下,再有了目的地就可以实时路径规划给出车辆行进的大方向。 感知和预测 在行进的过程中,车辆要实时感知PercepTIon周围的环境,并实时预测PredicTIon下一步如何动作,且有各种突发状况,这一部分可能是整个自动驾驶技术里最难的。要对目标进行Detection Classification,要Tracking,还涉及到传感器的融合Fusions,需要用到各种技术如CNNs,Machine Learning等等。所需运算量相当大,所有自动驾驶的CPU的运算性能要求特别高,要用到GPU最好是AI芯片。 此处要用到各种传感器组合使用,如Camera,LiDAR,Radar等,以实现冗余和高可靠性,具体原因参考下图。 这个是业界比较主流的做法。 特斯拉(Tesla)老板不信这个,坚决不用激光雷达,全球第一个自动驾驶引发死亡的案件就由此产生了,当时司机坐在Model S上,听说是在看哈里·波特,我想可能是西游记,然后系统就把白色的卡车车箱当作了空气当作了Nothing,全速撞了上去,司机直接和佛祖打牌去了。 控制 预测出汽车如何动作,还需要平滑的控制汽车的制动,这时又涉及到自动控制算法,对于自动驾驶车辆有个要求是能够线控的,比如刹车,油门,转向等都是可以计算机发命令来控制的。 至此自动驾驶所需技术定位,路径规划,感知,预测,控制技术就简单介绍完。另外我们注意到还有个联网功能,常说的Telematics或T-Box,目前的4G因带宽和延时还无法满足自动驾驶的要求,主要的功能是影音娱乐的功能,当5G普及后可能实现车辆协同的自动驾驶,比如超视距感知等功能。 自动驾驶的意义 安全 最主要的原因是安全,因为根据世界卫生组织(World Health Organization)的调查统计数据,全世界每年有超过125万人死于车祸,而80%的原因是司机的人为因素。 人会有疲劳驾驶,注意力不集中,以及情绪问题,如路怒症,另外还有可能酒驾,人的响应速度也远没有传感器的响应速度快。 另外其实我们人类的大脑的进化还不是非常适应现代社会形态,工业社会只有两百多年,汽车的出现也就一百多年的历史,而我们人类大脑底层是亿万年进化的结果,大部分的时间又是处在狩猎和农耕时期,所以当我们看到一条蛇或者一些其它动物会产生本能的恐惧,而面对危险不知道多少倍的钢铁怪兽汽车却无动于衷,人类大脑其实可能远没有进化到符合现代社会的要求。所以人类自己开车可能并不是最安全的选择,或许再过几百年后有人驾驶汽车只会出现在汽车博物馆里,那时的人们可以会摸着方向盘踩着油门对当时居然是人类自己驾驶汽车这个危险的东西而感到不可思议。 利益 安全是很重要,但对于各大公司来讲这应当不是他们的驱动力,真正驱动他们投入巨大财力进行驾驶驾驶研发的是因为利益的追求和渴望以及对错失这个市场的恐惧。资本都是逐利的,都在想着抢占这个很快到来的的万亿级的市场。据有研究报告显示至2025年,自动驾驶市场规模将会达到2000亿至 1.9 万亿美元。 颠覆 当然也有可能有人因为更远大的目标比如改变世界,像乔布斯。 也有可能就是因为爱。 自动驾驶也确实可能成为一个颠覆性的技术。它可能会改变很多的行业甚至现在城市的格局。 自动驾驶的挑战 但是自动驾驶会很顺利的成为现实吗,在我看来很难。我从两个点简单讲一下: 莫拉维克悖论 (Moravec‘s paradox) 是说对于人工智能和机器人来讲,人类所独有的逻辑推理能力只需要非常少的计算能力就实现,比如AlphGo,但是无意识的技能和对机器的控制却需要极大的运算能力和运算量。 有机构做过推算说,要让完全自动驾驶穷尽所有道路场景,需要100辆车,200年 7*24小时的训练,但这也不一定,可能会穷尽0.99可能的场景,但当仍会有不可预测性出现,那时计算机是束手无策的,远没有人类直觉应对保险。 举一个例子,一个人类的小孩从来没见过猫,你只需要给他一只猫,告诉他这是“猫咪”,下一次,当他见到不管什么颜色,什么样子的猫,他都知道这是“猫咪”。电脑不一样,就算你给它上百万张猫的照片,各种颜色,各种姿势,各种角度,你拿一只猫摆在它的摄像头面前,让它看个一年…… 它仍然不理解猫是什么,不能准确的判断一个东西是否是猫。比如谷歌训练计算机识别猫,当时Google研究人员利用一千台电脑的1.6万核处理器组建了一个机器学习神经网络。他们用从YouTube视频中提取出的1000万幅200x200缩略图训练神经网络来认识什么是猫。 人只需要一双眼睛去感知周围,然后靠感觉和经验就可以把车开的很好,不像自动驾驶,要用各种传感器的组合。人的驾驶目前才是真正的End-to-End ,直觉驾驶。 现在的机器学习”(machine learning),“深度学习”(deep learning),人工智能”(AI)其实跟人脑的思维方式有本质区别。 列车难题(Trolley Problem) 假设当所有的技术难题因为一些天才般的构架或者无数工程师的日夜努力都解决了,自动驾驶还很有可能遇见道德的审问,比如列车难题,这是一个很著名的哲学难题。 如图中所示,当一辆有轨车行驶过来,此时他的刹车失灵了,而速度非常快,但他此时仍可以转动方向盘,当它直行时会伤害到四个人,而转弯的话会伤害到一个人,这列车要不要转向呢,如果是你,你会怎么做呢?我想多数会选择转向杀死一个人来挽救四个人的生命。 此时我们在换个场景,假如列车无法转向,只有直直的一条轨道,而在这之上有一个天桥,此时天桥上正好站着一个大胖子,他就站在轨道正上面,如果此时你把他推下去,可以正好卡在轨道中间让列车停下来,牺牲了一个胖子来挽救四个人的生命,而此时你还会这样做吗?此时的选择可能就困难的多了。哲学会引发我们的思考,当你开始思考一些事情时你就再也无法停下来了,它会让我们对周围熟悉的事物感到陌生,一切仿佛都没有改变,但此时一切都已经不同了。 比如看过一个真实故事,在南京市的某路段,上班高峰的时段一辆出租车在正常行驶中,突然向路边的路墩上撞了去,一下整个车就四脚朝天。原因是出租车司机王师傅在路上驾驶中,自己突然觉得眼圈发黑,身体不适要晕厥,这时路的一侧有很多早上上班的行人,王师傅来不及过多的思考,果断的把方向盘往另一侧的路边的石墩撞去,出租车整个的就翻了过来。 当自动驾驶系统遇到此类问题时,它会优先如何做了,是优先保护车上的乘客还是外面的行人? 自动驾驶将来可能会遇到越来越多这类的问题,它如何决策如何应对将是一个很大的难题。 可以预见自动驾驶面临的挑战远不止这些,但无论如何都不会阻止此技术前行,因人类前行的步伐永远不会停止,因此未来才有无限可能。

    时间:2020-05-15 关键词: 自动驾驶 ai芯片

  • 英伟达和英特尔激战 AI芯片将迎来一场马拉松式的较量

    英伟达和英特尔激战 AI芯片将迎来一场马拉松式的较量

    英伟达和英特尔的竞争在AI时代变得更为直白。英伟达在AI训练领域具有绝对优势,英特尔保持着在芯片架构上提供完整解决方案的优势的同时,向英伟达GPU大本营发起挑战,并在AI推理领域建立起了自己的优势。 号角再次吹响 过去几年,由于赶上了深度学习的东风,英伟达通用图形处理单元扶摇直上,把2015年还是20美元的股价提高到了2018年10月292美元的高点,一跃成为AI领域第一股。其火箭般的涨势让半导体巨头英特尔坐不住了,意图通过收购突破自身限制,重塑市场版图。二者的竞争在2019年变得更为直白和更加激烈。 我们知道,图形和视觉处理领域是英伟达的传统强项。英特尔近期展示了两款分别面向AI训练和推理的Nervana神经网络处理器(NNP),以及下一代Movidius视觉处理单元(VPU),就是在向英伟达宣战。 其中,两款Nervana神经网络处理器包括面向训练的NNP-T1000和面向推理的NNP-I1000。这两颗芯片都是专为云端环境定制的ASIC(特殊应用集成电路)芯片,可以并接多个芯片,加速AI模型的开发。会上,英特尔宣告两款芯片正式开始商用交付,为百度、Facebook等人工智能客户定制开发产品。英特尔还特地强调了为AI和机器学习“专门制造”芯片的重要性,暗示其产品对英伟达GPU产品的优势。 对于下一代Movidius VPU,该芯片旨在为低功率设备中的AI图像和视频处理系统提供动力,面向开发电脑机器人视觉相关用途,例如依靠机器学习来绕过障碍物的无人机和无人驾驶汽车等。会上,英特尔也非常自信地将其和英伟达的产品做出比较,据说这款代号为Keem Bay的VPU能提供的算力是英伟达Xavier芯片的4倍,在充分利用的情况下,该芯片可帮客户获得50%的额外性能。并且这款新一代的视觉处理单元将于2020年上半年上市。 目前,在更考验计算力的AI训练市场,英伟达更具优势,其数据中心业务也在不断增长。不过,英特尔表示,其基于AI解决方案的产品组合得到进一步强化,今年会创造超过35亿美元的营收。目前在数据中心领域,凭借CPU市场优势,其已赢下了AI推理市场,因为多数云端推理都是由至强CPU完成的。 在传统芯片架构上,英特尔仍然是可以提供最完整解决方案的公司,而在GPU领域,英特尔也将向英伟达发起挑战。CPU是AI的基础所在,绝大多数的企业已经在现有的架构基础上,通过软件来部署AI的应用。 无论是硬件还是软件,无论是云端还是终端,无论是训练还是推理,英伟达和英特尔都是你追我赶,步步紧逼,忙得不亦乐乎。 马拉松式较量 英伟达一出手,就是一场豪赌。据媒体报道,在Mellanox的竞购比赛中,英特尔曾经预备了60亿美元的资金,但最终还是被英伟达的69亿美元高价击败。 作为一家以高性能运算和网络技术闻名的公司,Mellanox的产品与技术已经进入了全球大量的高性能计算机和人工智能基础设施,包括中国“神州·太湖之光”在内的全球最快的三台超级计算机,都使用了Mellanox的无线宽带互联网技术。 如果放到“双英”的大战背景下,拿下Mellanox则意味着英伟达在数据中心的战局中获得了一枚关键棋子,在数据中心领域将争到更多话语权。 当然数据红利的挖掘,不仅仅在于数据中心本身,还需要许多关键技术的创新与突破,比如人工智能、物联网、自动驾驶、5G等。这就更增加了这场数据红利大战的延伸性和复杂性。 以此对比来看,“双英”大战将会是一场马拉松式的较量。 英特尔的优势在于研制一体、业务布局全面。英特尔的优势是端到端,全面布局设备端、边缘端和云端,未来要做“全能冠军”。 此外,英特尔的生态圈构建也行动较早、声势较大。比如,英特尔合作建设了FPGA中国创新中心,联合发起了成立开放数据中心联盟、CXL开放合作联盟、边缘计算产业联盟等。 但英伟达也在这些层面下了不少功夫,比如在GTC上,黄仁勋特意在AI工作流程中把机器学习、数据中心等与GPU加速深度学习一起,纳入了英伟达的“AI定义域”。 这意味着,英伟达将逐渐调整过度倚重GPU的AI战略,将产业布局扩展至AI产业各个链条。这与英特尔的“全能冠军”思路颇为相似。 在扩展生态圈伙伴上,英伟达则采取了不同的策略。比如,基于最新发布的推理服务器芯片T4,与亚马逊云AWS、阿里云达成合作。 有业内人士认为,英伟达本身在GPU领域实力强大难以替代,这种基于产品技术发展生态圈的策略,相比通过协议建立产业联盟或以设立人才计划资金池,要更为稳固,成本也更低。 就目前而言,比赛才刚刚开始,“双英”都有自己的竞争优势,最终谁能胜出还无法下定论,不过对于人工智能领域的其他玩家来说,“双英”大战未必是坏事,或许这也会是加速技术和应用领域发展的新契机。 AI已成重要业务,持续强化至强AI推理性能 如今,在深度学习的推理和应用方面,都需要十分复杂的数据、模型与技术。 而英特尔的至强可扩展处理器作为面向业界大部分企业和组织的重要平台,已然成为英特尔在推进AI业务发展的重量级产品。 因此,英特尔也将继续通过矢量神经网络指令(VNNI)和深度学习加速技术(DL Boost)等功能优化并改进该平台,以在数据中心和边缘部署中进一步提升它的AI推理性能。 在Naveen Rao看来,随着人工智能的进一步发展,现有的计算硬件和内存都将在未来达到临界点,同时专用型硬件的重要性也愈加明显。 因此,对英特尔来说,利用AI技术来提升业务成果,需要进一步推出涵盖硬件和软件的多种技术组合。

    时间:2020-05-14 关键词: 英特尔 英伟达 ai芯片

  • AI芯片行业刚处于起步阶段 市场增长速度较快

    AI芯片行业刚处于起步阶段 市场增长速度较快

    AI芯片行业刚处于起步阶段,市场增长快速。传统芯片行业已是成熟行业,传统芯片设计和晶圆制造封测都是技术壁垒严重,市场增长较为缓慢的情况,而人工智能行业正处于初创成长期,部分AI产品已经可以落地,且持续优化中,算法逐渐趋向稳定。 一、AI芯片定义与主要类型 当前AI芯片设计方案众多,广义上所有面向人工智能应用的芯片都可被称为AI芯片。AI运算以”深度学习”为代表的神经网络算法,系统需能高效处理大量非结构化数据(文本、视频、图像、语音等),所以硬件需有高效运算能力。执行人工智能任务的AI芯片主要可分成四种架构,若依人工智能系统开发的角度说,可再区分成两种类别,第一类为CPU和GPU,称作软件配合硬件;第二类为FPGA和ASIC,称作硬件配合软件。 图:四种AI芯片主架构类型对比 根据应用场景可分为服务器端(云端)芯片和终端(边缘端)芯片。在深度学习的训练阶段,由于数据量及运算量极度庞大,单一处理器无法独立完成一个模型的训练过程,所以负责AI算法的芯片采用的是高性能计算技术,一面要支持尽可能多的网络结构以保证算法的正确率和泛化能力,另一方面也必须支持浮点数运算,同时为了能提升性能还必须支持阵列式结构,执行加速运算。在推断阶段,由于训练出来的深度神经网络模型仍非常复杂,推断过程仍属计算密集型和存储密集型,可选择部署在服务器端。 边缘端与服务器端AI芯片两者在设计思路上具本质差异,边缘端AI芯片必须保证很高的计算能效,在高级辅助驾驶ADAS等设备对实时性要求即高的应用领域上,推断过程必须在设备本身完成,因此要求移动端设备具备足够的推断能力,而部份应用场合会要求边缘端芯片具备低功耗、低延迟、低成本等要求,导致边缘端AI芯片产品呈现多种多样的风貌。 二、全球人工智能芯片市场规模 人工智能与区块链的发展带来特殊应用芯片高速成长,人工智能芯片的发展路径经历了从通用走向专用,根据中国物联网发展年度报告显示,2016年全球人工智能芯片市场市场规模达到24亿美元,预计到2020年将达到146亿美元,增长迅猛,发展空间巨大。 图:全球2016-2020年人工智能芯片市场规模及预测(亿美元) 细分领域的市场预测上,可从中金公司研究数据作观察,2017年整体AI芯片市场规模达到62.7亿美元,其中云端训练AI芯片20.2亿美元,云端推理芯片3.4亿美元,边缘计算AI芯片39.1亿美元;到2022年,整体AI芯片市场规模将会达到596.2亿美元,CAGR57%,其中云端训练AI芯片172.1亿美元,CAGR53.5%,云端推断芯片71.9亿美元,CAGR 84.1%,边缘计算AI芯片352.2亿美元,CAGR55.2%。 图:2017-2022年AI芯片细分市场预测(亿美元) 三、AI芯片行业产业链与商业模式 在AI芯片行业产业链与商业模式上,AI芯片虽然是新兴领域,但市场上强敌环伺,上下游产业链间的整合布局早已开始。半导体产业链长,具有资本和技术壁垒双高的特点。上游主要是芯片设计,按照商业模式,可再细分成IP设计、芯片设计代工和芯片设计三种模式。中游则包含晶圆制造和封装测试两大类,产业链的下游分成销售和系统集成企业,包括提供软硬件集成解决方案的人工智能解决方案商就被归属在系统集成商。 半导体整体商业模式主要分两种,首先为垂直集成模式(IDM),该模式的企业业务需包含设计和制造/封测,IDM模式的代表性企业是英特尔和三星。第二种为垂直分工模式,采取分工模式的企业仅只专营一项业务,像是英伟达和华为海思仅有芯片设计,又称为fabless,而台积电和中芯国际仅代工制造业务,称作foundry。 芯片设计的商业模式有IP设计、芯片设计代工和芯片设计三种,大部分的人工智能新创企业是以芯片设计领域为主,但在这领域存在许多传统芯片行业龙头,像是英伟达、英特尔、赛灵思和恩智浦,因此只有少数AI芯片设计业者会进入传统芯片企业的产品领域与之竞争,包括寒武纪与英伟达竞争服务器芯片市场,而地平线与英伟达及恩智浦竞争自动驾驶芯片市场。 四、中国AI芯片行业政策环境 国务院在2015年7月提出以”互联网+”为核心的产业横向连接升级指导意见,接着在2016年4月发布《机器人产业发展规划》中,人工智能逐渐成为政策发展的核心项目,2017年7月提出的《新一代人工智能发展规划》分别制定2020年、2025年、2030年三阶段的战略目标,其中第一阶段的《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,将重点扶持神经网络芯片,冀望AI芯片量产且规模化应用。 图:AI芯片行业政策环境 五、全球AI芯片厂商竞争格局 国内外AI晶片厂商概览,AI 晶片领域参与者包括传统晶片设计、IT厂商、技术公司、网路以及初创企业等,产品覆盖了CPU、GPU、FPGA、ASIC 等。市调机构Compass Intelligence 2018年所发布的AI Chipset Index TOP24榜单中,前十名依然是欧美韩日企业,国内晶片企业如华为海思、联发科、Imagination(2017年被中国资本收购)、寒武纪、地平线等企业皆进入该榜单,其中华为海思排12位,寒武纪排23位,地平线机器人排24位。 晶片设计企业依然是当前AI芯片市场的主要力量,主要厂商包括英伟达、英特尔、AMD、高通、三星、恩智浦、博通、华为海思、联发科、Marvell、赛灵思等,还包括不直接参与晶片设计,只做晶片 IP 授权的 ARM 公司。 六、中国主要新创AI芯片厂商融资状况 下表列出中国主要新创AI芯片厂商融资状况,同属B轮的地平线和寒武纪皆为独角兽企业,估值分别为25亿美元和30亿美元。企业并购案中,2018年7月全球FPGA龙头赛灵思收购国内AI芯片设计厂商深鉴科技,标志着AI芯片行业提高估值的资源争夺战正式开打。双方联手不仅为全球客户提供前沿的机器学习解决方案,深鉴科技也不必独自承担高昂的芯片设计与研发费用,芯片从开发到成品的IP核授权、开发软件、流片、芯片制造/封测等费用是无可避免的开发成本,而赛灵思也获得与英伟达、英特尔、谷歌等巨头在AI芯片领域竞争的筹码,实现双赢。 图:全球AI芯片厂商产品与布局 图:中国主要新创AI芯片厂商融资状况  七、中国AI芯片行业发展趋势 AI芯片企业的主要落地市场包括云端(含边缘端)服务器、智慧型手机移动终端、物联网终端设备、自动驾驶等应用场景,这些市场都是千万量级出货量或百亿美元销售额,市场相当庞大。当前海外和国内的科技巨头和创业公司,已有一批企业在产品研发和市场推广上作出一定成绩,如Nvidia、AMD、IBM、Intel及高通等传统的芯片老牌企业,也有如苹果、Google、亚马逊、华为、阿里巴巴、百度等互联网企业,逐渐兴起的新贵如中科寒武纪、地平线等,产品在云端、自动驾驶、智慧安防、移动互联网等场景中都获得较突出的应用。 AI芯片行业刚处于起步阶段,市场增长快速,芯片企业和客户的合作模式仍在探索中。同时AI芯片行业也存在着泡沫,市场期待有技术实力和业绩的企业发展,国内在高精尖半导体领域发展落后背景下,近两年集中出现了大量AI芯片行业企业,证明资本和行业从业人员对AI芯片未来应用前景表示认可,另一面也说明AI芯片的技术门槛并没有CPU高,或者说低端AI芯片产品技术门槛并不高。但需注意的是芯片研发、制造成本高昂,对资金需求极大,也是此行业特点。预计在未来2年内,随着各厂商首批AI芯片产品面市,市场将会对各厂商的产品和技术进行检验,技术不足、产品缺乏竞争力的团队在缺乏后续订单和盈利支撑下将会陆续退出市场,能存活下来的企业应该只有获得市场认可,技术坚强的团队。

    时间:2020-05-13 关键词: 人工智能 ai芯片

  • 百度联手三星电子 首次进行AI芯片代工合作

    百度联手三星电子 首次进行AI芯片代工合作

    百度和三星电子今天宣布,百度的首款云到边缘 AI 处理器 KUNLUN 已完成开发,将于明年初量产。这是两家公司首次进行芯片代工合作。 百度 KUNLUN 芯片基于其自主研发的,面向云、边缘和 AI 的神经处理器构架,以及三星的 14 纳米制造工艺和 I-Cube(Interposer-Cube)封装解决方案来打造。 这块芯片提供 512 GBps 的存储带宽,并以 150 瓦的功率提供 260 TOPS 运算能力。此外,新芯片使用针对自然语言处理的预训练模型 Ernie,推理速度比传统 GPU/FPGA 加速模型快 3 倍。 借助该芯片的计算能力和能效,百度可以支持包括大规模 AI 工作负载在内的多种功能,例如搜索排名、语音识别、图像处理、自然语言处理、自动驾驶和深度学习平台(如 PaddlePaddle)。

    时间:2020-05-12 关键词: 百度 ai芯片

  • 百度首款AI芯片昆仑完成研发 将由三星代工生产

    百度首款AI芯片昆仑完成研发 将由三星代工生产

    三星可以借此机会将代工业务扩展到专门为云计算和边缘计算设计的高性能计算(HPC)芯片领域。 今日据外媒报道,百度和三星宣布,百度首款AI芯片昆仑已经完成研发,将由三星代工生产。该芯片使用的是三星14nm工艺技术,封装解决方案采用的是I-Cube TM。明年年初,昆仑芯片将实现量产。 这是两家公司首次进行代工合作,百度将提供实现AI性能最大化的AI平台,三星则可以借此机会将代工业务扩展到专门为云计算和边缘计算设计的高性能计算(HPC)芯片领域。 百度架构师欧阳剑表示:“很高兴能与三星Foundry一起引领HPC行业,昆仑芯片是一个极具挑战性的项目,不仅要求高可靠性和性能,且还汇集了半导体行业最先进的技术。多亏三星先进的工艺技术和铸造服务,让我们能够为用户提供卓越的体验。” 三星电子代工营销部总裁Ryan Lee则表示:“百度昆仑芯片是三星Foundry的一个重要里程碑,我们正在通过开发和批量生产AI芯片,将我们的业务领域从移动扩展到数据中心应用方面。三星将提供全面的代工解决方案,从设计支持到尖端制造技术,比如5LPE、4LPE以及2.5D封装等。” 本次昆仑芯片采用的I-Cube TM封装解决方案,将通过I-Cube TM技术将逻辑芯片和高带宽存储器与插入器连接起来,利用三星的差异化解决方案在最小尺寸上提供更高的密度/带宽。相比此前的技术,该方案能够最大限度地提升产品性能,比如在电源、信号完整性层面就能够提升50%以上。此外,三星还将开发更先进的封装技术,比如再分布插入器和4被、8倍HBM集成封装。

    时间:2020-05-12 关键词: 百度 ai芯片

  • 人工智能已成为我们日常生活中重要的组成部分

    人工智能已成为我们日常生活中重要的组成部分

    (文章来源:教育新闻网) 在过去的几年中,人工智能(AI)已悄然成为我们日常生活的一部分。您的电子邮件或智能手机生成的智能回复,社交媒体上的照片标签,电子商务网站上的产品推荐,映射应用程序提供的说明以及流服务上的音乐和视频推荐均使用AI的预测能力。 NVIDIA,(NASDAQ:NVDA)的图形处理单元(GPU)是这一趋势的早期受益者,自AI诞生以来就实现了惊人的增长。GPU强大的并行处理能力可以渲染图像,这也是AI系统的最佳可用解决方案。该公司的竞争对手一直在争先恐后地建立一个更好的捕鼠器,以抢占对利润丰厚的AI芯片组市场的控制权。 英特尔,(NASDAQ:INTC)长期以来一直是个人计算机(PC)所用CPU的全球领导者,但是对PC的需求放缓以及来自(NASDAQ:AMD)等公司的激烈竞争阻碍了英特尔的发展。在2019年到目前为止,该公司的收入同比持平,净收入下降了11%-看不到缓解的迹象。 该公司错过了最初的AI繁荣时期,一直在争先恐后地进行一系列与AI相关的收购,以追赶市场。以色列出版物Calcalist称,英特尔正处于“高级会谈”中,以10亿至20亿美元的价格收购以色列芯片制造商Habana Labs。该报告称,Habana开发了针对AI应用优化的处理器。该公司表示,其Gaudi AI处理器“将使使用同等数量GPU构建的系统的吞吐量提高多达四倍。” 这不是第一个这样的收购。英特尔在2015年以167亿美元的价格收购了Altera,以控制其在AI中使用的现场可编程门阵列(FPGA)。2016年,该公司以4亿美元的价格收购了AI芯片制造初创公司Nervana.2017年,该公司以153亿美元的价格收购了Mobileye,以在自动驾驶汽车处理器领域立足。不幸的是,对于投资者而言,英特尔在这些交易方面的往绩令人质疑,因此时间将证明购买Habana Labs是否会产生不同的结果。 微软,(NASDAQ:MSFT)最初在Windows操作系统和Office软件套件方面享誉盛名,但近年来却经历了复兴。该公司将最受欢迎的产品重新打包为软件即服务(SaaS),并且一直是云计算领域的后起之秀,仅次于行业领导者(NASDAQ:AMZN)。 Alphabet,该公司将利用一种新的芯片组,与英国初创公司Graphcore合作,通过开发尖端的新处理器Colossus智能处理单元(IPU)来继续扩展Azure云业务。这些芯片是从头开始开发的,着眼于以AI为中心的任务,例如面部识别,语音处理,自然语言理解和自动驾驶汽车。微软和Graphcore于上月初发布了基准测试,这些基准测试表明它们最先进的处理器达到或超过了NVIDIA或的Google同类芯片的性能。他们甚至声称,某些任务-如语言处理-完成多使用Graphcore的芯片和软件堆栈更迅速。        

    时间:2020-05-12 关键词: 人工智能 ai芯片

  • 2019年全球十大AI芯片盘点 AI芯片的发展速度不断加快

    2019年全球十大AI芯片盘点 AI芯片的发展速度不断加快

    人工智能浪潮的推动下,AI相关产业的商用场景正逐步大规模落地,基于AI技术的三大支柱:“算法+大数据+计算能力”智能应用已成为计算机最主要的负载之一。我国在用户数据方面拥有数量的先天优势,但面对有限的规模、结构固定、能耗受限的硬件制约下,如何用AI芯片处理海量的并不断演进的深度学习算法呢?跟随OFweek编辑一起来看看各大科技巨头们研发的AI芯片吧。(排名按首字母顺序排列) 1.含光800 2019年的杭州云栖大会上,达摩院院长张建锋现场展示了这款全球最强的 AI芯片——含光800。在业界标准的 ResNet-50 测试中,含光 800 推理性能达到 78563 IPS,比目前业界最好的 AI 芯片性能高 4 倍;能效比500 IPS/W,一个含光800的算力相当于10个GPU。 目前,含光800已经实现了大规模应用于阿里巴巴集团内多个场景,例如视频图像识别/分类/搜索、城市大脑等,未来还可应用于医疗影像、自动驾驶等领域。以杭州城市大脑实时处理1000路视频为例,过去使用GPU需要40块,延时为300ms,单路视频功耗2.8W;使用含光800仅需4块,延时150ms,单路视频功耗1W。 2.Graphcore IPU 总部位于英国布里斯托的Graphcore公司日前推出了一款称为智能处理单元(IPU)的新型AI加速处理器。芯片本身,即IPU处理器,是迄今为止最复杂的处理器芯片:它在一个16纳米芯片上有几乎240亿个晶体管,每个芯片提供125 teraFLOPS运算能力。一个标准4U机箱中可插入8张卡,卡间通过IPU链路互连。8张卡中的IPU可以作为一个处理器元件工作,提供两个petaFLOPS的运算能力。与芯片在CPU和GPU中的存在形式不同,它为机器智能提供了更高效的处理平台。 Graphcore公司于2016年启动风险投资计划,并在2018年12月的最后一轮融资中募集了2亿美元。基于其17亿美元的公司估值,Graphcore已成为西方半导体界的唯一“独角兽”。它的投资者们包括戴尔、博世、宝马、微软和三星。 3.Inferentia芯片 2019年,亚马逊的云服务业务AWS在其发布会AWS re:Invent上带来了高性能机器学习加速芯片InferenTIa。据了解,AWS InferenTIa 是一个由 AWS 定制设计的机器学习推理芯片,旨在以极低成本交付高吞吐量、低延迟推理性能。该芯片将支持 TensorFlow、Apache MXNet 和 PyTorch 深度学习框架以及使用 ONNX 格式的模型。 每个 AWS InferenTIa 芯片都能在低功率下支持高达 128 TOPS(每秒数万亿次运行)的性能,从而为每个 EC2 实例启用多个芯片。AWS InferenTIa 支持 FP16、BF16 和 INT8 数据类型。此外,Inferentia 可以采用 32 位训练模型,并使用 BFloat16 以 16 位模型的速度运行该模型。与EC4上的常规Nvidia G4实例相比,借助Inferentia,AWS可提供更低的延迟和三倍的吞吐量,且每次推理成本降低40%。 4.昆仑芯片 2019年尾声,百度宣布首款AI芯片昆仑已经完成研发,将由三星代工生产。该芯片使用的是三星14nm工艺技术,封装解决方案采用的是I-Cube TM。 据悉,昆仑AI芯片提供512Gbps的内存带宽,在150瓦的功率下实现260TOPS的处理能力,能支持语音,图像,NLP等不同的算法模型,其中ERNIE模型的性能是T4GPU的三倍以上,兼容百度飞桨等主流深度学习框架。该款芯片主要用于云计算和边缘计算,预计在2020年初实现量产, 5.Nervana NNP 芯片 2019 英特尔人工智能峰会,英特尔推出面向训练 (NNP-T1000) 和面向推理 (NNP-I1000) 的英特尔 Nervana 神经网络处理器 (NNP)。据了解,Nervana NNP-T 代号 Spring Crest,采用了台积电的 16nm FF+ 制程工艺,拥有 270 亿个晶体管,硅片面积 680 平方毫米,能够支持 TensorFlow、PaddlePaddle、PYTORCH 训练框架,也支持 C++ 深度学习软件库和编译器 nGraph。 Nervana NNP-I,代号为 Spring Hill,是一款专门用于大型数据中心的推理芯片。这款芯片是基于 10nm 技术和 Ice Lake 内核打造的,打造地点是以色列的 Haifa ,Intel 号称它能够利用最小的能量来处理高负载的工作,它在 ResNet50 的效率可达 4.8TOPs/W,功率范围在 10W 到 50W 之间。 6.Orin芯片 2019年NVIDIA GTC中国大会中英伟达发布了全新的软件定义自动驾驶平台——NVIDIA DRIVE AGX Orin,该平台内置全新Orin系统级芯片,由170亿个晶体管组成。 Orin系统级芯片集成了NVIDIA新一代GPU架构和Arm Hercules CPU内核以及全新深度学习和计算机视觉加速器,每秒可运行200万亿次计算,几乎是NVIDIA上一代Xavier系统级芯片性能的7倍。此外,Orin可处理在自动驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D等系统安全标准。 7.邃思DTU 由腾讯领投、融资累计超过 6 亿元的 AI 芯片公司燧原科技,在2019年发布会中推出自主研发的首款 AI 训练芯片“邃思 DTU”。 据了解邃思DTU采用格罗方德12nm FinFET工艺,480平方毫米主芯片上承载141亿个晶体管,实现2.5D高级立体封装,据称单卡单精度算力为业界第一,达20TFLOPS,首次支持混合精度,半精度及混合精度下算力达80TFLOPS,最大功耗仅225W。 邃思芯片基于可重构芯片的设计理念,其计算核心包含 32 个通用可扩展神经元处理器(SIP),每 8 个 SIP 组合成 4 个可扩展智能计算群(SIC)。SIC 之间通过 HBM 实现高速互联,通过片上调度算法,数据在迁移中完成计算,实现了 SIP 利用率最大化。 8.思元220芯片 寒武纪在第21届高交会正式发布边缘AI系列产品思元220(MLU220)芯片及M.2加速卡产品,标志寒武纪在云、边、端实现了全方位、立体式的覆盖。 思元220芯片采用了寒武纪在处理器架构领域的一系列创新性技术,其架构为寒武纪最新一代智能处理器MLUv02,实现最大32TOPS(INT4)算力,而功耗仅10W,可提供16/8/4位可配置的定点运算。作为通用处理器,支持各类深度学习技术,支持多模态智能处理(视觉、语音和自然语言处理),应用领域广泛,客户可以根据实际应用灵活的选择运算类型来获得卓越的人工智能推理性能。 9.昇腾910 2019年8月,华为在深圳总部发布AI处理器Ascend 910(昇腾910),据华为发布的参数显示,昇腾910是一款具有超高算力的AI处理器,其最大功耗为310W,华为自研的达芬奇架构大大提升了其能效比。八位整数精度(INT8)下的性能达到512TOPS,16位浮点数(FP16)下的性能达到256 TFLOPS。 作为一款高集成度的片上系统(SoC),除了基于达芬奇架构的AI核外,昇腾910还集成了多个CPU、DVPP和任务调度器(Task Scheduler),因而具有自我管理能力,可以充分发挥其高算力的优势。 昇腾910集成了HCCS、PCIe 4.0和RoCE v2接口,为构建横向扩展(Scale Out)和纵向扩展(Scale Up)系统提供了灵活高效的方法。HCCS是华为自研的高速互联接口,片内RoCE可用于节点间直接互联。最新的PCIe 4.0的吞吐量比上一代提升一倍。 10.征程二代 2019世界人工智能大会中,人工智能芯片初创公司地平线正式宣布量产中国首款车规级人工智能芯片——征程二代,并且获得五个国家市场客户的前装定点项目。 据介绍,征程二代于今年初流片成功,搭载地平线自主创新研发的高性能计算架构BPU2.0(Brain Processing Unit),可提供超过4TOPS的等效算力,典型功耗仅2瓦,满足AEC-Q100标准,算力利用率超过90%,每TOPS算力可以处理的帧数可达同等算力GPU的10倍以上,识别精度超过99%,延迟少于100毫秒,多任务模式下可以同时跑超过60个分类任务,每秒钟识别目标数可以超过2000个。 此次地平线率先推出首款车规级AI芯片不仅实现了中国车规级AI芯片量产零的突破,也补齐了国内自动驾驶产业生态建设的关键环节。 小结 目前通过CPU/GPU处理人工神经网络效率低下,谷歌大脑需要1.6万个CPU核跑数天方能完成猫脸识别训练;AIpha GO与李世石下棋时用了1000个CPU和200个GPU,AI芯片的发展是第三次AI浪潮中极为明显的趋势,算法已渗透到云服务器和智能手机的方方面面,未来每台计算机可能都需要一个专门的深度学习处理器。

    时间:2020-05-12 关键词: 人工智能 ai芯片

  • AI芯片战火蔓延 掀起了一股智能化升级和万物互联的热潮

    AI芯片战火蔓延 掀起了一股智能化升级和万物互联的热潮

    短短几年,人工智能就从一个被搁置“冷宫”的学术研究,变成商业化最前沿的“网红”,在安防、金融、教育、制造、家居、娱乐等各个与人们生活息息相关的领域,掀起了一股智能化升级和万物互联的飓风。 “意外”的开始 在很长的一段时间内,外界对英伟达有两个印象:显卡大厂、皮衣老黄。一个是英伟达的核心GPU产品,一个是英伟达的形象代言人。 从1993年成立到成为和AMD、英特尔抗衡的半导体巨头,英伟达经历了几个关键的阶段:一是图形处理器突围期,拿下大半的游戏显卡市场;二是AI巅峰期,借着AI和挖矿一鸣惊人,三是AI转型后时期,从高处下沉后的再反思。 AI芯片战火蔓延,谁会是人工智能时代AI芯片的最终玩家 早年的英伟达凭借GeForce系列显卡在游戏市场所向披靡,和成立于1969年的AMD同坐一把交椅,N卡和A卡孰优孰劣之争也是游戏界老生常谈的话题。 在此期间,英伟达既遇到显卡质量事故,面临合作伙伴高额的赔偿,也遭到竞争对手恶意拒绝技术专利共享,一路起起落落,一波三折。好在他们技术实力过硬,除了旗舰产品GeForce各方面性能给力,英伟达也在收购不同图像处理公司,加大技术研发投入,加强在游戏渲染硬件上的优势。 但即便如此,此时的英伟达更多的还是游戏宅眼中的“大神”,距离除PC之外更广阔的主流B端市场还很远。 转折点发生在2012年的ImageNet(图像识别领域赛事)大赛上,当时Geoffrey Hinton的学生通过两个GPU将深度卷积神经网络AlexNet的准确率提高了10.8%,震撼了学术界,英伟达也借此一战成名,从游戏市场一大步跨入AI市场。 看似无心插柳柳成荫,但实际上背后是英伟达在GPU上多年的厚积薄发。当学术界开始尝试用GPU做通用计算(GPGPU)时,英伟达看到了GPU在图形运算之外的潜力,捣鼓出了改变深度学习,也改变了英伟达自己的CUDA(通用并行计算平台),一个用于GPU通用计算的并行计算平台和编程模型,从软硬件层面释放了GPU做并行计算的能力,非常适合运行深度学习算法。 然而在2012到来之前,这个产品的特点只有一个:只烧钱不赚钱。但当Geoffrey Hinton和两个学生用GPU+CUDA开启深度学习黄金时代后,一切都不同了。自此之后,英伟达的GPU代替CPU成了AI训练市场的香饽饽。 Nvidia人工智能的今天和未来 目前,Nvidia已经占据了人工智能算力领域的主导位置。在数据中心领域,即使有一些初创公司推出训练和推理加速芯片,但是想要取代Nvidia需要相当长的时间。首先,大规模部署芯片对于产品的可靠性有相当高的需求,而且分布式系统是一个系统工程,需要芯片在各类指标上(不只是算力,还包括通信,接口带宽等)都达到优秀的指标,光这一点就需要初创公司相当多的时间去打磨。此外,Nvidia更高的壁垒在于开发者生态,需要开发出一个易用的编程模型和相关编译器的难度并不亚于设计芯片,而要孵化开发者生态则需要更多的时间。我们认为,至少在未来3-5年内,Nvidia在数据中心的地位难以被撼动。 但这并不意味着Nvidia在人工智能时代就可以高枕无忧。Nvidia 的软肋仍然在于其移动端——随着人工智能从云端逐渐走向边缘和终端,边缘和终端类的AI加速芯片或许是其他公司的机会。Nvidia之前推出的终端/边缘类产品并不算特别领先或成功,例如Jetson系列终端GPU的能效比并不领先,芯片架构也是沿用数年前的设计。我们认为,AI加速在终端的市场份额可能会占据总体AI芯片市场不小的份额,如果Nvidia无法抓住终端AI市场,那么其最终在整个AI市场的份额可能会被局限在云端数据中心。

    时间:2020-05-12 关键词: 人工智能 ai芯片

  • 存内计算成为下一代AI芯片的关键 中国半导体的春天未来或将到来

    存内计算成为下一代AI芯片的关键 中国半导体的春天未来或将到来

    随着人工智能的落地和大规模应用,AI芯片也成为了常见的芯片品类。AI芯片相比传统芯片来说,主要的竞争优势就在于高算力和高能效比。高算力是指能够比传统芯片更快地完成AI计算,而高能效比则是指能比传统芯片用更少的能量完成计算。 在AI芯片诞生的初期,AI芯片架构主要是针对计算并行性做优化,从而加强计算能力。然而,随着AI芯片竞争日益激烈,从并行性方面的潜力也已经被挖掘殆尽,这时候AI芯片的性能就遇到了“内存墙”这一瓶颈。 要理解内存墙,还需要从传统的冯诺伊曼架构说起。冯诺伊曼架构是计算机的经典体系结构,同时也是之前处理器芯片的主流架构。在冯诺伊曼架构中,计算与内存是分离的单元:计算单元根据从内存中读取数据,计算完成后存回内存。 存内计算能否成为下一代AI芯片的关键 冯诺伊曼架构在构建之初的假设就是处理器和内存的速度很接近。然而,随着摩尔定律的演进,这一假设早已不再成立。计算单元的性能随着摩尔定律高速发展,其性能随着晶体管特征尺寸的缩小而直接提升;另一方面,内存主要使用的是DRAM方案,而DRAM从摩尔定律晶体管尺寸缩小所获得的益处并不大。这也造成了DRAM的性能提升速度远远慢于处理器速度,目前DRAM的性能已经成为了整体计算机性能的一个重要瓶颈,即所谓阻碍性能提升的“内存墙”。 内存墙对于处理器的限制是多方面的,不仅仅是限制了其计算性能,同时也是能效比的瓶颈 。在AI芯片追求极致计算能效比的今天,内存墙对于AI芯片能效比的限制效应尤其显著。众所周知,人工智能中神经网络模型的一个重要特点就是计算量大,而且计算过程中涉及到的数据量也很大,使用传统冯诺伊曼架构会需要频繁读写内存。目前的DRAM一次读写32bit数据消耗的能量比起32bit数据计算消耗的能量要大两到三个数量级,因此成为了总体计算设备中的能效比瓶颈。如果想让人工智能应用也走入对于能效比有严格要求的移动端和嵌入式设备以实现“人工智能无处不在”,那么内存访问瓶颈就是一个不得不解决的问题。 存内计算:翻越内存墙 内存墙之所以存在,从另一个角度看主要还是由于处理器/加速器芯片和主内存是两个独立的模块,或者换句话说,计算和内存之间距离太远,因此来回搬运数据代价太高,无论是吞吐量还是能效比方面这种数据搬运都成为了瓶颈。那么,如何让内存和计算离得更近一些呢?一个最简单有效的方法就是“存内计算”(in-memory computing)。 存内计算,顾名思义就是直接在存储内做计算。其具体实现方式有若干条技术路径。首先,最直接的就是在现有存储的基础上做一些电路上的改动。这类实现方法最简单,例如2018年MIT Chandrakasan研究组在ISSCC上发表的研究就是这类技术的例子。该研究中,存内计算的主要用途是加速卷积计算,而卷积计算从数学上可以展开成带权重的累加计算,或者说是多个数的加权平均。因此,存内计算的做法是把权重(1-bit)储存在SRAM中,输入数据经过DAC成为模拟信号,并根据SRAM中的对应权重相乘,然后在模拟域做平均,最后由ADC读出成为数字信号。这类存内计算往往只是修改现有存储的译码器/放大器模块,并不涉及存储器件的重新设计,优势是比较容易和现有工艺集成,但是缺点是能够带来的性能提升较为有限,尤其是基于SRAM的方案,一方面SRAM的集成度是有限的,另一方面单比特精度的权重也成为了其应用的限制。 存内计算能否成为下一代AI芯片的关键 另一种存内计算的技术路线是通过引入新的存储器件来完成存内计算。如果说前一种存内计算的概念是“在SoC里引入特殊的SRAM并在SRAM附近高效完成计算”,那么这一种存内计算就是直接“在存储阵列内完成计算”了。这种基于新存储器件的存内计算往往要利用新存储器件的一些特征,并且在一块特殊的存储阵列内集成计算功能,在要做计算的时候主处理模块只需要给存储阵列发送输入数据,过若干时钟周期之后存储阵列会把计算好的结果返回给主处理模块。与传统的冯诺伊曼架构相比,传统冯诺伊曼架构中处理器芯片给内存发请求,并读回数据;而在这类存内计算芯片的计算范式中,主处理模块给存储阵列发送请求和输入数据,而存储阵列则直接返回计算结果,这样就省去了计算过程中主处理器和内存之间的大量数据搬运。通常来说,存内计算在处理人工智能相关任务的时候,会把神经网络权重存储在阵列中,而主处理模块直接给存储阵列发去神经网络的输入即可开始计算。 近年来,存内计算已经逐渐成为业界和学界公认的趋势。拿半导体集成电路领域的“奥林匹克”——ISSCC为例,从2018年开始ISSCC开始设立与存内计算相关的专门session并收录五篇相关论文,此后存内计算在ISSCC上的相关论文录用势头一直不减,到2020年的ISSCC与存内计算相关的论文数量上升到了七篇。除此之外,半导体器件领域的顶级会议IEDM今年也给了存内计算足够重视,有三个专门的session共二十多篇相关论文。有趣的是,ISSCC和IEDM上相关存内计算的论文正好对应了前文所说的存内计算的两种技术路线——ISSCC对应从电路侧做技术革新,而IEDM则主要对应器件方向的技术更新换代,通过引入新的存储器件并基于其新特性来开发高性能的存内计算。其中,IEDM中显示的范式转换更引人关注。今年,IEDM的一大看点就是对于摩尔定律到头之后下一步方向的预测,有一个专门的panel session更是直接以“摩尔定律已死,但是AI永生”为名字,可见业界对于后摩尔定律时代的发展,最看好的是基于AI的新器件。而在AI相关的新器件/新范式中,存内计算可谓是最有希望的一种,由此可见今年IEDM的关于后摩尔定律的主题和录用数十篇存内计算相关的论文之间存在着紧密的联系。 目前,全球存内计算有不少玩家。例如,半导体巨头TSMC正在推广其基于ReRAM的存内计算方案,而IBM基于其独特的相变存储的存内计算也已经有了数年的历史。初创公司中,Mythic基于Flash的方案也获得了软银的首肯并获取了其资金支持。然而,传统存内计算有一个主要问题,就是计算精度和应用场景之间的矛盾。ReRAM通常只能做到2至3-bit,这即使对于终端用的神经网络来说也不太够。Mythic的产品针对服务器市场,然而服务器市场对于计算精度的要求却相比终端更高,这也成为了困扰存内计算的一个问题。 IEDM上的来自中国的论文可能成为解决存内计算瓶颈的关键 如上文所述,存内计算的一个关键瓶颈是精度和应用之间的矛盾。如果要解决这个矛盾,我们希望能有一款针对移动端的低功耗存内计算产品,且其计算精度能达到移动端神经网络的计算需求(》4bit)。 在今年的IEDM上,我们就看到了这样的技术突破。一家初创公司闪亿半导体,与浙江大学、北京大学、华虹宏力合作发表的论文《Programmable Linear RAM: A New Flash Memory-based Memristor for Artificial Synapses and Its ApplicaTIon to Speech RecogniTIon System》恰恰解决了这个矛盾。该论文巧妙地利用晶体管在线性区的特性制备了新型存储器PLRAM,并成功地设计出了一款可以用在移动终端的超低功耗存内计算芯片,并实现了8-bit精度操作。 存内计算能否成为下一代AI芯片的关键 当计算精度高于4-bit时,我们认为就可以执行一些神经网络计算,而该论文中的8-bit精度更是可以保证大多数神经网络计算可以高精度完成,而不会损失性能。该论文把相关器件应用到了语音识别中并且完成了芯片流片和测试,测试结果显示该芯片可以以超低功耗(峰值9mW)执行语音识别相关的操作(MFCC特征提取和深度神经网络前馈运算),峰值算力可达30GOPS,足够IoT和可穿戴设备相关的应用。相比而言,Mythic等国外初创存内计算公司仅能实现低精度计算且难以克服成本的门槛(因此Mythic选择了对于成本不敏感的服务器市场),闪亿通过最新的器件技术突破实现的8-bit计算精度和较低的成本则是成功地撬动了体量更大的IoT市场。 存内计算能否成为下一代AI芯片的关键 除了器件上的突破之外,闪亿在电路以及更高的指令集领域都有深厚的技术积累。如前所述,存内计算是横跨器件和电路两个领域的技术,通常的存内计算与数字电路之间的接口需要大量数字-模拟转换和信号驱动,而这些接口事实上需要大量的电路优化工作,否则容易成为整体性能的瓶颈。为了解决这个效率瓶颈,闪亿开发了大规模阻性存储阵列驱动技术,能实现高效率的存内计算电路接口;同时,也为存内计算的规模化铺平了道路。在电路之上的架构层级,闪亿也有自己独特的指令集技术。事实上,编译器和指令集一直是困扰所有人工智能芯片设计的重要问题,AI芯片无法在实际应用中真正发挥全部算力的主要问题就在于指令集和编译器设计不过关,导致芯片只能在demo中有高算力,而到了用户提供的实际模型运行中就效率大幅下降。为此,闪亿开发了一套存内计算的专用指令集,可望解决这个困扰AI芯片行业的通病。 该研究让我们看到了中国半导体行业的崛起,因为在IEDM这样强手如林的顶尖半导体器件会议上发表文章本身就是对相关技术的肯定。更可喜的是,该研究已经在闪亿进行商业化,我们认为闪亿拥有的技术首先能克服存内计算的计算精度和应用场景之间的矛盾,可以把存内计算低功耗的优势发挥到极致,而同时其高精度计算又保证了可以兼容大多数神经网络。同时,闪亿选择的IoT和可穿戴式市场也是一个正在蓬勃发展的市场,这些市场非常适合用全球领先的新技术去撬动新的应用,从而让存内计算真正落地走向千家万户。我们希望能看到更多像闪亿这样的高精尖半导体技术商业化的案例,而当市场上出现众多这样的充满活力的高新技术半导体公司时,中国半导体的春天也就到了。

    时间:2020-05-12 关键词: 人工智能 ai芯片

  • 英特尔收购AI芯片制造商Habana 在人工智能领域进行了一笔巨额投资

    英特尔收购AI芯片制造商Habana 在人工智能领域进行了一笔巨额投资

    英特尔(Intel)12月16日上午发表声明称,已收购以色列人工智能芯片制造商Habana Labs。这笔交易价值约20亿美元,是包括Nervana Systems和Movidius等公司在内的人工智能领域巨额投资的最新一笔。 今年7月,哈瓦那(Habana)宣布了其高迪(Gaudi)人工智能(AI)训练处理器,这家位于特拉维夫的初创企业承诺,该处理器能够将基于gpu的系统提高4倍。一段时间以来,一直有传言称该公司是英特尔收购的目标,因为英特尔希望在人工智能市场上抢占先机。该公司显然也不想像在移动设备上错过机会一样,再次重蹈覆辙。 到目前为止,这一战略似乎已经初见成效,到2024年,英特尔将在一个价值约240亿美元的领域占据显著优势。英特尔指出,仅在2019年,该公司预计将产生超过35亿美元的“人工智能驱动的收入”,同比增长20%。 英特尔副总裁Navin Shenoy在新闻发布会上表示:“这次收购推进了我们的人工智能战略,为客户提供解决方案,以满足从智能边缘到数据中心的所有性能需求。”“更具体地说,Habana用高性能的训练处理器家族和基于标准的编程环境来解决不断变化的人工智能工作负载,为我们为数据中心提供的AI产品提供了涡轮增压。” 就目前而言,英特尔希望将Habana作为一个独立的业务部门来运营,保留现有的管理团队,主要运营基地仍在以色列。Habana原董事长维伦兹(Avigdor Willenz)将继续担任这些公司的顾问。

    时间:2020-05-12 关键词: 英特尔 人工智能 ai芯片

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章

技术子站

更多

项目外包