当前位置:首页 > FPGA
  • 将FPGA作为下一代汽车电子设计的灵活及低成本解决方案还需要考虑这些问题

    将FPGA作为下一代汽车电子设计的灵活及低成本解决方案还需要考虑这些问题

     设想一下:如果你驾驶最新款的汽车,以每小时 75 英里的速度在高速公路上疾驰,并一边欣赏着流行的乐曲。 突然间,引擎管理系统或稳定控制系统失效。面对这个情势,您不仅可能会遭遇严重 (甚至致命) 的车祸,而车厂的声誉也可能遭到损害,如果类似情况不止出现在你身上的话。 随着汽车在过去 25 年中从纯机械设备演变成高度集成的线控驾驶汽车电子系统,设计人员面临的挑战也不断增加。他们必须把复杂的电子设备增添到每一个后续车型中,同时还得维持高标准的品质和可靠性,并满足严格的低成本和大批量生产要求。 传统上,汽车开发人员一直依赖于 MCU、ASIC 和硕大的线束来实现和控制电子系统,并扩展每一代汽车的功能。如今,这些解决方案正逼近其技术极限,而且随着汽车电子的复杂性呈指数级增长,其可靠性也引起人们的关注。为了解决这些问题,许多设计人员开始转向 FPGA,将其作为下一代汽车电子设计的灵活及低成本解决方案。 为了确保现代汽车中各种系统的功能运转正常,必须对元件提出可靠性数据的要求。虽然人们已掌握元件可靠性的大部分要素,但是在选择可编程逻辑器件如 FPGA 的过程中,还得考虑一些特殊的问题。 了解宇宙射线的破坏作用 具体点说,技术决策人必须预见到影响可编程逻辑系统的故障源。来自太空 (宇宙射线) 的中子轰击,这听起来有点像电影《星际旅行》中的某个情节,但事实上中子导致的错误对许多类型的电子设备都有危害。中子导致的固件错误 (firm error) 已经从纯粹的麻烦事变为大问题。例如,如果中子导致基于 SRAM 的FPGA 配置单元被扰乱,就可能使到功能失效。如果出现这种情况,可以造成主系统失常。展望未来,这种问题将更为严重,因为将来的 FPGA 会采用深亚微米制造工艺,这将给基于 FPGA 的汽车电子设计工程师带来实实在在的挑战。 中子轰击造成的单事件扰乱 (SEU) 在任何类型的易失性存储单元都易于发生。上述SRAM FPGA 采用内部存储单元来保持 FPGA 的配置状态 (或个性)。这种存储器单元存在更为严重的可靠性问题。当内容被更改的时候,我们说器件发生“软错误”,因为在这种情况下,仅数据受影响,而功能未受影响。虽然可以采用校正数据成功地重新写入器件 (对 SRAM 数据和寄存器可以分别采用 EDAC (错误检测和校正) 和 TMR (隧道磁阻) 技术来纠正),但软错误还是可以导致数据丢失或“系统意外故障”。 如果 SRAM FPGA 配置存储器单元受到破坏,我们说器件发生“固件错误”,因为这些错误不易检测或校正,而且本质上不是暂时现象。一旦在 FPGA 中出现固件错误,必须重新载入初始配置数据。在某些情况下,还必须重新上电以清除故障,然后再重新配置。在这些配置单元中,只要有一个遭遇中子导致的 SEU,后果都可以很严重。如果某个配置位被扰乱而改变状态,它可能会改变整个器件的功能,导致重大数据崩溃或向系统中的其它电路发送虚假的信号。在极端情况下,如果固件错误长期未被检测到,那么,就会变成“硬故障 (hard errors)” 并对器件本身或包含该器件的系统造成破坏。这类问题的常见例子是:中子导致的固件错误把信号导向错误的路径,从而造成短路。 对采用 SRAM FPGA 来实现关键任务汽车电子应用系统来说,中子导致的错误存在严重的潜在隐患。由于现有的检测技术是通过每隔一段时间读回 FPGA配置实现检测,因此,对防止系统内的错误毫无帮助。此外,能够检测受破坏配置的读回电路本身就易于遭受 SEU 或破坏。再者,随着这种易受攻击的FPGA 技术的广泛发展,有可能需要能检查汽车电子系统对中子导致的固件错误免疫能力的全新质量评价系统,把它添加到 AEC-Q100 标准之中,以补充JEDEC 标准 No.89 的不足。此外,目前用于检测和纠正 FPGA 固件错误的方案会增加系统设计的复杂性,并大幅增加线路板尺寸和材料成本,进而提高发现中子导致错误的材料清单成本。 中子导致的固件错误可能对整个系统的 FIT (failure in time) 率影响很大。这种固件错误难于检测,且几乎不可能诊断,给维护和维修带来棘手的问题,并造成维护费用攀升。在三种主流 FPGA 技术 (反熔丝、Flash 和 SRAM) 之中,只有反熔丝和 Flash 技术能抵御中子导致的软错误和固件错误的影响。 实例:采用 SRAM FPGA 实现的汽车电子系统 本例分析了安装在驾驶室内地板中的系统。有人用 SpaceRad 4.5 (广泛应用的辐射效应预测软件程序) 计算了美国科罗拉多州丹佛市 5000 英尺高度的中子射线密度。根据已发表的辐射数据,对于采用 0.22 微米技术,密度为百万门的SRAM FPGA,每天发 生 SEU 的概率为 1.05E-4。 如果厂商在乘员传感器和安全气囊控制模块中采用百万门的 SRAM FPGA,把这个 1.054E-4 的 SEU 发生概率换算成每天每系统的 SEU 发生概率就是 4.38E-06,或者说系统的 FIT 值为 4,375。这意味着如果该厂商在 50 万辆车中采用这种百万门 SRAM FPGA 实现的安全系统,这个 1.054E-4 的 SEU 发生概率乘以路上的车辆/系统数量,就得到该车辆群体中每天总计会发生 52.5 次 SEU 事件(假设车辆一直在运行)。这就相当于每 27.4 分钟出现一次 SEU。即使假定这些车辆平均每天只行驶两小时,每天仍然会发生两起 SEU。由于这些故障是固件故障,因此会持续下去,直到 SRAM FPGA 被重新加载 (通常需要重新上电或强制重新配置)。 在目前的半导体技术中,器件中的软错误已经受到高度关注。随着器件尺寸不断缩小,大家都认识到这种软错误将成为大问题;这些错误可能会极大地降低系统的可用性。因此在许多应用场合中,人们都强烈要求避免出现软错误,使到系统的可用性维持在可以接受的水平。 在选择 FPGA 时,最重要的是评估每一种可编程体系的总体拥有成本,并选择那些拥有本质上可靠的核心技术的供应商,而不是为较低档次要求应用而设计的二等品质供应商提供的商业级产品。 如果采用 SRAM FPGA 来设计,设计人员就必须增加检测和校正配置错误的电路,因而会增加系统成本和复杂性。幸运的是,设计人员还有别的选择。辐射测试数据表明,以反熔丝和 Flash 技术为基础的 FPGA 不易于出现因中子导致的 SEU 事件而造成配置数据丢失。这使它们特别适用于要求高可靠性的应用。 现在,想象一个稍微不同的场景:你以每小时 75 英里的速度驾驶着最新款的汽车在高速公路奔驰,耳畔聆听着流行的歌曲。由于知道引擎管理系统中采用的是以非易失性Flash为基础的FPGA,而不是基于SRAM 的FPGA,你可以继续推杆加速,享受着舒适和无忧的旅程。

    时间:2020-07-08 关键词: 汽车电子 FPGA

  • 人工智能芯片的应用场景细分市场越来越多,已经不局限于FPGA

    人工智能芯片的应用场景细分市场越来越多,已经不局限于FPGA

    1492年哥伦布从西班牙巴罗斯港出发,一路西行发现了美洲。葡萄牙人达伽马南下非洲,绕过好望角到达了印度。不久之后,麦哲伦用了整整三年时间,完成了人类史上第一次环球航行,开启了人类历史上的大航海时代。大航海时代的到来,拉近了人类社会各文明之间的距离,对人类社会产生了深远的影响。 人工智能进入“大航海时代” 从深蓝到Alpha Go,人工智能逐渐走进人们的生活。人工智能也从一场技术革命,逐渐走向了产业落地。智能手机、智能家居设备、智能音箱……等设备,已经完全进入到人们的生活中。指纹识别、人脸识别、画面增强等实用人工智能的技术,也成为了人们日常使用电子设备必不可少的技术。 基于面部识别的emoji表情 这些在我们日常生活中“见怪不怪”的人工智能技术越来越普遍,代表了人工智能产业在近年来的爆炸式发展,2018年更是被称为人工智能技术规模应用的拐点。而作为人工智能技术的核心,人工智能芯片也备受关注,引得国内外科技巨头纷纷布局。谷歌、苹果、微软、Facebook、英特尔、高通、英伟达、AMD、阿里巴巴等巨头纷纷开始自主研发人工智能芯片。 国产寒武纪芯片 并且人工智能芯片的应用场景细分市场越来越多,专门为某些人工智能应用场景定制的芯片适用性明显高于通用芯片。这样的形势,给一些人工智能芯片的初创公司带来了机会。寒武纪芯片和地平线的人工智能视觉芯片、自动驾驶芯片等,就是初创公司在人工智能芯片领域取得成功的代表。 人工智能芯片大火的同时,已经呈现出三分天下的态势。FPGA、GPU和TPU芯片,已经在人工智能领域大规模应用。这三种人工智能芯片有何不同?人工智能企业又是怎样看待这三种芯片的?下文将为您详述。 FPGA并不是新鲜的事物,而因为AI的火热的应用需求不断增强,FPGA正是作为一种AI芯片呈现在人们的面前。准确的说,不仅仅是芯片,因为它能够通过软件的方式定义,所以,更像是AI芯片领域的变形金刚。 FPGA是现场可编程逻辑阵列的首字母缩写,即Field-Programmable Gate Array。过去曾与可编程逻辑器件CPLD进行过较量,如今已经在PAL、GAL、CPLD等可程式逻辑装置的基础上进一步发展,成为英特尔进军AI市场的一个重要法宝。 全球FPGA市场的年均增长率会达到7% 为了更好地了解FPGA和其对AI芯片的未来看法,ZOL企业站对英特尔可编程解决方案事业部亚太区市场拓展经理刘斌(Robin Liu)进行了书面采访。面对目前市场上出现的,CPU、GPU、FPGA、TPU等多种技术处理方式,英特尔又有哪些判断。 FPGA三大特点 刘斌表示:“实际上今天绝大多数人工智能系统是部署在通用处理器上的,原因是在很多应用领域中人工智能部分只是完成某个环节的系统任务,还有大量其它任务一起构成系统处理的完整单元。”在此基础上,出现了很多种选项,比如FPGA、TPU2或者NNP等专用处理器。这种专用处理器,往往向深度学习和神经网络领域延伸,拥有更高效的存储器访问调度结构。 FPGA具有很强的灵活性 FPGA被称为大型数据中心和计算机群众的“加速多面手”也有其技术生态背景。FPGA的开发社区规模相对较小,也具有一定的门槛,但是,FPGA具备良好的存储器访问能力,并且可以非常灵活高效的处理各种不同位宽的数据类型,其有效计算力接近专用处理器的水平,FPGA还可以在线重编程成为其它非人工智能任务的硬件加速器,这也是其有别于GPU和TPU的关键因素。 具体而言有三大特点:FPGA器件家族的广泛覆盖可以适配从云到端的应用需求;FPGA具有处理时延小并且时延可控的特点,更适合某些实时性要求高的业务场景;FPGA可以灵活处理不同的数据位宽,使得系统可以在计算精度、计算力、成本和功耗上进行折衷和优化,更适合某些制约因素非常严格的工程化应用。相比于ASIC则FPGA更加灵活,可以适配的市场领域更加广泛。

    时间:2020-07-04 关键词: FPGA 人工智能

  • Microsemi的PolarFire™现场可编程门阵列 (FPGA),你了解吗?

    Microsemi的PolarFire™现场可编程门阵列 (FPGA),你了解吗?

    什么是Microsemi的PolarFire™现场可编程门阵列 (FPGA)?它有什么作用?2019年1月4日 – 专注于引入新品的全球电子元器件授权分销商贸泽电子 (Mouser Electronics) 即日起备货 Microsemi的PolarFire™现场可编程门阵列 (FPGA)。 此款基于闪存的中密度PolarFire FPGA提供300K的逻辑元件,相比基于SRAM 的FPGA来说,耗电量最高可降低50%。该器件提供出众的安全性、单粒子翻转 (SEU) 免疫结构和串行器/解串器 (SerDes) 性能,适用于通信、国防、航空、工业自动化和物联网 (IoT) 等市场的各种应用。 贸泽电子供应的Microsemi PolarFire FPGA功率低且尺寸小巧,针对数量不断增加的聚合10 Gbbs端口提供高成本效益的带宽处理能力。该器件集成了非易失FPGA结构、12.7 Gbps收发器性能、1.6 Gbps差分输入和输出 (I/O)、硬化安全IP以及加密处理器。28 nm CMOS芯片经过功率优化,提供中密度FPGA的极低静态功耗,同时Flash*Freeze模式还降低了待机功耗。 贸泽另外还库存有Microsemi PolarFire评估套件,用于帮助工程师评估多种应用,例如高速收发器、10Gb Ethernet、IEEE1588、JESD204B、SyncE和 SATA。该套件的连接包括高引脚数FPGA夹层卡 (FMC)、六个SMA、PCIe 边缘连接器、双Gigabit以太网连接器、SFP+屏蔽罩和USB转UART终端。 此套件附带一年Gold软件许可,而此许可包含的Libero SoC PolarFire设计套件是一套功能完整、易于学习又好上手的开发工具。该套件集成了业界标准Synopsys Synplify Pro®综合工具与Mentor Graphics ModelSim®模拟工具,具有卓越的限制管理和调试功能。 贸泽电子拥有丰富的产品线与贴心的客户服务,积极引入新技术、新产品来满足设计工程师与采购人员的各种需求。我们库存有海量新型电子元器件,为客户的新一代设计项目提供支持。以上就是Microsemi的PolarFire™现场可编程门阵列 (FPGA)解析,希望能给大家参考。

    时间:2020-07-03 关键词: FPGA microsemi 可编程

  • I/O数翻倍,Lattice瞄准工业通信FPGA市场

    I/O数翻倍,Lattice瞄准工业通信FPGA市场

    FPGA在数据时代有什么终极意义?从特性上来讲,相比内核执行外算法都是冻结的ASIC,可编程内核的FPGA拥有很强的灵活性和适应性;从功用上来讲,是摩尔定律放缓后至关重要的协处理器和桥接器件。 在异构计算的大背景下,FPGA愈发追求小尺寸、低功耗和高性能,这看准的便是FPGA固有的特性,可以说FPGA是数据时代现阶段最适合的产品。在追求极致性能上,除了增加I/O数量,甚至部分厂商为了追求灵活性和适应性把ASIC塞进了FPGA。 Lattice(莱迪思半导体)是利用28nm FD-SOI(耗尽型绝缘层上硅)这种工艺平衡FPGA的性能和功耗,让小型FPGA兼具“高性能”也具有“低功耗”两种特性。从技术上来讲,主要是因为FD-SOI可在衬底这部分进行电压控制,因此反馈偏压(Back Bias)是可控的,在此方面可自由进行低功耗和高性能的设定切换。 另一方面,传统使用SRAM制程的FPGA产品容易受到辐射干扰,而28nm FD-SOI则拥有较薄的氧化层,因此关键区域的减少,使得软错误率(SEU)随之而降。同时,与bulk CMOS工艺相比,28nm FD-SOI的漏电也降低了50%。 利用这种28nm FD-SOI的工艺,Lattice在去年专门发布了Lattice Nexus™这一技术平台进行多系列产品产出,与此同时还发布了首款产品CrossLink-NX。之前,21ic中国电子网曾经也重点对这种工艺的FPGA进行了讲解。 而就在第一款产品问世六个月后,日前Lattice宣布发布了这款平台的第二代产品——Certus™-NX,这款新产品拥有同类型产品脱颖而出的参数和性能,具有更高的I/O密度和功耗,21ic中国电子网记者受邀参加此次发布会。 当然,需要注意的是Lattice一直专注领域属于中端市场,主营范围还是低功耗的小型FPGA,产品主要聚焦在功能性和性价比上,本款产品亦是如此。 01 更极致的性能和安全性 从整体架构来看,Certus-NX与CrossLink-NX因为都采用的是28nm FD-SOI工艺,所以在特性上非常相似,均可切换低功耗和高性能模式,内嵌嵌入式闪存,配置了特有的DSP模块进行乘加法。 另外,在逻辑单元上也均为17-40K。在快速启动方面,两者均采用Lattice一贯的内嵌闪存,大大降低唤醒时间,达到无缝的视觉体验。 图1:Certus-NX详情 图2:CrossLink-NX详情 而从差异性来看,两款产品拥有两个关键的区分点: 一、Certus-NX去除了硬核MIPI D-PHY 根据莱迪思现场技术支持总监蒲小双(Jeffery Pu)的介绍,这主要是考虑到细分子市场对I/O个数的要求而进行的优化,去掉硬核MIPI D-PHY后每平方毫米的I/O个数有了显著地提升。 记者对两款产品的参数上进行了对比,两款产品最小尺寸均为6 x 6 mm(121 csfBGA),CrossLink-NX的I/O数量为72个,而Certus-NX的I/O数量为82个,相当于每平方毫米I/O数量提升了13%。 从应用上来讲, MIPI接口大多数与摄像头和传感器有关,前一代市场瞄准的是消费级市场嵌入式视觉方面,而本产品则更多发力于网络边缘应用添加处理和互连功能,这些应用一般来说强调使用PCle和千兆以太网。正因如此,这一代产品走的便是极致性价比和极致功耗性能,针对不同应用市场将硬核转化为性能。 二、Certus-NX增添了安全认证ECDSA位流验证 Jeffery Pu告诉记者,受到前几代产品的启发,包括Lattice以前推出的XO3D产品,内部拥有PFR功能,里面有很复杂的认证,借用这些概念放到新款产品里,这是相对于前一代产品非常明显的差距。 从技术上来讲,ECDSA英文全称Elliptic Curve Digital Signature Algorithm,主要原理是创建数据数字签名,与AES(高级加密标准)不同,ECDSA不会对数据进行加密或阻止数据访问。当然,这款FPGA另外还是支持强大的AES-256位流加密的。 图3:Certus-NX实现最小尺寸上的ECDSA位流验证 从市场上来看,需要在嵌入式视觉方面发力的用户选择带有MIPI接口的CrossLink-NX即可,需要重点在工业、通信上添加处理和互连的则可选用性能更强劲的Certus-NX。 02 性能碾压同类竞品 在28nm FD-SOI工艺加持之下,以及Lattice一贯的低功耗FPGA经验,新产品在同类竞品中脱颖而出。需要注意的是,Lattice之前也多次强调自身专注的是消费级的低功耗FPGA,市场既需要追求尖端市场产品的厂商,也需要专注小尺寸产品的FPGA厂商。具体对比如下: 一、3倍的小尺寸,2倍I/O数量,70%I/O速率提升 Certus-NX在最小尺寸上,仅有6 x 6 mm,在I/O数量和速率上最接近的公司A的50K逻辑单元产品都已达到了10 x 10 mm尺寸了,而公司B的77K逻辑单元产品则达到了11 x 11 mm,相差了3倍之多。 而从I/O数量上来说,一方面,有着28 nm FD-SOI工艺加持,另一方面,毕竟这一代产品砍掉了MIPI硬核,数量提升是相当的明显的。当然相比传统工艺产品,28 nm FD-SOI工艺加持之下速率也提升了70%。 图4:对比同类竞品Certus-NX有明显优势 二、4倍功耗降低 Lattice一直以来的优势便是低功耗,从参数上来看,在极端条件下对比公司B的77K逻辑单元产品最多降低了4倍。 从另一方面来看,低功耗就意味着更低的发热,在此方面电池就拥有最大化的寿命。这意味着,用电成本、散热成本、电池更换成本均有所降低。 图5:Certus-NX功耗降低4倍 三、12倍配置速度 配置速度是Lattice一直的强项,从CrossLink-Plus便开始加入这项功能。主要原理上是在产品中内嵌嵌入式闪存,加快了启动的速度。本代产品依然沿袭了前一代产品的3ms的I/O配置时间。 Jeffery Pu为记者介绍表示,传统FPGA一般加入的是SPI Flash,启动速度就取决于SPI的速度。早年传统FPGA能跑到50Mbps速率就很不错了,现如今新的SPI Flash基本可以达到130Mbps,但仍然不是能够达到秒开的效果。 Certus-NX主要使用的是QSPI,相比单通道的SPI,四个通道数据加载速度就会有明显的提升。不过,需要注意的是这需要FPGA具有相应的设计,才能支持快速配置。 很多情况下,在安全为首的系统中,启动时间有延迟会带来一定风险,无缝的启动显示既带来了更好的用户体验,也为安全增添了一分色彩。 图6:Certus-NX拥有12倍的配置速度 四、100倍降低软错误率(SER) 从Certus-NX公布的数据来看,40K逻辑单元下SER达到了19.34,相比公司A的50K逻辑单元产品降低了超过100倍。这归功于28nm FD-SOI这种工艺带来的普惠,因为这种工艺拥有一层较薄的氧化层,因而减少了关键区域,从而降低了软错误率(SER)。 当然,不仅仅是软错误率这一指标,这种工艺还具有抗干扰性,在漏电上也降低了50%。 图7:Certus-NX软错误率降低了100倍 03 低功耗FPGA仍有许多值得期待 除了最新的FPGA,Lattice也在上半年发布了名为Lattice Propel的最新软件方案。据了解,Lattice Propel开发工具包含两大特色:IP整合工具Lattice Propel Builder,以及软件开发工具Lattice Propel SDK。 图8:Lattice的产品更新路线 Propel意为驱动、推进,这两个开发工具也切实地进一步推动了FPGA开发自动化。Lattice Propel Builder可让FPGA开发商以拖动IP区块形式进行设计,还能够自动联机产生代码;Lattice Propel SDK则具备软件套件建构、编译、分析和除错的应用程序,并以软件函式库与开发板级提供支持,让软件开发人员能在硬件就绪前进行软件设计,加速产品上市时程。 值得一提的是Lattice Propel是支持RISC-V IP的,众所周知RISC-V在嵌入式应用是极其重要的,透过最新FPGA开发环境,行业将迎来新的开发格局。 当然,基于Certus-NX这款产品的相关工具和IP也已提供下载使用,开发者将拥有更好的开发体验。目前,Certus-NX的样片已发往多个客户,开发板已可订购。 图9:各类工具和解决方案加速开发 在发布会的最后,Jeffery Pu透露,28nm FD-SOI的Nexus技术平台的第三代产品将在今年下半年宣发,相关计划也非常多,低功耗FPGA市场下半年将有更多惊喜值得期待。

    时间:2020-07-01 关键词: FPGA lattice 技术专访 certus-nx

  • 莱迪思推出全新Certus-NX, 重新定义低功耗通用FPGA

    中国北京——2020年6月25日——莱迪思半导体公司(NASDAQ:LSCC),低功耗可编程器件的领先供应商,今日宣布推出全新Lattice Certus™-NX系列FPGA。该系列器件在通用FPGA市场上拥有领先的IO密度,每平方毫米的IO密度最高可达同类FPGA竞品的两倍。Certus-NX FPGA拥有卓越的低功耗、小尺寸、高可靠性和瞬时启动等特性,支持高速PCI Express(PCIe)和千兆以太网接口,可实现数据协同处理、信号桥接和系统控制。Certus-NX FPGA面向从自动化工业设备中的数据处理到通信基础设施中的系统管理等一系列应用。Lattice Nexus™是业界首个基于28 nm FD-SOI工艺的低功耗FPGA技术平台,而Certus-NX器件是在该平台上开发的第二款FPGA系列产品。Certus-NX的发布标志着莱迪思在新产品开发战略的指导下仅用六个月就发布了第二款产品系列。 Linley Group首席分析师Linley Gwennap表示:“Certus-NX拥有使之脱颖而出的独特创新功能。与门数相近的其他FPGA竞品相比,莱迪思提供更小的封装尺寸、更高的IO密度和更低的功耗。” 莱迪思产品营销总监Gordon Hands表示:“得益于莱迪思Nexus开发平台在系统、架构和电路层面的创新,我们能够加速推出新产品,在客户评估其应用的性能和功耗要求时为其提供更多选择方案。Certus-NX提供并行处理能力和灵活的IO支持,可实现创新的器件设计,重新定义开发人员对通用FPGA的期待。” 随着工业自动化和5G等技术的发展,开发人员开始寻求为网络边缘应用添加处理和互连功能。为了顺应这种趋势,这些器件需要采用支持PCIe和千兆以太网等常见接口的低功耗处理硬件。设备开发人员还需要易于使用、统一的开发平台,提供将产品快速推向市场所需的硬件、软件和IP。 Logic Fruit Technologies公司首席执行官Sanjeev Kumar表示:“作为一家FPGA设计公司,我们看到PCIe等串行协议和以太网广泛应用于5G和IoT等系统的芯片连接。莱迪思最新一代Certus-NX FPGA不仅支持这些标准,且在提供高密度I/O的同时,极大减少功耗和整个设备的设计尺寸。这些FPGA有助于我们快速适应客户不断变化、充满挑战的互连和性能方面的需求。” 莱迪思Certus-NX FPGA的主要特性包括: ●  尺寸缩小多达3倍——Certus-NX FPGA可以轻松应用于小尺寸设计中,对整体设计尺寸的影响极小。例如,Certus-NX FPGA可以在36 mm2内实现完整的PCIe解决方案。即便是使用Certus-NX FPGA系列的最小封装,其每平方毫米I/O密度仍是同类FPGA竞品的两倍,为桥接应用提供更大的设计灵活性和强大的支持。 ● 可靠的IO连接性能——Certus-NX的开发人员可以使用莱迪思完善的IP库。可以在Certus-NX上使用的主要IP包括: o   1.5 Gbps差分IO,性能超过竞品FPGA最高可达70% o   5 Gbps PCIe、1.5 Gbps SGMII和1066 Mbps DDR3。开发人员可以在Certus-NX开发板上测试这些IP模块,快速实现在Certus-NX FPGA目标应用上常用的接口。 ● 强大的认证和加密——为了保护器件的位流免于未经授权的访问/更改/复制,Certus-NX FPGA支持AES-256加密和领先的ECDSA认证,可在设备的整个生命周期内提供保护。 ● 功耗降低多达4倍——Certus-NX FPGA的可编程基体偏压功能可根据用户的应用需求,可选择高性能或低功耗工作模式。与同类FPGA相比,该系列器件的功耗可降低多达4倍。 ● 瞬时启动——全新器件还通过SPI存储器实现超快的器件配置,其速度最该可达同类FPGA竞品的12倍。单个I/O配置只需3 ms,整个器件启动时间仅为8-14 ms(取决于器件大小)。 ● 可靠性高——对于安全性要求极高的工业和汽车应用而言,可靠的性能至关重要。这些应用中的器件必须达到预期的性能,以避免对人员和财产造成损害。Certus-NX FPGA的抗软错误率(SER)性能最高为同类FPGA的100倍。Certus-NX FPGA为工业温度级器件。它还支持片上ECC和SEC。 ● 易于使用/设计——Certus-NX FPGA支持易于使用的LatticeRadiant®软件,它提供了统一的FPGA设计环境,集成了优秀的工具和功能,可帮助用户快速高效地开发应用。 莱迪思已经向一部分客户提供样片。欲了解更多信息,请访问官方网站。

    时间:2020-06-29 关键词: FPGA lattice certus-nx

  • AI芯片的过去和未来,看这篇文章就够了

    AI芯片的过去和未来,看这篇文章就够了

    相信你一定还记得击败了李世石和柯洁的谷歌“阿尔法狗”(AlphaGo),那你知道驱动AlphaGo的是什么吗? 如果你觉得AlphaGo和人相似,只不过是把人脑换成了芯片,那么你就大错特错了。击败李世石的AlphaGo装有48个谷歌的AI芯片,而这48个芯片不是安装在AlphaGo身体里,而是在云端。所以,真正驱动AlphaGo的装置,看上去是这样的... 图片来自网络,版权属于作者 因此李世石和柯洁不是输给了“机器人”,而是输给了装有AI芯片的云工作站。 然而近几年,AI技术的应用场景开始向移动设备转移,比如汽车上的自动驾驶、手机上的人脸识别等。产业的需求促成了技术的进步,而AI芯片作为产业的根基,必须达到更强的性能、更高的效率、更小的体积,才能完成AI技术从云端到终端的转移。 目前,AI芯片的研发方向主要分两种:一是基于传统冯·诺依曼架构的FPGA(现场可编程门阵列)和ASIC(专用集成电路)芯片,二是模仿人脑神经元结构设计的类脑芯片。其中FPGA和ASIC芯片不管是研发还是应用,都已经形成一定规模;而类脑芯片虽然还处于研发初期,但具备很大潜力,可能在未来成为行业内的主流。 这两条发展路线的主要区别在于,前者沿用冯·诺依曼架构,后者采用类脑架构。你看到的每一台电脑,采用的都是冯·诺依曼架构。它的核心思路就是处理器和存储器要分开,所以才有了CPU(中央处理器)和内存。而类脑架构,顾名思义,模仿人脑神经元结构,因此CPU、内存和通信部件都集成在一起。 接下来小探将为读者分别介绍两种架构的简要发展史、技术特点和代表性产品。 从GPU到FPGA和ASIC芯片 2007年以前,受限于当时算法和数据等因素,AI对芯片还没有特别强烈的需求,通用的CPU芯片即可提供足够的计算能力。比如现在在读这篇文章的你,手机或电脑里就有CPU芯片。 之后由于高清视频和游戏产业的快速发展,GPU(图形处理器)芯片取得迅速的发展。因为GPU有更多的逻辑运算单元用于处理数据,属于高并行结构,在处理图形数据和复杂算法方面比CPU更有优势,又因为AI深度学习的模型参数多、数据规模大、计算量大,此后一段时间内GPU代替了CPU,成为当时AI芯片的主流。 GPU比CPU有更多的逻辑运算单元(ALU) 图片来自网络,版权属于作者 然而GPU毕竟只是图形处理器,不是专门用于AI深度学习的芯片,自然存在不足,比如在执行AI应用时,其并行结构的性能无法充分发挥,导致能耗高。 与此同时,AI技术的应用日益增长,在教育、医疗、无人驾驶等领域都能看到AI的身影。然而GPU芯片过高的能耗无法满足产业的需求,因此取而代之的是FPGA芯片,和ASIC芯片。 那么这两种芯片的技术特点分别是什么呢?又有什么代表性的产品呢? “万能芯片”FPGA FPGA(FIELD-PROGRAMMABLEGATEARRAY),即“现场可编程门阵列”,是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。 FPGA可以被理解为“万能芯片”。用户通过烧入FPGA配置文件,来定义这些门电路以及存储器之间的连线,用硬件描述语言(HDL)对FPGA的硬件电路进行设计。每完成一次烧录,FPGA内部的硬件电路就有了确定的连接方式,具有了一定的功能,输入的数据只需要依次经过各个门电路,就可以得到输出结果。 用大白话说,“万能芯片”就是你需要它有哪些功能、它就能有哪些功能的芯片。 尽管叫“万能芯片”,FPGA也不是没有缺陷。正因为FPGA的结构具有较高灵活性,量产中单块芯片的成本也比ASIC芯片高,并且在性能上,FPGA芯片的速度和能耗相比ASIC芯片也做出了妥协。 也就是说,“万能芯片”虽然是个“多面手”,但它的性能比不上ASIC芯片,价格也比ASIC芯片更高。 但是在芯片需求还未成规模、深度学习算法需要不断迭代改进的情况下,具备可重构特性的FPGA芯片适应性更强。因此用FPGA来实现半定制人工智能芯片,毫无疑问是保险的选择。 目前,FPGA芯片市场被美国厂商Xilinx和Altera瓜分。据国外媒体Marketwatch的统计,前者占全球市场份额50%、后者占35%左右,两家厂商霸占了85%的市场份额,专利达到6000多项,毫无疑问是行业里的两座大山。 Xilinx的FPGA芯片从低端到高端,分为四个系列,分别是Spartan、Artix、Kintex、Vertex,芯片工艺也从45到16纳米不等。芯片工艺水平越高,芯片越小。其中Spartan和ArTIx主要针对民用市场,应用包括无人驾驶、智能家居等;Kintex和Vertex主要针对军用市场,应用包括国防、航空航天等。 Xilinx的Spartan系列FPGA芯片 图片来自网络,版权属于作者 我们再说说Xilinx的老对手Altera。Altera的主流FPGA芯片分为两大类,一种侧重低成本应用,容量中等,性能可以满足一般的应用需求,如Cyclone和MAX系列;还有一种侧重于高性能应用,容量大,性能能满足各类高端应用,如StarTIx和Arria系列。Altera的FPGA芯片主要应用在消费电子、无线通信、军事航空等领域。 专用集成电路ASIC 在AI产业应用大规模兴起之前,使用FPGA这类适合并行计算的通用芯片来实现加速,可以避免研发ASIC这种定制芯片的高投入和风险。 但就像我们刚才说到的,由于通用芯片的设计初衷并非专门针对深度学习,因此FPGA难免存在性能、功耗等方面的瓶颈。随着人工智能应用规模的扩大,这类问题将日益突出。换句话说,我们对人工智能所有的美好设想,都需要芯片追上人工智能迅速发展的步伐。如果芯片跟不上,就会成为人工智能发展的瓶颈。 所以,随着近几年人工智能算法和应用领域的快速发展,以及研发上的成果和工艺上的逐渐成熟,ASIC芯片正在成为人工智能计算芯片发展的主流。 ASIC芯片是针对特定需求而定制的专用芯片。虽然牺牲了通用性,但ASIC无论是在性能、功耗还是体积上,都比FPGA和GPU芯片有优势,特别是在需要芯片同时具备高性能、低功耗、小体积的移动端设备上,比如我们手上的手机。 但是,因为其通用性低,ASIC芯片的高研发成本也可能会带来高风险。然而如果考虑市场因素,ASIC芯片其实是行业的发展大趋势。 为什么这么说呢?因为从服务器、计算机到无人驾驶汽车、无人机,再到智能家居的各类家电,海量的设备需要引入人工智能计算能力和感知交互能力。出于对实时性的要求,以及训练数据隐私等考虑,这些能力不可能完全依赖云端,必须要有本地的软硬件基础平台支撑。而ASIC芯片高性能、低功耗、小体积的特点恰好能满足这些需求。 ASIC芯片市场百家争鸣 2016年,英伟达发布了专门用于加速AI计算的TeslaP100芯片,并且在2017年升级为TeslaV100。在训练超大型神经网络模型时,TeslaV100可以为深度学习相关的模型训练和推断应用提供高达125万亿次每秒的张量计算(张量计算是AI深度学习中最经常用到的计算)。然而在最高性能模式下,TeslaV100的功耗达到了300W,虽然性能强劲,但也毫无疑问是颗“核弹”,因为太费电了。 英伟达TeslaV100芯片 图片来自网络,版权属于作者 同样在2016年,谷歌发布了加速深度学习的TPU(TensorProcessingUnit)芯片,并且之后升级为TPU2.0和TPU3.0。与英伟达的芯片不同,谷歌的TPU芯片设置在云端,就像文章在AlphaGo的例子中说的一样,并且“只租不卖“,服务按小时收费。不过谷歌TPU的性能也十分强大,算力达到180万亿次每秒,并且功耗只有200w。 谷歌TPU芯片 图片来自网络,版权属于作者 关于各自AI芯片的性能,谷歌CEOSundarPichai和英伟达CEO黄仁勋之前还在网上产生过争论。别看两位大佬为自家产品撑腰,争得不可开交,实际上不少网友指出,这两款产品没必要“硬做比较”,因为一个是在云端,一个是在终端。 除了大公司,初创企业也在激烈竞争ASIC芯片市场。那么初创企业在行业中该如何生存呢?对此,AI芯片初创企业Novumind的中国区CEO周斌告诉小探:创新是初创企业的核心竞争力。 2017年,NovuMind推出了第一款自主设计的AI芯片:NovuTensor。这款芯片使用原生张量处理器(NaTIveTensorProcessor)作为内核构架,这种内核架构由NovuMind自主研发,并在短短一年内获得美国专利。除此之外,NovuTensor芯片采用不同的异构计算模式来应对不同AI应用领域的三维张量计算。2018年下半年,Novumind刚推出了新一代NovuTensor芯片,这款芯片在做到15万亿次计算每秒的同时,全芯片功耗控制在15W左右,效率极高。 Novumind的NovuTensor芯片 尽管NovuTensor芯片的纸面算力不如英伟达的芯片,但是其计算延迟和功耗却低得多,因此适合边缘端AI计算,也就是服务于物联网。虽然大家都在追求高算力,但实际上不是所有芯片都需要高算力的。比如用在手机、智能眼镜上的芯片,虽然也对算力有一定要求,但更需要的是低能耗,否则你的手机、智能眼镜等产品,用几下就没电了,也是很麻烦的一件事情。并且据EETImes的报道,在运行ResNet-18、ResNet-34、ResNet70、VGG16等业界标准神经网络推理时,NovuTensor芯片的吞吐量和延迟都要优于英伟达的另一款高端芯片Xavier。 结合Novumind现阶段的成功,我们不难看出:在云端市场目前被英伟达、谷歌等巨头公司霸占,终端应用芯片群雄逐鹿的情形下,专注技术创新,在关键指标上大幅领先所有竞争对手,或许是AI芯片初创企业的生存之道。 类脑芯片 如文章开头所说,目前所有电脑,包括以上谈到的所有芯片,都基于冯·诺依曼架构。 然而这种架构并非十全十美。将CPU与内存分开的设计,反而会导致所谓的冯·诺伊曼瓶颈(vonNeumannbottleneck):CPU与内存之间的资料传输率,与内存的容量和CPU的工作效率相比都非常小,因此当CPU需要在巨大的资料上执行一些简单指令时,资料传输率就成了整体效率非常严重的限制。 既然要研制人工智能芯片,那么有的专家就回归问题本身,开始模仿人脑的结构。 人脑内有上千亿个神经元,而且每个神经元都通过成千上万个突触与其他神经元相连,形成超级庞大的神经元回路,以分布式和并发式的方式传导信号,相当于超大规模的并行计算,因此算力极强。人脑的另一个特点是,不是大脑的每个部分都一直在工作,从而整体能耗很低。 神经元结构 图片来源:维基百科 这种类脑芯片跟传统的冯·诺依曼架构不同,它的内存、CPU和通信部件是完全集成在一起,把数字处理器当作神经元,把内存作为突触。除此之外,在类脑芯片上,信息的处理完全在本地进行,而且由于本地处理的数据量并不大,传统计算机内存与CPU之间的瓶颈不复存在了。同时,神经元只要接收到其他神经元发过来的脉冲,这些神经元就会同时做动作,因此神经元之间可以方便快捷地相互沟通。 在类脑芯片的研发上,IBM是行业内的先行者。2014年IBM发布了TrueNorth类脑芯片,这款芯片在直径只有几厘米的方寸的空间里,集成了4096个内核、100万个“神经元”和2.56亿个“突触”,能耗只有不到70毫瓦,可谓是高集成、低功耗的完美演绎。 装有16个TrueNorth芯片的DARPASyNAPSE主板 图片来自网络,版权属于作者 那么这款芯片的实战表现如何呢?IBM研究小组曾经利用做过DARPA的NeoVision2Tower数据集做过演示。它能以30帧每秒速度,实时识别出街景视频中的人、自行车、公交车、卡车等,准确率达到了80%。相比之下,一台笔记本编程完成同样的任务用时要慢100倍,能耗却是IBM芯片的1万倍。 然而目前类脑芯片研制的挑战之一,是在硬件层面上模仿人脑中的神经突触,换而言之就是设计完美的人造突触。 在现有的类脑芯片中,通常用施加电压的方式来模拟神经元中的信息传输。但存在的问题是,由于大多数由非晶材料制成的人造突触中,离子通过的路径有无限种可能,难以预测离子究竟走哪一条路,造成不同神经元电流输出的差异。 针对这个问题,今年麻省理工的研究团队制造了一种类脑芯片,其中的人造突触由硅锗制成,每个突触约25纳米。对每个突触施加电压时,所有突触都表现出几乎相同的离子流,突触之间的差异约为4%。与无定形材料制成的突触相比,其性能更为一致。 即便如此,类脑芯片距离人脑也还有相当大的距离,毕竟人脑里的神经元个数有上千亿个,而现在最先进的类脑芯片中的神经元也只有几百万个,连人脑的万分之一都不到。因此这类芯片的研究,离成为市场上可以大规模广泛使用的成熟技术,还有很长的路要走,但是长期来看类脑芯片有可能会带来计算体系的革命。 说了这么多,相信读者们对AI芯片行业已经有了基本的认识。在未来,AI芯片是否会从云端向终端发展?行业中大小公司的激烈的竞争会催生出怎样的创新和转型?类脑芯片的研发又能取得哪些突破?关于这些问题,每个人都会有不同的见解,欢迎各位读者在下面留言。 本文来源:硅谷探秘

    时间:2020-06-25 关键词: FPGA asic

  • FPGA让自动驾驶开发更具灵活性

    FPGA让自动驾驶开发更具灵活性

    作为汽车从传统功能车向智能车升级的一项过渡技术,ADAS随着汽车电子的快速发展,以及相关安全标准和消费需求的不断提升,近两年开始在量产车上广泛搭载,成为越来越多新车的“标配”。受摄像头成本较低以及图像处理技术日趋成熟等因素的助推,目前前端摄像头系统和360°全景影像系统的市场标配率比较高。 前端摄像头等系统可提供以下功能: LKW = 车道保持提醒 LKA = 车道保持辅助 AEB = 自动紧急制动 TSR = 交通标志识别 全景视图可提供以下功能: 自动泊车辅助 拖车角度检测 对象检测 赛灵思能提供种类丰富的产品,包括纯 FPGA 产品和/或 SoC(ARM 核 + FPGA)产品。这些产品提供独特的灵活性,能为前端摄像头、全景摄像头等提供解决方案。各代系统要求各不相同,创新正在持续推进。因此,芯片解决方案需要适应不断变化的要求。FPGA 技术助力系统设计人员创建自己的硬件加速器或 AI 引擎,提高处理效率。在许多情况下,仅仅拥有高性能 CPU 是不够的,还需要硬件加速器来分担 CPU 的工作,减少实现功能所需的软件。 FPGA让自动驾驶开发更具灵活性 当前处于自动驾驶发展的“试错”阶段,算法的更新迭代周期非常短,这给FPGA更多的市场机会。以ADAS报警为例, ADAS 系统提醒是被动式的,但也有可能是主动式的。减少“误报率”主要是要在系统级解决的问题。增加传感器数量,提高传感器融合,这都有助于确保误报率的降低。赛灵思技术能为系统开发人员带来以下优势。 DAPD = 数据汇总、预处理和分配,在众多系统中传感元素是不断变化的。例如,成像器的分辨率在变,或者摄像头和雷达数据需要融合。采用 FPGA 技术,不仅能适应于不同要求,还能创建适当的界面,满足配置要求。 OTA 芯片技术是另一大独特功能。许多 ECU 具备无线 (OTA) 更新功能,因此,运行在 SoC 上的软件可通过网络部署进行升级。就赛灵思而言,我们能更新软件,还能更新硬件配置。软件更新通常受限于硬件配置,但对于我们来说,我们可以改变这两种情况。这就意味着我们能为系统设计人员提供更高的灵活性。 半导体产业面临的挑战往往与规模有关。随着体量的增长,成本就会显著下降。自动驾驶测试车辆通常为车队运行模式,车队车辆数量不同,通常为几百台。乘用车和卡车市场规模为每年约 1 亿台。从年化角度看,我们可以看到,相对于整体汽车市场而言,自动驾驶测试车辆车队的规模非常小。此外,工程开发成本非常高,而且还要摊薄到极少的产品数量上,这就导致感知成本大幅提升。赛灵思技术能够提供帮助,因为我们能避免对已有基础技术的重复“再造”。 赛灵思 SoC 器件正应用于激光雷达、4D 雷达、全景摄像头和前端摄像头等应用领域。您无需为每个系统都采用不同的 SoC,而只需使用赛灵思技术支持所有系统,这就能提高体量,从而降低价格。更重要的是,您还能针对多应用 ECU 重用软件框架,从而降低工程设计开发成本。 我们已将最近的 MPSOC 认证到 ASIL C 级,以便为系统设计人员提供帮助。我们将继续支持市场对功能安全性的需求。关键在于系统设计人员必须应对高难度挑战,开发出支持“故障下工作模式”和“半故障半正常模式”的系统。也就是说,设计方案要具有足够的稳健性,即便系统发生故障,也有足够的冗余,能够继续发挥有限的功能,可以让车辆进入安全的停放点,或者继续以有限的功能运行。 另一个关键点就是我们将会看到商业车队实现方案的普及,这种车队规模有限,随后我们才能看到市场中普通消费者的广泛认可。商业部署是测试床,有助于开发人员收集数据,提升功能,并建立消费者买家的信心。 未来自动驾驶的创新方向 无人驾驶汽车已经出现,而且也在以小型车队的形式部署用于共享汽车和快递行业。问题在于无人驾驶汽车的价格何时才能降到普通消费者能接受的水平。这很难预测,但应该会在 2025 年后才能实现。有关产品不得不从单纯的外部传感能力出发,不断发展以提高车内传感能力。围绕自动驾驶的热点,引发的一系列产业、技术、生态的变革和创新才刚刚开始,应创建新特性来满足以下要求: 提醒遗落物品,在共享汽车用例中,能够识别墨镜、手机、雨伞等物品,确保您下车时不会遗落在车上。 优化安全气囊部署:乘客乘车的座位和方向不再固定。摄像头需要确定部署安全气囊的最佳方式,以保护乘客安全。 新用户界面帮助乘客与车辆互动,告知车辆要去的目的地,以及如何使用娱乐系统。 创新不仅能够持续推进无人驾驶功能的发展,还会还改进无人驾驶汽车与乘客之间的互动。 持续投资中国市场 中国市场是汽车行业最大的市场之一,它也在推进汽车从燃油发动机向汽车电气化的发展。电气化和自动驾驶技术将成为两大趋势。赛灵思会继续向中国市场投资,推进市场整合发展。其中一个例子就是我们收购了总部位于中国北京的提供 AI 技术的初创公司深鉴科技。

    时间:2020-06-24 关键词: FPGA 自动驾驶

  • 赛灵思: 积极拥抱“新基建” 持续发力大中华区核心市场

    赛灵思: 积极拥抱“新基建” 持续发力大中华区核心市场

    6月5日消息,赛灵思以线上会议形式举行了主题为“创‘新’正当‘适’”的大中华区核心市场中国媒体沟通会。会上,赛灵思大中华区高管分享了对大中华区核心市场的理解,以及在中国新基建浪潮下,赛灵思如何在众多细分领域带来不一样的创新驱动力。 唐晓蕾(Maria Tang),赛灵思大中华区销售副总裁唐晓蕾(左) 酆毅(Bob Feng),赛灵思大中华区核心市场总监酆毅(右) 赛灵思大中华区销售副总裁唐晓蕾表示:“‘新基建’的本质就是‘数据新基建’。数据是有引力的,它在从云到端到边缘的流动中相互作用,使得数据量呈爆炸性增长且杂乱无序,超越了现有处理器架构的处理能力。因此,世界亟需一种异构的、能适应未来需求的架构,以匹配‘新基建’所驱动的创新时代需求。赛灵思所引领的自适应异构计算平台,拥有高性能、高可靠性、低功耗及独特的灵活应变能力,完全可以满足‘新基建’所需。我们希望通过联手中国合作伙伴及客户,成为澎湃中国经济与产业新动能的强大引擎。” 2018 年 1 月,Victor Peng 就任赛灵思第四任 CEO 并宣布启动三大战略,即数据中心优先、加速核心市场发展以及驱动自适应计算。正式执行三大战略两年以来,赛灵思在核心市场表现强劲,贡献了公司大部分营收并连续五年呈增长态势,其中大中华区市场保持最快增速。 赛灵思大中华区核心市场发展总监酆毅表示:“核心市场在赛灵思业务中扮演重要角色,我们在全球范围内的广泛细分市场领域拥有大量业经验证的成功案例。‘新基建’将引发中国各个细分市场经历前所未有的革新与发展动力,而灵活多变的赛灵思自适应计算平台正是变革与创新者的理想选择。” 作为汽车解决方案提供商,从高级驾驶员辅助系统( ADAS )、车内( In-Cabin )体验和自动驾驶( AD ),赛灵思致力于下一代汽车解决方案的开发与部署。 深耕汽车产业十多年以来,赛灵思打造了完善的产品组合,加上独特的安全可靠性与灵活应变能力,可以为 ADAS 到 AD 的各种应用设计差异化系统。与此同时,赛灵思汽车方案也逐步实现了从 ADAS 到 AD 的演进,包括计算机视觉逐渐过渡到 AI 用于防撞、使用边缘传感器、相机、雷达( RADAR )和激光雷达( LiDAR )进行目标检测和跟踪、更多地通过 AI 推断识别乘员的警觉性、姿势和偏好进行车载监控。 截至目前,赛灵思服务的车企已超过30家,车型超过100款。而赛灵思在汽车领域的合作伙伴则涵盖了全球所有主流的一级汽车供应商、原始设备制造商(OEM),以及各种初创型企业,车规级芯片全球范围内累计销售已经超过1.7亿颗,其中7000万颗用于量产型 ADAS。 除此之外,赛灵思在工业视觉与医疗、专业音视频与广播以及其他广泛领域也有着卓越表现。当前,工业物联网和医疗物联网大数据正推动边缘计算智能化趋势。在工业与视觉方面,赛灵思正打造智能工厂与智慧城市,其所提供的异构嵌入式处理、I/O 灵活性、基于硬件的确定性控制以及实现最低总拥有成本的综合解决方案,可为智能电网、视频监控与智慧城市、驱动与电机控制等智能自适应资产提供强大支持。面对医疗成像、诊断及临床设备的智能化趋势,赛灵思的全面解决方案可以充分满足可扩展医疗平台不断增长的需求,为外科手术机器人、放射设备、超声、病患监护、智能病床等核心应用提供安全性与机器学习功能。 针对专业音视频与广播,考虑到图像传感器与显示技术的发展对视频处理提出了更高的需求,赛灵思提供了灵活、差异化和基于标准的解决方案,并结合所有视频和视觉系统所需的软件可编程性、实时视频和音频处理、硬件优化和任意媒体连接功能。不论是电视直播还是数字电影,赛灵思都能为其提供完整的端到端支持。 在测试测量与仿真领域,赛灵思解决方案始终为实现下一代测试测量平台提供强大的I/O性能和灵活应变能力、信号处理带宽和部分重配置功能。另一方面,借助赛灵思 FPGA ,仿真与原型设计可快速、准确地实现 SoC 系统建模和验证并加速软件和固件的开发。

    时间:2020-06-23 关键词: Xilinx FPGA 芯片 赛灵思 新基建

  • 224核+36TB内存+3D NAND闪存盘+FPGA=?

    224核+36TB内存+3D NAND闪存盘+FPGA=?

    2020年6月19日,英特尔公司在“‘芯’存高远,智者更强”的英特尔®数据创新峰会暨新品发布会上,围绕最新推出的第三代至强可扩展处理平台和人工智能(AI)应用,推出了包括全新处理器、内存、存储、FPGA的解决方案,21ic中国电子网记者应邀参加本次发布会。 01 第三代英特尔至强可扩展处理器 首先介绍英特尔全新的第三代英特尔®至强®可扩展处理器,新产品的代号为“Cooper Lake”,仍然采用的是14nm的工艺制造,最高28核心、56线程,这意味着用于8路服务器将支持多达224个处理器内核、448线程。而第三代产品线,在今年下半年将有基于10nm Ice Lake的单路、双路市场产品推出,补充构成完整的第三代家族。 图1:第三代至强可扩展处理器 提到英特尔,个人用户首先想到的是“酷睿”(Core)或“奔腾”(Pentium),而作为经常与服务器和工作站打交道的电子工程师,则首先会想到“至强”(Xeon)或“傲腾”(Optane)。 正如字面意思,至强处理器的侧重点便是数据处理和稳定性,在很久以前至强处理器细分为E3、E5、E7几个系列,名称刚好对应了i3、i5、i7。但与酷睿不同的是,至强并不集成核心显卡,另外照顾到全天候运行的大型服务器,普遍来说主频和超频性能会低于酷睿系列,只搭载一个睿频加速功能,追求极致的稳定性。 而在2017年,英特尔推出了全新的产品线英特尔至强可扩展处理器,命名上也采用了更加符合主流、直观易懂的“铜牌”、“银牌”、“金牌”、“铂金”的分级。 至强处理器到底强在哪?多核心、多线程,支持多路CPU,支持更大内存和内存带宽,支持更高缓存,更丰富的指令集,更稳定出色的性能。 英特尔表示,第三代产品与5年前的平台相比拥有1.9倍的平均性能提升与1.98倍的数据库性能提升。 图2:第三代英特尔可扩展处理器详解 需要注意的是,本次推出的第三代至强可扩展处理器不单纯的是频率、核心数、内存支持的硬参数提升,新产品的核心关键点是首批内置bfloat16的主流服务器CPU,还支持最新一代的英特尔®傲腾™持久内存200系列(在第二节将深入讲解),部分型号还支持英特尔Speed Select技术优化处理资源、提高工作负载和性能利用率。而第三代至强主要面向的主要是四路和八路系统。 图3:第三代至强处理器的主要突破 所谓bfloat16即是英特尔®深度学习加速(英特尔®DL Boost)功能当前主打的指令集技术,简单来说,bfloat16这项技术可以通过一半的比特数对软件做出很小的修改,便可达到与32位浮点数(FP32)同等水平的模型精度。 图4:第三代至强处理器内置bfloat16 据英特尔公司数据中心事业部副总裁、英特尔至强处理器和存储事业部总经理Lisa Spelman介绍,bfloat16这项功能主要面向人工智能(AI)应用训练和推理性能加速,搭载4颗第三代至强铂金8380H处理器的英特尔参考平台下,ResNet-50图像分类训练吞吐量性能提升达1.93倍,BERT Squad推理吞吐量性能提升高达1.9倍。 图5:Lisa Spelman对bfloat16的性能讲解 从型号方面来讲,Cooper Lake第三代至强可扩展处理器拥有11种不同的型号,分为至强铂金8300、至强金牌6300、至强5300三个子系列,均以H和HL编号结尾,区别在于HL支持单路最多4.5 TB内存,H支持1.12 TB内存。 图6:第三代至强可扩展处理器具体型号参数 从型号上来看,参数最为强大的至强铂金8380HL拥有28核心56线程,高速缓存达38.5MB,最高睿频频率4.3GHz,支持四路到八路扩展。而其他型号方面,则根据需求不同,拥有不同截然不同的参数选择,主要针对AI训练、内存密集型应用、虚拟机三种不同应用场景平衡成本。 02 第二代傲腾持久内存 上文也提及第三代至强可扩展处理器的一大亮点就是支持傲腾持久内存200系列,是傲腾持久内存的第二代产品,单条最大容量为512GB,热设计功耗可达12-15瓦。英特尔表示,在傲腾持久内存200系列与上一代持久内存相比,内存带宽平均增幅25%,在运行要求严苛的工作负载时带宽增加多达39%。 图7:英特尔傲腾持久内存200系列模组 傲腾200系列单条容量上拥有128GB、256GB、512GB三种选择,热设计功耗分别为15W、18W、18W,最高温度84℃,而在外部也拥有散热外壳。 图8:英特尔傲腾200系列单条参数 傲腾系列为何被称之为持久内存?这主要是从特性方面所讲的,众所周知存储器分为易失存储器(DRAM为主)和非易失存储器(NAND为主),而傲腾则属于介于DRAM和NAND之间的PMem(Persistent memory),断电也不会丢失数据。不过,傲腾系列并非要取代DRAM和NAND,而是与之共存,填补二者之间在容量和性能的空档。 图9:傲腾技术与DRAM和NAND共存 因此,需要注意的是,傲腾200系列能够与传统DDR 4 DIMM共存,共有1.5 TB的DRAM并排占用相同的主板插槽,而第三代至强处理器平台支持每个通道一个IntelOptanePMem 200系列模块,而这一模块则是单个插槽可支持6条傲腾200内存,即每个插槽提供3TB的PMem。 DRAM与6条傲腾200内存,相当于每个插槽(路)提供4.5 TB的总存储容量!而每路4.5TB,八路系统就是36 TB的内存! 图10:英特尔傲腾持久内存200系列详解 Lisa Spelman表示,自去年2019年4月傲腾持久内存问世以来,目前已收货超过270份订单,200多家世界500强企业已采用这项技术,从POC到销售转换率超过85%。软银、SK Telecom、西门子均从傲腾技术中获益,国内企业则主要包括金山云、快手、平安云、中通快递等。 03 先进的TLC 3D NAND固态盘 除了PMem内存以外,英特尔还推出了一款基于最先进的96层TLC 3D NAND介质的固态盘(SSD),采用Intel PCle Gen4控制器,具有增强的管理功能和可扩展性,可为AI和大数据分析负载实现性能与容量的更优平衡。 英特尔表示,与上一代NVme NAND相比,在PCle-3的表现上拥有高达33%的性能提升以及40%的延迟降低。 图11:采用TLC 3D NAND介质的优势 从参数来看,这些SSD具有U.2 15mm的尺寸,D7-P5500提供1.92 TB、3.84 TB、7.68 TB三种选择,而D7-5600则拥有1.6 TB、3.2 TB、6.4 TB三种选择。 图12:两个系列SSD产品的具体参数 从功能方面来看,两个系列SSD产品内置TCG Opal 2.0和AES-XTS 256 bit加密,拥有增强的SMART监控功能,可使用Telemetry 2.0访问各种存储数据,拥有优化的TRIM架构作为后台运行而不会干扰工作负载,具有内置的自检Power-Loss imminent(PLI)功能从而防止在低电量或故障情况下丢失数据。 04 与众不同的英特尔Stratix® 10 NX FPGA 不难看出,上文所发布的新产品都是专门为人工智能(AI)而生的,针对AI英特尔也即将发布新品Stratix 10 NX FPGA。 Stratix® 10 FPGA家族的这款新产品也是第一款专为AI优化的FPGA。Stratix 10 NX FPGA核心芯片采用14nm工艺,与标准的Stratix 10 FPGA DSP模块相比拥有高达15倍的INT8吞吐量,可实现高带宽、低延迟的AI加速。 图13:Stratix 10 NX产品 Stratix® 10 NX FPGA为何能在AI上性能如此暴增?关键点有三: 其一,内置的AI张量块是针对AI算法进行调整的。模块包含AI应用程序中通常使用的密集的较低精度乘法器,而在架构上则针对广泛AI计算的通用矩阵-矩阵或矢量-矩阵乘法进行了调整,从而高效支持大小矩阵。 另外,AI张量块乘法器具有INT8和INT4的基本精度,通过共享指数支持硬件支持FP16和FP12数字格式。所有加法或累加都可以使用INT32或IEEE754单精度浮点(FP32)精度执行,并且多个AI张量块可以级联在一起以支持更大的矩阵。 图14:AI张量块高层示意图 其二,使用了EMIB堆叠了HBM2和高带宽DRAM。集成的内存堆栈允许将大型的持久AI模型存储在芯片上,从而通过较大内存带宽降低延迟,帮助解决大型模型中的内存受限性能挑战。 图15:Stratix 10 NX FPGA使用EMIB技术 其三,拥有高达57.8G PAM4收发器,并才用了硬知识产权(IP)。提供了多节点的AI推理解决方案所需的可扩展性和灵活性,从而减少或消除在多节点设计中的带宽连接这一限制因素。 05 新产品成效明显 随着第三代至强可扩展处理器平台及相关产品的发布,国内厂商也在跟进之中。 会上,腾讯云副总裁刘颖表示,从1998年腾讯成立之初就已携手英特尔持续在数据中心的基础设施建设领域进行了技术合作。 他表示,随着第三代至强的发布,也将推出一系列的全新云产品。基于第三代英特尔至强可扩展处理器,腾讯星星海实验室自研了首款四路服务器。这个服务器采用了腾讯全新定制的英特尔高密CPU,整机密度较上一代提升了116%。 基于新的英特尔处理器,腾讯云推出的云开发Serverless服务启动时间不超过100毫秒,处于行业领先。 这款四路服务器通过差异化的散热器方案,使CPU单点的散热能力提升22%,大幅降低了CPU温度;风扇节能达30%。同时,继续使用英特尔RAS技术,使得设备宕机率下降高达50%,大幅提升了系统稳定性。 无独有偶,金山云CDN及视频云产品中心总经理宗劼表示,金山云也与英特尔持续在优化AI处理效果,在使用英特尔各种技术后,整体媒体处理效应上提升130%。 “在边缘服务器上,金山云与英特尔紧密合作,通过使用最新的SSD技术,利用 SSD+MemCache+AIO的第三代DMA技术,使得整个边缘的处理能力提升400%。同时在网络传输上面,通过与英特尔的合作,使得PAAS的边缘处理效能提升了超过200%。” 国电南瑞集团子矜技术团队首席架构师徐戟表示,传统的运维自动化系统只是针对一些单一指标进行计算,这种CPU的消耗量是很小的。但如果每个模型都需计算,就是大量的计算资源。如果数据中心当中有几十万台设备,这样的计算量是相当大的,所以要通过分布式的方法进行计算。在此方面,正在与英特尔的联合团队进行健康模型进行深度分析和优化。通过目前的效果来看,取得了不错的效果,对预测的准确性和时长都有了很大的提高。 06 为何都是AI相关产品 英特尔缘何在本次发布会上一口气发布如此多AI相关产品?英特尔公司市场营销集团副总裁兼中国区总经理王锐告诉记者,这是因为英特尔目前是一家以数据为驱动力的厂商,而智能技术的洞察则围绕在终端客户的需求上,具体体现在三点: 1、现在是行业转折性技术的历史交汇,推动智能进入新的发展拐点。AI让网络和边缘更智能,5G和边缘让AI无处不在,AI和5G让边缘解锁新机遇。AI、5G、智能边缘的三方汇合,创造了智能技术飞速更新迭代的需求和条件。 2、当前正在爆发的云经济,以后会成为常态,这也会促进整个产业乃至社会加速向智能化转型。 3、更值得期待的是,AI、5G、智能边缘的组合加上云经济的催化会为新业务的增长带来巨大发展机遇。 王锐认为,推动智能变革需要重点解决三大挑战: 1、传统基础设施已经不能满足智能化的新需求,很多企业需要从云到端实现基础设施的升级。 2、应用场景多元复杂,要推动智能规模化应用,就需要根据需求制定不同的解决方案。 3、生态还处于发展早期,只有生态高度协作才能带来产业效益的最大化。 众所周知,英特尔是一家产品覆盖CPU、FPGA、ASIC、封装、存储、软件等方面的IDM厂商,拥有着构建全面产品的领导力。因此基于趋势和挑战,英特尔推出了一套的解决方案。 图16:英特尔公司市场营销集团副总裁兼中国区总经理 王锐 英特尔公司市场营销集团副总裁 兼中国区行业解决方案部总经理梁雅莉表示,英特尔的价值包含在客户的解决方案之中。作为一家技术产品提供商,英特尔一直在不断推出新的产品和技术,来积极配合客户的数字化需求。 她表示,“在中国,发展产业生态最重要的一点,是要真正扎根于本土的市场特点和用户需求。中国是英特尔全球最大的单一区域市场,在互联网的“上半场”、也就是消费者互联网的发展历程中,中国已经成为全球的领先者。现在随着“新基建”的推进、5G的大发展,中国必定会成为互联网“下半场”的领跑者,这是一个产业互联网狂飙突进的阶段。产业市场的需求会比消费者市场更多样、更复杂,从而也有更多的技术方案提供商,分布在大大小小的各个行业。英特尔未来的成功,离不开与众多的老朋友新伙伴在产业互联网的新时代深化合作。” 图17:英特尔公司市场营销集团副总裁 兼中国区行业解决方案部总经理梁雅莉 在发布会的最后,王瑞表示,英特尔的2030年战略及目标建立在持续履行企业社会责任的承诺上,并诚邀大家通过科技赋能,集体行动创造一个负责任的、包容的和可持续的未来。

    时间:2020-06-22 关键词: FPGA 技术专访 傲腾 至强

  • 浅谈单片机、ARM、FPGA和嵌入式系统的特点和区别

    浅谈单片机、ARM、FPGA和嵌入式系统的特点和区别

    单片机,FPGA,嵌入式系统,ARM各有不同,我们首先来看看单片机,FPGA,嵌入式系统,ARM他们各自的特点。 单片机的特点: (1)受集成度限制,片内存储器容量较小,一般内ROM:8KB以下; (2)内RAM:256KB以内。 (3)可靠性高 (4)易扩展 (5)控制功能强 (6)易于开发 ARM的特点: (1) 自带廉价的程序存储器(FLASH)和非易失的数据存储器(EEPROM)。这些存储器可多次电擦写,使程序开发实验更加方便,工作更可靠。 (2) 高速度,低功耗。在和M51单片机外接相同晶振条件下,AVR单片机的工作速度是M51单片机的30-40倍;并且增加了休眠功能及CMOS技术,使其功耗远低于M51单片机。 (3) 工业级产品。具有大电流输出可直接驱动SSR和继电器,有看门狗定时器,防止程序走飞,从而提高了产品的抗干扰能力。 (4) 超功能精简指令,具有32个通用工作寄存器,相当于M51单片机中32个累加器!从而克服了单一累加器工作的瓶颈效应。 (5) 程序下载方便。AVR单片机即可并行下载也可串行下载,无需昂贵的编程器。此外,还可以在线下载!也就是说可以直接在电路板上进行程序修改和烧录。 (6) 具有模拟比较器、脉宽调制器、模数转换功能。使得工业控制中的模拟信号处理更为简单方便。 (7) 并行口、定时计数器、中断系统等单片机内部重要资源的功能进行了大幅度提升,使之更适合工业生产过程的实时控制。 (8) 其时钟频率既可外接也可使用单片机内部自带的振荡器,其频率可在1MHz-8MHz内设置,使得硬件开发制作更为简洁。 (9) 强大的通讯功能,内置了同步串行接口SPI、通用串行接口UAST、两线串行总线接口TWI(I2C ),使网络控制、数据传送更为方便。 (10)超级保密功能,应用程序可采用多重保护锁功能。可低价快速完成厂家产品商品化等等。除上述特点外“零外设”也是AVR嵌入式单片机的重要特征。由于该芯片已内置了程序存储器、晶振并增加了在线汇编功能。所以AVR单片机芯片接上直流电源,下载个程序就可以独立工作。无需附加外部设备,无需使用昂贵的编程器和仿真装置。这给我们学习和开发带来了便利条件。 FPGA的特点: (1)采用FPGA设计ASIC电路(专用集成电路),用户不需要投片生产,就能得到合用的芯片。 (2)FPGA可做其它全定制或半定制ASIC电路的中试样片。 (3)FPGA内部有丰富的触发器和I/O引脚。 (4)FPGA是ASIC电路中设计周期最短、开发费用最低、风险最小的器件之一。 (5) FPGA采用高速CMOS工艺,功耗低,可以与CMOS、TTL电平兼容。 可以说,FPGA芯片是小批量系统提高系统集成度、可靠性的最佳选择之一。 FPGA是由存放在片内RAM中的程序来设置其工作状态的,因此,工作时需要对片内的RAM进行编程。用户可以根据不同的配置模式,采用不同的编程方式。 加电时,FPGA芯片将EPROM中数据读入片内编程RAM中,配置完成后,FPGA进入工作状态。掉电后,FPGA恢复成白片,内部逻辑关系消失,因此,FPGA能够反复使用。FPGA的编程无须专用的FPGA编程器,只须用通用的EPROM、PROM编程器即可。当需要修改FPGA功能时,只需换一片EPROM即可。这样,同一片FPGA,不同的编程数据,可以产生不同的电路功能。因此,FPGA的使用非常灵活。 嵌入式系统的特点: 1.系统内核小。由于嵌入式系统一般是应用于小型电子装置的,系统资源相对有限,所以内核较之传统的操作系统要小得多。比如Enea公司的OSE分布式系统,内核只有5K,而Windows的内核?简直没有可比性。 2.专用性强。嵌入式系统的个性化很强,其中的软件系统和硬件的结合非常紧密,一般要针对硬件进行系统的移植,即使在同一品牌、同一系列的产品中也需要根据系统硬件的变化和增减不断进行修改。同时针对不同的任务,往往需要对系统进行较大更改,程序的编译下载要和系统相结合,这种修改和通用软件的 “升级”是完全两个概念。 3.系统精简。嵌入式系统一般没有系统软件和应用软件的明显区分,不要求其功能设计及实现上过于复杂,这样一方面利于控制系统成本,同时也利于实现系统安全。 4.高实时性的系统软件(OS)是嵌入式软件的基本要求。而且软件要求固态存储,以提高速度;软件代码要求高质量和高可靠性。 5.嵌入式软件开发要想走向标准化,就必须使用多任务的操作系统。嵌入式系统的应用程序可以没有操作系统直接在芯片上运行;但是为了合理地调度多任务、利用系统资源、系统函数以及和专家库函数接口,用户必须自行选配RTOS (Real-Time Operating System)开发平台,这样才能保证程序执行的实时性、 可靠性,并减少开发时间,保障软件质量。 6.嵌入式系统开发需要开发工具和环境。由于其本身不具备自举开发能力,即使设计完成以后用户通常也是不能对其中的程序功能进行修改的,必须有一套开发工具和环境才能进行开发,这些工具和环境一般是基于通用计算机上的软硬件设备以及各种逻辑分析仪、混合信号示波器等。开发时往往有主机和目标机的概念,主机用于程序的开发,目标机作为最后的执行机,开发时需要交替结合进行。 以上就是嵌入式系统,FPGA,ARM,单片机的特点了。

    时间:2020-06-21 关键词: FPGA ARM 嵌入式系统

  • 赛灵思FPGA的创新赋能:全球首个无人机5G基站

    赛灵思FPGA的创新赋能:全球首个无人机5G基站

    在日前上海举行的首届中国国际进口博览会(进博会)上,电子发烧友在赛灵思展台上看到了全球首款无人机5G通信基站,这款创新产品采用了赛灵思的FPGA芯片。 无人机高空基站为全球首款基于5G基站的系留式无人机基站。赛灵思数据中心业务拓展总监朱勇在展会向电子发烧友记者介绍,这款无人机5G基站,采用了赛灵思16纳米的SoC,支持灵活的拆分方式,可以实现100M信号带宽。 与传统的四轴翼无人机不同,这是一款系留式无人机,由地面接线对无人机提供电源,所以理论上可以支持无限长的悬停时间。它可以满足在野外突发灾害时的紧急救援、突发事件的紧急处理、超大型赛事活动、无通信信号的野外考察考古直播活动等场景的通信需求。 朱总介绍,这款无人机基站可以在15分钟之内飞行到200米的高空,采用了大功率的5GRRU,峰值速率可达1Gb/s以上,覆盖半公共超过5公里。有效解决应急通信中的大数据传输问题。 电子发烧友记者看到,这款无人机5G基站是由佰才邦(Baicells)公司提供,为了适应无人机环境的应用,整个5GRRU采用了减重方案设计,在2x20W最大发射功率的情况下,整机重量不超过10kg,有效的减少了该系留式无人机高空基站的整机重量和功耗,降低系统运营成本的同时也提升了系统的环境适应能力。 赛灵思在本次进博会上还展示了其他创新的产品,例如基于PYNQ的教育市场的机械臂。 由汕头超声全数字彩色多普勒超声诊断仪Apogee1000,是一款融合云技术的便携彩超,采用了赛灵思28纳米的FPGA。 六轴工业机械臂 插上了ALVEO加速卡的数据中心 赛灵思教育与学术合作总监陆佳华也在进博会上接受电子发烧友记者的采访时也表示,在赛灵思完成收购深鉴科技之后,赛灵思今后还会继续关注与支持创新,例如会推出更多的基于ZYNQ开发板,来支持开发者。(电子发烧友与赛灵思的开发板试用合作即将上线,欢迎开发者们关注试用官网(http://bbs.elecfans.com/try.html),免费申请赛灵思开发板

    时间:2020-06-21 关键词: FPGA 赛灵思 5g基站

  • 站在FPGA的肩膀上 AI可重构芯片诞生

    站在FPGA的肩膀上 AI可重构芯片诞生

    在芯片架构设计领域中,可重构计算技术并非一项新的存在。20世纪60年代末,加利福尼亚大学的Geraid Estrin首次提出重构计算,后过去二十余年,Xilinx才基于这一原型系统推出该技术的重要分支——FPGA架构,正式开启现代重构计算技术。 即便如此,由于此前芯片发展一直走在摩尔定律预设的方向上,FPGA始终无法进入公众的视野中,而在学术研究领域,它也一直只是芯片技术研究中少有人关注的冷门项目。不曾想,在这一波AI浪潮的推动下,可重构计算技术迅速从学术边缘走向了主流。 AI浪潮与芯片架构创新 任何技术的兴起都是市场需求、技术迭代与产业发展合力推动的结果,AI不例外,芯片的变革更是如此。 在算力需求持续增长的背景下,AI算法对芯片运算能力的要求上升到传统芯片的百倍以上,想像一下,采用了人工智能算法的AlphaGo需要用到上千块传统处理器(CPU)和上百块图形处理器(GPU)。类似,传统处理器根本无力支持智能家居、自动驾驶和智能终端等应用场景的巨大算力需求,因此基于传统CPU搭建出新的架构就显得迫在眉睫,AI芯片也就此诞生。 对于这一新兴的芯片市场,摩根大通的分析师Harlan Sur曾公开表示,到2022年为止,AI芯片市场将以每年59%的成长速度增长,届时市场规模有望达到330亿美元。 用迅猛之势来形容AI芯片产业的发展毫不为过,这一新兴事物也打破了整个市场既有的产业形态。在新兴芯片市场占据龙头地位的英伟达,其CEO黄仁勋就多次在公开场合中表示:“摩尔定律时代已经终结。”这也并非一家之言,作为摩尔定律的提出者,Intel也多次公开承认这一点。 没有摩尔定律的约束,在接下来很长一段时间内,芯片产业势必将进入自由生长状态,AI芯片产业呈现了前所未有的百花齐放。但其实深入去看,它却也被有章法的推进着。事实上,最为明显的就是,伴随着整个市场对功能的需求变化和终端的发展,GPU、ASIC等主流芯片架构技术正逐步有序得的迭代和扩大自己的市场占比。 目前,因市场对智能的实现尚处于初期,AI中关键的应用需求更偏向于训练端,因而,在训练市场中独大的GPU成为芯片市场的主流架构也就毫不奇怪。但真正的智能一定离不开逻辑推理部分。自然,作为这一功能实现的主力军,ASIC和FPGA备受业内关注,其中,热度蹭蹭上涨的FPGA可以说是格外引入注目。 FPGA热潮启示录 在AI并不火热的时间段,FPGA常年来被用作专用芯片(ASIC)的小批量替代品。因传统计算机冯·诺依曼结构的约束,比CPU甚至GPU能效更高的FPGA一直未有用武之地,直到神经网络算法的出现。 不得不说,从初入商用市场到独立成产品,FPGA架构技术似乎从未和AI算法分离开过,硬件上的节点与算法的神经元结构形成天然的呼应,颇有天造地设的意味。 如所料,FPGA最早一出现就伴随着神经网络算法研究,2011年,Altera推出OpenCL,其中的CNN算法研究就是基于FPGA的,这让FPGA重回了人们的视野中;后时隔三年,微软推出Catapult项目,开发了高吞吐CNN FPGA加速器,将这种架构更紧密的与神经网络算法实现绑在了一起;2015年,陷入转型焦虑的Intel直接选择收购Altera,这一举动后来甚至带起了一波CPU+FPGA热,但这一刻FPGA的魅力还没有真正被展现出来。直到一年后,Intel终利用BP算法在FPGA上实现了5GOPS处理能力,这一架构的优势终锋芒初现。 一步一步,伴随着深度学习的应用和渗透,FPGA架构技术也越来越受各芯片厂商关注,在多次大会的行业交流中,多位芯片研发人员都指出:综合考虑成本、可行性等因素,在可见的未来里,架构创新是唯一算力提升解决方案。而FPGA无疑为整个行业带来架构设计上的新思路。 第一次,FPGA被用于产品端是在iPhone 7上,苹果集成了Lattice iCE40 FPGA,将其作为超低功耗的逻辑处理兼传感器部件。从技术到产品端,这一技术架构只用了短短七年,而苹果的成功尝试也为这一技术架构加分不少。现在,业内人士也普遍将它列为旧有半导体甚至终端架构的关键颠覆者,也因此,FPGA这七年的持续热度给出了整个行业的风向标:半导体架构进入了新的征程,尤其为AI芯片的设计提供了关键思路。 站在FPGA的肩膀上,可重构芯片诞生 对于AI芯片的优势,寒武纪陈天石曾这样形象的描述道:“如果把深度学习看作切肉,传统的处理器就是瑞士军刀,我们的专用神经网络处理器则相当于菜刀。瑞士军刀通用性很好,什么都可以干,但干得不快,菜刀是专门用来做饭的,在切肉这件事情上,效率当然更高。” 按理,效率越高,算力越高,芯片产业发展应当重回到此前活跃增长的阶段,但在近两年整个产业却出现了一种怪象:芯片产业进入了一种低效的繁荣状态,现有的AI产品的数量只有两位数,而单价几乎不变,尤其是AI终端产品,产业利润几乎在个位数。在产业链端,产品开发费用、产品难度都在持续上升,在市场空间有限的条件下,产品的盈利空间直线下降。 事实上,仅仅融合FPGA架构设计的高效对整个产业的发展来说是依然不够的,菜刀终究还是菜刀,AI芯片的应用场景和变现能力实在十分有限。对此,清华大学微电子所所长魏少军就直接点出:“要想让AI芯片能够在使用中变得更‘聪明’,架构创新就是它不可回避的课题。” 产业端,为了打破这一现状,地平线、寒武纪、Arm等众多新老玩家纷纷给出了各自的平台性商用解决方案,但终不是长久之计。对此,业内的共同认知是:若想釜底抽薪,设计出一款动态可重构的并行计算芯片,以实现一块芯片可以跑多种算法,节省资源,大大提高通用性,极大程度上促进整个产业的发展。 所幸,在国内,目前尚有两款芯片代表:一款是清华大学的Thinker可重构AI芯片,它获得了2017年国际低功耗电子与设计会议设计竞赛奖,这是一款由65nm工艺制成的芯片,不过其峰值性能能够达到410GOPS,能效达5TOPS/W。第二款是南京大学RAPS可重构芯片,它由40nm工艺制成,可以实现25种与信号处理有关的算法,峰值性能69GFLOPS,能效达到32GFOPS/W。与TMS320C6672多核DSP比较,性能能够提高一个数量级。 值得一提的是,两款芯片制程一般,工艺泛泛,却收获如此高效的性能,架构创新的四两拨千斤功效可见一斑。 最后 纵观第三波AI浪潮下的半导体产业,有两个现象级事件奠定了当下芯片产业的基调:曾经逃离半导体行业的风投又纷纷重新回到了半导体行业;历来观潮的中国,现在成了弄潮儿。 不言而喻,这两大趋势撞在一起发生的化学效应率先打破了整个半导体行业既有的产业形态。但不可忽视的是,作为工业的粮食,芯片架构创新带动的产业活力才将成为推动第三波AI浪潮持久发展的动力。 如许衍居院士所言:未来10年,整个半导体产业将会从cSoC时代走向rSoC时代。但是可重构芯片发展还需要突破众多难关,如基于可重构计算搭建的硬件平台是需要搭建一个统一的标准平台还是仅仅只开发一个通用的编程模型?采用双编程如何划分软硬件任务并处理好之间的通信问题?这些问题依旧是缠绕在可重构芯片发展之路上的藤蔓,披荆斩棘,路且漫长。

    时间:2020-06-19 关键词: FPGA AI

  • 新基建,“芯”FPGA

    新基建,“芯”FPGA

    新基建将为FPGA带来哪些市场增量?又将提出怎样的技术挑战?我国FPGA企业该如何抓住新基建带来的发展机遇? 新基建是数字技术的基础设施,具有发展速度快、技术含量高等特点,随着新技术新应用层出不穷,其对计算、架构、协议、接口的动态更新提出了新的需求,因而对基础芯片更是新的考验。FPGA具有软硬件可编程、接口灵活、高性能等优势,能够满足高新技术对于计算和连接的需求。 一、新基建将大幅拉动FPGA新需求 新基建是以技术创新和信息网络为基础,来推动基础设施体系的数字转型、智能升级以及融合创新等。在原型设计、协议升级、数据处理、降低功耗等方面,FPGA都将发挥不可替代的优势。 “在新基建巨大的投资拉动效应下,FPGA用量势必会迎来大幅度提升。在技术创新方面,灵活可编程的FPGA被公认为原型设计和新产品开发的关键器件,非常契合5G、人工智能、数据中心、工业互联网等新兴应用场景。而特高压、城际高速铁路和城市轨道交通、新能源汽车等场景,普遍面临着连接和数字化转型挑战,对于运算效率、数据安全性、时延等性能要求更高。FPGA凭借强大的并行计算能力,能够满足多样化及边缘化数据处理的需求。”紫光同创市场总监吕喆向《中国电子报》记者指出。 工信部最新统计显示,我国5G基站以每周新增1万多个的速度在增长,预计今年年底,我国5G基站的建设将超过60万个。而通信行业正是国产FPGA最主要的应用场景,占比高达35%。5G基站的激增,将带动FPGA用量的快速提升。 吕喆表示,5G基站主要从三个方面为FPGA带来市场增量。一是5G商用初期,各设备厂家为了抢占产品和技术的制高点,在标准还未冻结之前就推出原型样机或小批量生产,这只有通过可灵活编程的FPGA才能实现。二是在5G网络的很多应用场景中,FPGA是不可替代的。比如,5G通信的MIMO天线阵列和波束成形技术的出现,需要大量信号并行处理,FPGA是解决这类需求的最理想的解决方案。三是5G时代在宏基站的基础上,也可能会出现更多形态的微基站,推动形成了FPGA的增量市场。 工业互联网相关场景对FPGA的需求也在日益提升。据赛迪顾问预测,2022年我国工业互联网市场规模将达到9146.5亿美元。FPGA的高吞吐和灵活性,将在工业通信协议、传感器融合、工业云计算加速等领域发挥作用。 “未来的工业互联网将把当前工业网络中存在的数百种不同协议统一起来,实现互联互通,在工业互联网的灵活性和硬实时性要求的逐渐演进过程中,非常适合用FPGA来做核心控制器件,以实现控制通信协议转换、接口控制、传感器数据融合。”安路科技副总裁陈利光向《中国电子报》表示。 数据中心、人工智能等高性能计算领域,也是FPGA的重要市场。目前,全球数据中心对加速器的市场需求超过百亿美元。市场调研公司Semico Research预测,人工智能应用中FPGA的市场规模将在2019—2023年增长3倍,达到52亿美元。 “人工智能、云计算、区块链、数据中心、智能计算中心等主要解决的是计算问题,FPGA在数据中心加速、人工智能加速、区块链处理等领域应用越来越多,FPGA集成多核处理器、AI计算单元、NOC(片上网络)等计算加速部件,未来会形成非常有竞争力的异构计算平台,成为通用计算领域的重要组成。”陈利光说。 在新能源汽车、自动驾驶等车用领域,采用FPGA的异构计算平台将提升自动驾驶平台的灵活性和扩展性,实现从边缘传感器到域控制器的可扩展性,并提供动态重编程能力,降低系统成本与损耗。目前FPGA龙头赛灵思大约有7000万颗汽车芯片用于ADAS中。 “汽车行业正在面临着一些革命性的演进,最受关注的演进就是智能驾驶从ADAS在逐渐向全面自动驾驶持续演进。传感器数量的增多势必会带来爆炸式的数据增长,这就需要汽车具备强大的异构计算平台,能够处理不同来源的数据,将多传感器同步和融合所带来的系统整体响应时间大大缩短。” 赛灵思大中华区核心市场业务发展总监酆毅向《中国电子报》记者指出。 二、新基建对FPGA性能提出新挑战 在新基建的背景下,信息化升级将会催生越来越多的应用场景,这对于FPGA的性能指标和架构创新都提出了挑战。对更大规模、更高性能纯FPGA以及多核异构智能化平台提出要求。 “5G通信和数据中心加速等应用,对高端FPGA的性能指标提出了更高的要求,而人工智能、工业互联网等应用,则为多核异构FPGA系统在边缘计算场景下提供了大量的应用机会。”吕喆说。 陈利光表示,当前FPGA技术主要向7nm以下最先进工艺、更大的处理能力、更高的接口带宽方向发展。面向新基建连接方面的需求,针对工业互联网的SoC FPGA,以及协同逻辑阵列、处理器、DSP、专用加速器等多种计算资源的异构计算软件编译平台,是未来的发展方向。 京微齐力创始人兼CEO王海力向《中国电子报》记者表示,要快速满足新应用环境下提出的各类需求,FPGA需要采用异构架构,同时兼顾到能耗、性能和成本的要求。 “FPGA已经由单一可编程芯片技术方案向多核异构处理平台型技术方案过渡,实现‘软件定义硬件,硬件适配生态’的新局面。”王海力说。 目前FPGA两大龙头企业赛灵思和英特尔都推出了基于FPGA的多核异构智能产品。赛灵思推出的ACAP, 在传统FPGA片上互联技术的基础上,采用了NoC实现CPU、FPGA和AI引擎之间的互联,速度较传统FPGA有着20倍的提升。英特尔的Agilex SoC FPGA,基于10nm工艺,集成了四核Arm Cortex-A53处理器,可将数据中心、网络和边缘计算应用的功耗降低40%。 酆毅表示,单独的计算体系结构,无法满足越来越多样的开发需求,伴随工艺的进步,FPGA也打破了传统的应用边界,除以往的航天、通信、消费电子、工控等应用领域,还进入到AI、数据中心、视频处理、自动驾驶、5G等新兴领域,而FPGA也通过集成标量处理引擎、自适应硬件引擎和智能引擎,从器件向异构平台转变。 “FPGA相关企业的研发方向需要向异构计算转型。在人才储备中,FPGA企业将吸收来自AI、自动驾驶、智慧城市等来自新基建行业的人才。产品策略方面,企业应该更偏向于应用层面的开发,更贴近客户需求,更多采用行业通用的开发模式,通过更友好的开发环境,满足更多的产品开发需求。” 酆毅说。 三、我国FPGA产业进入快速发展通道 目前,我国FPGA产业链在设计、制造、封测环节均有所布局,在中低端市场形成了一定的生产和供应能力。但是,我国FPGA产品主要集中在中小规模器件,在“新基建”多个领域所需的高端产品供应方面,仍与国际龙头存在差距,需要在性能指标和量产能力上取得进一步的突破。 王海力向《中国电子报》记者表示,我国FPGA产业基础相对薄弱,特别在高端FPGA核心架构层面,芯片设计与量产能力、软件EDA工具、应用开发等,与国外厂商有较大的差距。但从近几年产业发展的态势来看,我国FPGA已经进入到一个快速发展的轨道。即使在同规格的FPGA产品指标对比上,国内FPGA公司的一些产品还做到了领先。 “我国FPGA在工业互联网、物联网等领域的研发、生产与供应有一定的基础和保障,其产品也比较容易进行适配。但是5G、人工智能、数据中心及汽车电子对FPGA的技术要求更为高端严苛,国产FPGA在供应能力上仍有差距。随着国内FPGA厂商近几年对中高端FPGA产品的持续研发,这种局面在未来两三年会得到一定改善。应该利用好新基建给不同应用领域带来的发展契机,以及在技术上提出的新需求,夯实FPGA在新基建不同行业的植入基础。”王海力说。 面对新基建的市场增量和技术要求,我国企业该如何抓住机遇,实现能力提升与市场拓展? 吕喆表示,对于国内FPGA产业链而言,首要的问题仍是高端器件的突破,以此为基础才能进一步拓展应用领域,服务于新基建带来的数字化、智能化升级。要进一步提升国内FPGA产业链水平,一方面要推动产业链上下游更紧密的合作,加强上游供应链中流片厂、测试和封装企业对FPGA设计公司的重点支持,与FPGA企业共同完成系统验证、量产催熟和产品方案迭代,实现产业化;另一方面,要打通和搭建学术界和产业界的交流通道和平台,建立创新中心,加速产学研良性循环,为FPGA未来技术体系创新提供理论和学术支撑;同时,要出台相应政策吸引并留住高层次FPGA人才,建立产业联盟,营造和培养FPGA的硬件、软件和IP生态。 赛迪顾问高级分析师李秧向记者指出,FPGA技术门槛很高,国内FPGA厂商要加大研发、人才投入,完善产品线,满足中低端 FPGA的市场需要,又要致力于高性能、高品质的FPGA的研发,补齐从EDA到高端制造、高端封测的产业链条,形成品牌效应及稳定的客户关系,真正提升品牌竞争力。国内 FPGA厂商要形成产业集聚和产业生态,从而降低成本,为下游客户提供更好的产品服务。 国内FPGA企业应该继续脚踏实地做好基础研发,包括核心架构设计、EDA软件工具的开发,完善面向应用实现的知识产权库IP,逐步从低端FPGA产品向高端FPGA产品过渡。

    时间:2020-06-16 关键词: FPGA 新基建

  • 英特尔全球最大的FPGA创新中心落户重庆,除了AI还要加速哪些应用落地?

    英特尔全球最大的FPGA创新中心落户重庆,除了AI还要加速哪些应用落地?

    人工智能对算力的需求吸引了众多公司研发AI芯片,但仅靠一种芯片难以满足AI需求,因此,无论是传统架构的芯片还是类脑芯片都在抢占市场。作为CPU的霸主,英特尔不仅没有缺席AI的竞争,还通过创新和并购不断增强自己的实力。在2015年以167亿美元收购全球第二大FPGA厂商Altera后,2018年7月,英特尔又宣布收购eASIC,提高可编程解决方案事业部整体实力。 本周,英特尔全球最大的FPGA创新中心正式落户重庆,这意味着什么? 英特尔全球最大的FPGA创新中心要做什么? 据了解,重庆的英特尔FPGA创新中心不仅是目前中国唯一的,也是全球最大。那么,英特尔为何会选择将中国FPAG创新中心设立在重庆?在12月19日的英特尔FPGA中国创新中心揭幕仪式上,英特尔公司全球副总裁兼中国区总裁杨旭表示:“重庆市领导一听说英特尔正在中国寻找合适的城市设立FPGA创新中心时,重庆市政府就表达了最强烈的意愿,并且以最专业的知识给我们极大支持。他们对整个半导体产业的理解和对FPGA未来方向的支持和认同让我们坚定了在重庆建立英特尔FPGA中国创新中心的信心。” 在揭幕仪式上,重庆市政府常务副市长吴存荣在讲话中指出:“重庆正按照中央对重庆的目标定位,大力实施以大数据智能化为引领的创新驱动发展战略行动计划,构建智能产业、智能制造、智能化应用‘三位一体’发展格局。合力建设英特尔FPGA中国创新中心,将有效改善重庆集成电路产业生态,增强大数据智能化领域创新能力,联接国内国外优秀企业,加快打造智能产业创新基地。” 不过,FPGA(现场可编程门阵列)虽然具备可重新配置、灵活、确定性延迟、节能、可扩展等优点,但FPGA发展面临着人才短缺、高技术门槛以及产业生态不完善的三大难题。 对此,杨旭指出,“英特尔FPGA在中国的创新中心选在重庆的大学城,这里有很多充满理想的年轻人,他们敢于想象未来和敢于动手。同时依托重庆作为建设中心,联合中国的广大生态合作伙伴,共同培育FPGA的创新生态链,加速产业共同创新和应用推广、发展。我们的目标是将重庆打造成为中国FPGA发展的人才培育中心、生态创新中心和产业集聚中心。” 英特尔公司全球副总裁兼中国区总裁杨旭先生 他同时指出,智能终端产生的大量数据要通过采集、传输、挖掘,最后实现增值。在这个过程中,很多应用都需要加速,包括AI、无人驾驶、5G的应用和落地,以及医疗、交通、零售、金融、能源和工业等多个领域的转型升级。 FPGA如何加速创新? 我们知道,这一轮AI浪潮的兴起与GPU关系密切,但是随着深度学习算法的不断发展,AI对算力的需求也越来越高。此时,最为通用的CPU和GPU效率不够高,而算法的尚未成熟也让ASIC的优势难以体现,类脑芯片的研发也十分困难,因此FPGA更能发挥优势加速创新。 不过,在2018年FPGA国际创新峰会上,杨旭指出,创新不是一家公司的创新而是整个产业链的创新,英特尔必须和广大的产业合作伙伴在每一链上把创新做好,需要有非常前瞻的观察力、洞察力,有很强的研发投入,也要有标准的影响、知识产权的创建,最终在市场上验证成功。 作为AI算力的提供方,英特尔自身的产品和技术就非常重要。雷锋网现场了解到,英特尔的FPGA也实现了创新,以往想要在FPGA上集成CPU或者ASIC是在FPGA内部,设计的难度会大大增加。但英特尔通过先进的封装技术,将FPGA和CPU封装在一个裸片上,不仅大大降低了设计的难度,还能实现更高的性能。这种异构的FPGA就是英特尔作为芯片提供方实现的创新。 英特尔公司可编程解决方案事业部副总裁兼工程设计总经理Ravi Kuppuswamy 目前,英特尔的FPGA 计算卡已经发展到了第二代,也就是Stratix 10 FPGA。据悉, StraTIx 10 FPGA采用英特尔14nm工艺,集成了300亿颗晶体管,比上一代产品性能提升3倍,还提供两个100 Gbps的内联高速接口,带宽比上一代提升2倍。 今年2月,英特尔开始发售StraTIx 10 TX FPGA,是业内唯一一款采用58G PAM4收发器技术的FPGA,可提供比传统解决方案高一倍的收发器带宽性能,能满足光传输网络、网络功能虚拟化 (NFV)、企业网络、云服务提供商等对高带宽要求极为迫切的 5G 网络应用。7月,英特尔推出OpenVINO软件平台,通过OpenVINO工具包可快速开发高性能计算机视觉和深度学习视觉应用。10月,英特尔推出基于StraTIx 10 SX FPGA的全新可编程加速卡(PAC)。 基于英特尔软硬件的提升,英特尔新一代FPGA也获得了越来越多的合作伙伴。3月,英特尔FPGA为为阿里云的加速即服务提供支持;同月微软必应智能搜索展示了英特尔FPGA有效支持全球领先的一些人工智能平台;4月,英特尔OEM制造商戴尔EMC和富士通在其服务器系列中采用了英特尔FPGA加速,这是FGPGA芯片首次主要使用在加速数据中心主流应用当中;5月,Microsoft推出了基于 Project Brainwave 的 Azure 机器学习硬件加速模型,可以使用Azure 大规模部署的英特尔FPGA技术;7月,百度宣布其正在开发基于英特尔最新FPGA技术的异构计算平台。  加速新技术落地和传统行业转型进展如何? 当然,英特尔全球最大的FPGA加速中心落户重庆更重要的意义在于加速中国乃至全球AI的发展。杨旭表示,FPGA的应用领域很广包括未来的5G、IoT、工业物联网、精准医疗。比如远程医疗,今天的通信技术和运算能力都无法实现,因为医生看到的图像都不流畅无法进行手术的。但如果通过加速技术,使整个图像非常清晰,能将不可能变为现实, FPGA在其中发挥着很重要的作用。 据在英特尔重庆FPGA创新中心了解,在工业领域海康威视、大华的工业相机借助英特尔的FPGA实现更理想的图像效果,以及锐捷网络基于FPGA的实时定位系统的无人搬运小车。 大数据和云方面,金山云英借助特尔Arria 10技术的图像及视频智能鉴黄系统,识别视频及图像是否涉黄模型准确度: 99.5%。借助同样的技术,杭州加速云信息技术有限公司借助加速卡可广泛应用于深度学习、机器视觉、数字信号处理、高性能计算、边缘计算、云计算等领域。 视频领域,VISMARTY的深度学习系统结合自身的AI算法和英特尔的Rush Creek技术,处理速度明显优于其他解决方案。骏龙科技有限公司利用英特尔Cyclone V ST SoC的实时视频清晰化功能,提高夜间、烟雾、背光、雾霾或黑暗场景下图像的清晰度。 5G通信中,烽火通信也利用英特尔的FPGA设计电信级虚拟化宽带网络接入服务器产品,构建面向5G的云化网络,实现更高性能的同时还具备更高的灵活性。这对于尚未成熟的5G网络而言意义重大。 当然,还有非常火热的无人驾驶和AI创新应用。地平线机器人借助英特尔Arria 10的Matrix360视觉感知方案可以实现超过20类的语义分割。同样包含Arria 10的地平线XForce密集人群人体分析方案可广泛应用于AIoT边缘计算方向的多个未来城市场景。 鲲云科技基于Intel A10的鲲云前端解决方案采用的定制数据流(CAISA)架构,具有高性能、低功耗、低延时的特性。比较有意思的还有友晶科技的解魔方机器人、重庆大学的智能自动调音器。 小结 AI是一种可以赋能的技术,无论是5G、物联网还是自动驾驶、医疗都可以借助AI技术进行创新或者转型升级,重庆的英特尔FPGA创新中心展出的各个领域的案例就是FPGA应用和加速的典型案例。另外,戴尔易安信是英特尔FPGA创新中心服务器产品的独家赞助商。 当然,戴尔、微软、海康威视、地平线、加速云、科大讯飞、烽火、联捷、海云捷迅等国内外企业与英特尔的合作不仅意味着英特尔要用自身的产品加速中国的AI及其他新技术的落地以及传统行业的转型升级,也希望能够推动全球新技术的落地和智能化的进一步发展。 本文来源:雷锋网

    时间:2020-06-15 关键词: FPGA 英特尔 AI

  • 「MINIEYE」与 Xilinx 达成战略合作

    「MINIEYE」与 Xilinx 达成战略合作

      自动驾驶感知系统研发商「MINIEYE」已与 FPGA 芯片技术巨头 Xilinx(赛灵思)达成战略合作,共同研发满足 L0-L3 级自动驾驶需求的一站式感知解决方案(Turnkey Sensing Solution)。   近日,MINIEYE 在 2019 CES 现场展示了L0-L3 级自动驾驶解决方案中的部分关键技术,包括实时语义分割技术、前向多目标感知技术、舱内行为分析技术等——而相关技术主要在 Xilinx 车规级量产 FPGA 芯片上实现,包括 Zynq 7000 系列和 Zynq UltraScale+MPSoC 系列等。其中,前者已经在比亚迪“宋”系列、东风乘龙“H7”等多款车型上实现量产,覆盖了乘用车、卡车和客车等细分行业,而“量产”也是 MINIEYE 此次强调的重点。   考虑到功耗、功能安全、成本等量产关键因素,合作中通过在 Xilinx 的车规级芯片上运行 MINIEYE 自主研发的感知 IP,使得解决方案能够实现同时支持 20 多类交通目标的识别与分析,并且能够同时对舱外和舱内实现环境感知、支持多路视频或雷达等其他传感器的信号输入,以应对不同级别自动驾驶对环境感知的需求。   创始人兼 CEO 刘国清说,MINIEYE 创立至今一直从专注感知算法和相关技术的开发,而很多前装落地技术的开发平台也是基于 Xilinx 产品完成的。   “MINIEYE 与 Xilinx 将发挥各自在算法和芯片(FPGA)上的优势,根据 OEMs和 TIer 1s 的需求来提供不同级别的感知解决方案,相较于博世或 Mobileye,我们的产品在适配方面更灵活,且能够在实现功能的前提下最小化算力冗余,帮助客户控制成本。”   Xilinx 已向 OEMs 和 TIer 1s 累计供货汽车器件逾 4000 万片,并在全球市场建立了稳定渠道,双方此次合作也会让 MINIEYE 在未来拥有更好的前装资源。   值得一提的是,目前 Mobileye 仍是行业头部公司,对于 OEMs 和 TIer 1s 来说并没有太多的选择余地。但面对旺盛市场需求,功能同质化且封闭的产品将难以满足各类厂商。MINIEYE 与 Xilinx 的合作便是希望为市场带来更多选择,通过提供定制化的产品,帮助 OEMs 和 TIer 1s 加速自动驾驶产品的量产落地,获得更大份额。

    时间:2020-06-14 关键词: FPGA 人工智能

  • 一种基于FPGA的UART接口开发方案

    一种基于FPGA的UART接口开发方案

    由于FPGA的功能日益强大,开发周期短、可重复编程等优点也越来越明显,可以在FPGA芯片上集成UART功能模块,从而简化电路,缩小PCB面积,提高系统可靠性。此外,FPGA的设计具有很高的灵活性,可以方便地进行升级和移植。 设计背景 通用异步收发器(Universal Asynchronous Receiver/Transmitter,UART)可以和各种标准串行接口,如RS 232和RS 485等进行全双工异步通信,具有传输距离远、成本低、可靠性高等优点。一般UART由专用芯片如8250,16450来实现,但专用芯片引脚都较多,内含许多辅助功能,在实际使用时往往只需要用到UART的基本功能,使用专用芯片会造成资源浪费和成本提高。 一般而言UART和外界通信只需要两条信号线RXD和TXD,其中RXD是UART的接收端,TXD是UART的发送端,接收与发送是全双工形式。由于可编程逻辑器件技术的快速发展,FPGA的功能日益强大,其开发周期短、可重复编程的优点也越来越明显,在FPGA芯片上集成UART功能模块并和其他模块组合可以很方便地实现一个能与其他设备进行串行通信的片上系统。 设计要求        本接口作为一个关于内容保护系统的电路板的一部分,主要用于和计算机进行通信,也可与其他带UART接口的电路板进行通信。对数据传输速率要求不高,传输距离也不要求很长,但传输数据要求准确可靠。该接口可用来监控电路内部状态,将FPGA内部信息通过串口输出至计算机,以达到辅助调试电路的目的。另外,电路板上的FPGA外挂有串行Flash,可通过串口对Flash进行调试,将Flash中的数据输出至计算机,并可将数据通过串口写入Flash中。简而言之,该接口是作为计算机与电路板的一个可靠的双向数据传输通道。 UART的实现原理 UART是异步通信方式,通信的发送方和接收方各自有独立的时钟,传输的速率由双方约定。本设计采用最常用的每秒9600波特的传输速度。 UART的通信协议十分简单,以低电平作为起始位,高电平作为停止位,中间可传输5~8比特数据和1比特奇偶校验位,奇偶校验位的有无和数据比特的长度由通信双方约定。一帧数据传输完毕后可以继续传输下一帧数据,也可以继续保持为高电平,两帧之间保持高电平,持续时间可以任意长。本方案采用不添加校验位的方法,以提高数据传输效率。发送端发送数据时先发一低电平,然后发送8比特数据,之后马上把信号拉高,从而完成一帧数据传送。接收端接收到低电平时开始计数,然后接收8比特信息位后如果检测到高电平即认为已接收完一帧数据,继续等待下一帧起始信号低电平的到来,若接收完8比特数据后没有检测到高电平则认为这不是一帧有效数据,将其丢弃,继续等待起始信号。时序关系如图1所示,收发可同时进行,互不干扰。 图1 RS-232接口的工作时序 硬件电路原理图及说明 一个完整的RS-232接口是一个25针的D型插头座,25针的连接器实际上只有9根连接线,所以就产生了一个简化的9针D型RS-232插头座,常用的就是一个9针的D型插头座。通常只用到一根发送信号线、一根接收信号线和一条地线,其余的振铃指示、请求传送、清除传送、准备就绪及数据载波检测等线可以做悬空处理。 RS-232标准规定逻辑1的电平为 -15~-3V,逻辑0的电平为+3~+15V。CMOS电路的电平范围一般是从0V到电源电压,FPGA的I/O输入输出电压通常为0~3.3V,为了与FPGA 供电电压保持一致,必须加电平转换芯片。选用Maxim公司的MAX3232电平转换芯片,电路原理图如图2所示。   图2 RS-232接口电路 连线采用最简单的3 线制连接模式,即只需要两根信号线和一根地线来完成数据收发。而FPGA 只需要选择两个普通I/O引脚分别与接口芯片MAX3232 对应引脚T2IN、R2OUT相连即可完成将串口电平转换为设备电路板的工作电平,即实现RS-232电平和TTL/ CMOS 电平的转换。一个MAX3232芯片可以支持两个串口的电平变换,我们选择其中的一组接口,图中的4个电阻可以省去。在电路中加入了0Ω的跳线电阻,是为了在这组接口出故障时可以方便地跳线,使用另一组接口。 软件设计 异步收发器由波特率发生器、UART接收器和UART发送器三个模块构成。采用的是每秒9600波特的传输速度,而系统提供的时钟是 10MHz,这就要求进行速率变换。在实际中由于电路中存在干扰等因素,在数据边缘进行采样容易发生误判,只有在数据的中央进行采样出错的概率才能降到最低,所以使用16倍于波特率的时钟,即9600×16Hz=15600Hz。因此波特率发生器输出的时钟频率应为15600Hz,UART 收发的每一个数据宽度都是波特率发生器输出的时钟周期的16倍,采用Altera公司芯片内部自带的锁相环可以方便地实现。UART接收器和UART发送器均采用Verilog语言编程实现。 通常使用的数据多为并行数据,为了方便与系统中其他电路互连,UART接收器的输出数据和UART发送器的输入数据均为8比特并行数据。 UART接收器将串行数据接收下来并将其转化为并行数据送出,UART发送器将输入的并行数据转换为串行数据并按照UART的帧格式输出。 图3 UART接收器符号图 图3为UART接收器的符号图,其中rst为全局复位信号,rxd为串行数据输入端,baudClk16x为输入时钟,dataOut[70] 为并行数据输出口,irq为输出数据的指示信号。首先接收器等待起始位的到来,在每个时钟上升沿检测输入数据是否为低电平,若检测到低电平,则开始计数,如果连续8个时钟内输入数据均为低电平,则认为起始信号有效,其中若有一次采样得到的为高电平则认为起始信号无效,返回初始状态重新等待起始信号的到来。认定起始信号有效后,每隔16个时钟采样一次,这样就可以保证每次都在数据的中点出采样,将采样结果送入8比特的移位寄存器,8比特数据采样结束后,间隔 16个时钟采样停止位。如果采得的是高电平,则认为这帧数据有效,将移位寄存器中的数据并行送出同时将输出数据的指示信号置高,然后接收器复位,重新等待下一帧的到来;若采得的为低电平,则认为这不是一帧有效数据,不将移位寄存器中的数据输出,直接返回初始状态。                                                 图4 UART发送器符号图 图4 为UART发送器的符号图,其中flag为输入数据指示信号,rst为全局复位信号,clkin为输入时钟,din[70]为并行数据输入端,tdo为串行数据输出端。接收器在每个时钟的上升沿检测输入数据指示信号,若检测到其为高电平,则将并行输入数据锁存入内部的8比特移位寄存器,接下来先送出一个低电平并保持16个时钟,然后每隔16个时钟将移位寄存器中的数据移出一位,最后送出高电平,返回初始状态。 系统调试 UART接收器和发送器可根据实际需要单独使用,但在调试时为了方便,将两者对接起来,如图5所示。UART接收器的输出与UART发送器的输入相连,复位信号和时钟信号共用,时钟信号由片外晶振提供,输入FPGA后通过锁相环转换为需要的频率。   图5 调试系统模块图 串口的调试需要借助于串口调试工具,可以用VC编程实现,也可以直接使用网上已有的调试工具。直接选用网上的串口调试助手进行了测试,将数据从计算机送出,经过UART接口接收后再送回计算机。经过长达数十分钟的不间断接收和发送后,将送回计算机的数据与原始数据进行比较,多次测试均没有发生任何错误,这充分说明了这一UART接口程序具有高度的可靠性和稳定性,可以满足设计要求。 结束语 基于FPGA设计和实现UART,可以用片上很少的逻辑单元实现UART的基本功能。与传统设计相比,能有效减少系统的PCB面积,降低系统的功耗,提高设计的稳定性和可靠性,并可方便地进行系统升级和移植。 本设计具有较大的灵活性,通过调整波特率发生器的分频参数,就可以使其工作在不同的频率。采用16倍波特率的采样时钟,可以实时有效探测数据的起始位,并可对数据位进行“对准”中央采样,保证了所采样数据的正确性。该模块可以作为一个完整的IP核移植进各种FPGA中,在实际应用时可嵌入到其他系统中,很容易实现和远端上位机的异步通信。                                                  

    时间:2020-06-12 关键词: FPGA

  • 250A的50A µModule稳压器,你知道吗?

    250A的50A µModule稳压器,你知道吗?

    什么是250A的50A µModule稳压器?它有什么作用?Analog Devices, Inc (ADI) 宣布推出 Power by Linear™ LTM4678,该器件是一款具有 PMBus 数字接口的双通道 25A 或单通道 50A 降压型µModule® 稳压器。 LTM4678 将两个电感器叠置并裸露在 BGA 封装的顶部以充当散热器,可帮助散发封装内部的热量,从而使器件保持低温。用户可利用片内 EEPROM 和 PMBus I2C 测量、改变和记录主要的电源参数,例如电压、负载电流、温度和时序。5 个 LTM4678 能够通过均流 (各分担 50A) 为处理器、FPGA 和 ASIC 等负载提供高达 250A 的电流。主要应用包括 PCIe 板、通信基础设施、云计算、光学以及医疗、工业和测试与测量设备。 LTM4678 将 DC/DC 控制器、EEPROM、功率 FET、电感器和支持组件集成在一个 16mm x 16mm x 5.86mm BGA 封装中。确保整个电压、负载和温度范围内 (–40°C 至 125°C) 的输出电压精度为 ±0.5%。 LTM4678 在 4.5V 至 16V 的输入范围内工作,两个输出电压在 0.5V 至 3.3V 的范围内进行数字控制。LTM4678 在 12VIN 、0.9VOUT和50A的工作条件下可实现 90% 的峰值效率。在 70°C 的环境温度和具有 200LFM 气流的情况下,该器件可在 12VIN 至 0.9VOUT 的转换中提供40A。开关频率在 350kHz至1MHz 的范围内,而且可同步至一个频率范围为 350kHz 至 1MHz 的外部时钟,以适应那些对噪声敏感的应用。 LTM4678 的高功率密度和可扩展性使其非常适合组件安装密集之系统板的 PCB 面积限制条件,可为低电压和高电流的先进数字设备供电。 特性概要:LTM4678 用于控制、遥测和监视工作参数的 PMBus 数字接口 双通道 25A 或单通道 50A 输出电流,具有均流功能并可扩展至高达 250A 宽输入电压范围:4.5V 至 16V 输出电压范围:0.5V 至 3.3V ±0.5% 电压设定点准确度和 ±5% 电流回读精度 片内 EEPROM 耐热性能增强型 16mm x 16mm x 5.86mm BGA 封装。以上就是250A的50A µModule稳压器解析,希望能给大家帮助。

    时间:2020-06-08 关键词: FPGA asic pmbus

  • 让 “芝麻开门” 落地,Xilinx 给出加速应对策略

    让 “芝麻开门” 落地,Xilinx 给出加速应对策略

    芝麻开门 “芝麻,芝麻,开门吧。”随着阿里巴巴一声咒语,山洞的大门应声打开,阿里巴巴发现洞里大量财宝和金币……《一千零一夜》里的《阿里巴巴和四十大盗》的故事,几乎成为每个人童年记忆的一部分。而今天,类似的场景将在我们的生活中随处发生,人工智能的落地正在将冰冰的物理世界变成可以对话的“芝麻开门”。 然而,与全球关注的热度相比,人们可感的人工智能落地并没有遍地开花。近日,在第八届EEVIA年度中国ICT媒体论坛暨2019产业和技术展望研讨会上,赛灵思人工智能市场总监刘竞秀在现场为大家带来了“FPGA — 人工智能计算的加速引擎”的主题演讲,作为拥有中国/美国/欧盟/日本/韩国共45项专利申请的业界大咖,他精彩解读了当前人工智能落地的主要障碍,并给出了赛灵思的破解“方法论”。 赛灵思人工智能市场总监刘竞秀做主题演讲 加速AI应用落地,需破解两个剪刀差 AI的本质是高性能计算,因此刘竞秀认为从本源上来讲AI就像电力一样,可以算作是一项通用能力,是能对所有行业进行产业升级以及产品迭代起促进作用的存在。然而,最近几年的人工智能话题热潮过后,AI落地速度却低于预期。刘竞秀给出了两个剪刀差阻碍发展的关键判断: 一是海量的数据和计算芯片所能够提供的处理能力之间的“剪刀差”,主要表现在受限于摩尔定律,传统芯片算力的进步已经远远跟不上爆炸性增长的数据对算力的需求; 二是芯片开发的长周期和快速迭代的市场和技术发展之间的“剪刀差”。传统芯片开发的完整的流程通常长达18~24个月,然而当前的AI项目经常需要几个月就提出解决方案,从而抢占市场,按照过去的芯片漫长的研发流片流程,当芯片出货时市场需求可能已经发生了根本的改变。 刘竞秀:下一个时代必将是AI+IoT的时代 事实上,目前AI芯片已经发展到需要采用28纳米甚至16纳米制造工艺,倘若AI算力的需求全靠工艺的迭代,所需的资金投入将是巨大的,风险也将随之放大。而且鉴于时间窗口问题,没有多少企业愿意或有实力在这块市场进行尝试。“因此具备可编程性且灵活多变的FPGA便成了最好的选择。人工智能创新企业可在特定领域(算法和框架方面)和应用上深入研究,从这些层面来创造更多的价值。”刘竞秀指出。 打造完整应用工具链,让 AI 落地 So Easy 常见的AI落地应用场景 “把芯片本身做出来不难,但如果没有足够高性能的软件、生态环境、工具链以及各种参考应用,应用落地将需要花费更长的时间。”刘竞秀指出,“所以赛灵思为客户提供不同层次的支持,从底层的硬件、各种IP以及软件,以及应用层各种神经网络模型,都可以提供给客户。”随着在AI市场的快速崛起,赛灵思正在从传统的芯片提供商向平台方案提供商转变。 赛灵思人工在边缘/嵌入式和云端/数据中心AI总体解决方案 “赛灵思在方案底层定义了高效的指令集和IP,结合成套的工具和SDK为客户提供的接口,客户甚至不需要写任何一行代码,只需要把我们IP资源调用起来,就可以支持不同行业不同场景的应用。”刘竞秀表示。赛灵思通过打造通用的处理器平台和完善的工具集,努力为客户提供卓越的高效开发体验。 赛灵思边缘计算人工智能解决方案 事实上,FPGA所支持的很多场景的应用, 用传统处理器开发周期可以达到三至六个月,甚至一年都是常见的。“用我们现有的方案,最快几个小时就可以把新的网络部署在硬件上,快速地将系统运行起来。”刘竞秀强调。速度对当前的人工智能创业公司和合作伙伴而言是最重要的考虑要素之一,通过快速实现原型机,从而尽早去实现真正的场景性能、功能迭代和数据收集,才能将产品比别人更快地推向市场。 赛灵思人工智能视频分析模型库 瞄准八大核心应用,赛灵思战略加速应用落地 去年,赛灵思新任CEO Victor Peng在北京发布了以数据中心优先、加速核心主流市场的增长和驱动灵活应变的计算三大战略,同时宣布正式推出ACAP(Adaptive Compute AcceleraTIon Platform,自适应计算加速平台),连续的创新性和前瞻性的重磅发布让业界刮目相看。 在本次研讨会上,刘竞秀再次分享了赛灵思在核心主流市场布局的思考。这些市场包括八大市场领域:汽车、无线基础设施、有线通信、音频、视频与广播、航空航天、工业、科学与医疗、测试、测量与仿真以及消费类电子技术,这些主流市场也是赛灵思关键技术的领先领域,而且拥有深厚的市场根基。 以汽车应用为例,在AI出来之后赛灵思已经在汽车行业深耕了十几年,有各种各样的符合车规认证的车载芯片。在通信领域,已经有大量各种各样的FPGA做高性能的信号处理。包括航空航天,传统的工业控制、医疗,包括仪器仪表,抛开AI而言,赛灵思公司的FPGA产品本身已经是这些领域的大量产品的关键硬件平台之一。 动驾驶计算平台解决方案 “尽管全世界有几十家主流做激光雷达的公司,但大家的产品技术路线差异非常大。加上没有谁能够做一颗计算平台够覆盖差异这么大的平台开发,恰好又导致了其成为FPGA最好的市场。”刘竞秀以汽车激光雷达为例做了分析,赛灵思的FPGA产品在激光雷达市场占有率达到90%。事实上,在自动驾驶和无人驾驶应用上,由于需要ECU具备一定的理解能力来辅助中央控制器做相应的判断和决策,FPGA做AI推理的高效率在这类应用也获得重视。 让子弹飞一会,首款自适应计算加速平台将为 AI 再加速 演讲中,刘竞秀也提到了去年推出Versal ACAP。Versal顾名思义,等于various(各种不同的、各种各样的)+ Universal (通用的,万能的) , 可以支持所有的开发者,可以支持各种应用。这是一款完全支持软件编程的异构计算平台,可将标量引擎、自适应引擎和智能引擎相结合,实现显著的性能提升,其速度超过当前最高速的 FPGA 20 倍、比当今最快的 CPU 实现快 100 倍。 Versal ACAP自适应计算加速平台 Versal系列产品均基于台积电最新的7nm FinFET工艺,是第一个将软件可编程性与特定领域硬件加速和灵活应变能力完美结合的平台。该平台独特的架构针对云端、网络、无线通信乃至边缘计算和端计算等不同市场的众多应用,提供了独特的可扩展性和AI推断功能,将为所有开发者开发新应用开启一个最新且最快速的创新时代。赛灵思已经发布了Versal基础系列和Versal AI核心系列,Versal旗舰系列、AI Edge以及Versal HBM系列将在未来陆续发布。 让子弹再飞一会儿 AI 加速落地,收入和股票不断创造半导体行业奇迹的赛灵思在路上,让 AI 的子弹再飞一会儿吧~

    时间:2020-06-07 关键词: Xilinx FPGA AI 阿里巴巴

  • 如何破解两把“剪刀差”加速AI落地?Xilinx给出了答案

    如何破解两把“剪刀差”加速AI落地?Xilinx给出了答案

    “深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”,“打造工业互联网平台,拓展“智能+”,为制造业转型升级赋能。”……刚闭幕不久的中国两会上,人工智能(AI)连续第三年被写入政府工作报告中,并首次将人工智能衍生为“智能+”的概念。作为国家战略的人工智能将加速与产业融合,为经济结构优化升级发挥重要作用。 在近日举办的第八届EEVIA年度中国ICT媒体论坛暨2019产业和技术展望研讨会上,人工智能也是其中的一个重要主题。自适应和智能计算的全球领先企业赛灵思公司人工智能市场总监刘竞秀在“FPGA — 人工智能计算的加速引擎”的主题演讲中开场就对“智能+”概念作出了通俗的诠释:“AI的本质就是高性能计算,就像电力一样是一项通用能力,是能对所有行业进行产业升级以及产品迭代起促进作用的存在。” 刘竞秀:AI的本质就是算力,是像电力一样的一项通用能力。 破解两把“剪刀差”的掣肘,关键“方法论”是FPGA 对人工智能落地速度的表现刘竞秀似乎并不满意,他认为当前顶多应该算是“智能服务”的时代,而不是真正人工智能的时代。他将当前的语音人机对话、智能视频应用等落地项目认为是比较初期的智能应用,“例如,人机对话可以用于最基本的生活服务,但很难真正对话超过20句,后面基本上是尬聊。”与产业和媒体关注热度相比,人工智能这几年真正落地的速度有点慢,刘竞秀给出了两个剪刀差阻碍发展的关键判断。 首先是海量的数据和计算芯片所能够提供的处理能力之间的“剪刀差”,主要表现在受限于摩尔定律,传统芯片算力的进步已经远远跟不上爆炸性增长的数据对算力的需求;其次是芯片开发的长周期和快速迭代的市场和技术发展之间的“剪刀差”,传统芯片开发的完整的流程通常长达18~24个月,然而当前的AI项目经常需要几个月就提出解决方案,从而抢占市场。按照过去的芯片漫长的研发流片流程,当芯片出货时市场需求可能已经发生了根本的改变。 异构架构是普适智能时代加速新工作负载的趋势。 另外一个不争的事实是,目前AI芯片已经发展到需要采用28纳米甚至16纳米制造工艺,倘若AI算力的需求全靠工艺的迭代,所需的资金投入和风险都是一般中小企业或创新创业企业难以承受的,而且鉴于时间窗口问题,几乎没有企业愿意或有实力在这块市场进行尝试。“因此具备可编程性且灵活多变的FPGA便成了最好的选择。人工智能创新企业可以将其核心研发资源聚焦在特定领域(算法和框架方面)和应用上,从这些层面来创造更多的价值。”刘竞秀指出。 常见的AI落地应用场景。 ACAP让AI“飞起来”,首个自适应计算平台再加速 在赛灵思发明FPGA以来的35年中,这种可编程逻辑器件凭借性能、上市时间、成本、稳定性和长期维护方面的优势,在通信、医疗、工控和安防等领域均拥有了无法取代的一席之地。然而,也是需要和传统处理器“分庭抗礼”的一席之地。但最近几年,由于云计算、高性能计算和人工智能的兴起,拥有先天优势的FPGA有望开始“独领风骚”的时代。 按赛灵思财报显示的数据,FPGA在人工智能领域强大的优势和发展前景,以及赛灵思为此历经数年推动的公司转型, 让赛灵思在过去三年内股价增长近三倍。从单纯的FPGA到集成DSP、内存,到28nm集成Arm以及RFSoC的推出,赛灵思一直都是在用创新技术驱动应用创新,显然赛灵思的前瞻性战略布局并不会满足于收割在人工智能时代FPGA的优势“老本”,特别是总裁兼CEO Victor Peng上任以来更是在人工智能领域动作频频,以数据中心优先、加速主流市场的增长和驱动灵活应变的计算三大战略更加清晰化市场布局,其ACAP(自适应计算加速平台)的全新品类的推出为扩大人工智能产业优势奠定了关键伏笔。 作为高度集成的多核异构计算平台,ACAP被媒体称为赛灵思面向下一点计算“蝶变”的利器,是赛灵思器件家族的新物种。为打造ACAP,赛灵思投入上千工程师,历经五年研发,投资逾10亿美元。其核心是新一代FPGA架构,能根据各种应用与工作负载的需求从硬件层对其进行灵活修改。ACAP的灵活应变能力可在工作过程中进行动态调节,它的功能将远超FPGA的极限。在本次论坛上,刘竞秀也对ACAP第一款产品Versal做了阐释:“顾名思义,Versal等于various(各种不同的、各种各样的)+ Universal (通用的,万能的) , 可以支持所有的开发者的各种应用。这是一款完全支持软件编程的异构计算平台,可将标量引擎、自适应引擎和智能引擎相结合,实现显著的性能提升,其速度超过当前最高速的 FPGA 20 倍、比当今最快的 CPU 实现快 100 倍。” Versal ACAP自适应计算加速平台 Versal系列产品均基于台积电最新的7nm FinFET工艺,是第一个将软件可编程性与特定领域硬件加速和灵活应变能力完美结合的平台。该平台独特的架构针对云端、网络、无线通信乃至边缘计算和端计算等不同市场的众多应用,提供了独特的可扩展性和AI推断功能,将为所有开发者开发新应用开启一个最新且最快速的创新时代。赛灵思已经发布了Versal基础系列和Versal AI核心系列,Versal旗舰系列、AI Edge以及Versal HBM系列将在未来陆续发布。 从硬件平台到算法模型,完整工具链让AI轻松落地 人工智能的爆热与庞大的市场前景为全球半导体市场注入了“兴奋剂”,也为几乎所有的半导体公司所觊觎。目前,市场上已不断有各种新的处理器产品方案发布。“把芯片本身做出来不难,但如果没有足够高性能的软件、生态环境、工具链以及各种参考应用,应用落地将需要花费更长的时间。”刘竞秀表示。对于赛灵思,丰富的FPGA传统芯片组合以及创新的ACAP平台为AI落地提供了众多选择。“对于客户AI开发而言,传统的解决方案提供的支持还远远不够,赛灵思为客户提供了更多的不同层次的支持,除了底层硬件、各种IP以及软件,还提供了应用层各种神经网络模型。”刘竞秀指出。赛灵思公司拥有非常丰富的神经网络模型库。据悉,仅视觉相关的神经网络模型就超过70种。随着在AI市场的快速崛起,赛灵思正在从传统的芯片提供商向平台方案提供商转变。 赛灵思在人工智能/边缘/嵌入式和云端/数据中心总体解决方案。 据刘竞秀透露,在收购深鉴科技后,深鉴科技上百人的研发团队继续专注在赛灵思DNNDK(深度神经网络开发套件)的研发上。DNNDK面向AI异构计算平台深度学习处理器DPU (深度学习处理器单元),可支持神经网络推理阶段模型压缩、编译优化和高效运行时支持的不同功能需求,为DPU平台各种深度学习应用开发和部署提供一套高效全栈式解决方案,实现从深度学习算法到DPU硬件平台的高效映射,为DPU从移动端到数据中心端各类应用提供统一的开发工具包和编程接口。 DNNDK在极大降低DPU平台深度学习应用开发门槛和部署难度的同时,还能够显著加速AI产品从开发到面市的进程。“赛灵思在方案底层定义了高效的指令集和IP,结合成套的工具和SDK为客户提供的接口,客户甚至不需要写任何一行代码,只需要把我们IP资源调用起来,就可以支持不同行业不同场景的应用。”刘竞秀表示。赛灵思通过打造通用的处理器平台和完善的工具集,努力为客户提供卓越的高效率开发体验。 赛灵思边缘计算人工智能解决方案 人工智能在具体应用场景的落地是一个复杂的开发过程。据悉,传统处理器开发周期可以达到三至六个月,甚至一年都是常见的。“用我们现有的方案,最快几个小时就可以把新的网络部署在硬件上,快速地将系统运行起来。”刘竞秀强调。速度对当前的人工智能创业公司和合作伙伴而言是最重要的考虑要素之一,通过快速实现原型机,从而尽早去实现真正的场景性能、功能迭代和数据收集,才能将产品比别人更快地推向市场。 赛灵思人工智能视频分析模型库

    时间:2020-06-06 关键词: Xilinx FPGA AI 大数据

  • 如何通过高性能CPU和FPGA可重编程的SoC架构应对5G挑战

    如何通过高性能CPU和FPGA可重编程的SoC架构应对5G挑战

    1.引言 我们目前处于蜂窝连接的转型时期,未来无处不在的无线连接正在兴起。在全球范围内,2G、3G和4G的成功推动手机使用量达到了令人难以置信的75亿部。令人震惊的是,这使得移动设备的数量比全球人口还要多。或许更具影响力的是,蜂窝连接对那些之前被数字化剥夺权利的人产生的影响; 例如,2016年撒哈拉以南非洲地区每100人通常有1部固定电话,但有74台移动连接设备。 展望未来十年,随着5G的出现,无线基础设施将变得更加普遍,甚至与我们日常生活的方方面面完全融为一体。 5G延续了先前蜂窝标准(在驱动带宽方面)的模式,但也将其扩展到更多设备和使用模式。 主要趋势包括: 1.对增强型移动宽带(eMBB)和其他应用的带宽增加需求,特别是以10倍现有吞吐量或者更高速率驱动的瞬时可用带宽。 a. 这将是5G标准化带来的首波驱动力,其中3GPP已于2017年完成非独立(即LTE辅助)新无线电(NR),2018年可提供5G独立版,如图1所示。 b. 5G的部署也将根据频段情况分阶段进行,首先部署6GHz以下,然后是毫米波(mmWave)频率的连续频段,以便在稍后阶段支持关键eMBB应用。 图1:5G的ITU和3GPP时间表 2.随着物联网(IoT)蜂窝网络连接的到来而连接到大量的设备。预计到2020年将有500亿台蜂窝网络连接的设备。这些需求当中的一部分可以通过现有标准满足,同时也要靠Release 16版本中海量机器类通信(mMTC)的现有规范去实现了。 3. 新的应用模式也在不断涌现,这对移动设备及其蜂窝无线基础设施提出了新的要求。示例包括: a.用于连接多个电池供电物联网端点的低带宽、低功耗的要求,以实现mMTC相关的连接和监控; b.用于车辆到车辆和车辆到基础设施的连接(C-V2X)高可靠性、低延迟蜂窝网络,以补充现有的V2X解决方案 c.为远程手术和增强/虚拟现实等新兴应用提供的高可靠性、低延迟支持 后两类应用将通过即将推出的3GPP超可靠、低延迟连接(URLLC)标准来解决。 4. 对边缘分析和移动边缘计算(MEC)的新需求。计算重心正在从以前估计的将数据发送到集中式计算资源进行处理,转变为移到位于数据生成原点附近的分布式计算资源的新范例。造成这种转变的原因是多方面的:新兴应用严格的延迟要求、越来越庞大的数据量,以及优化稀缺网络资源的愿望等等许多方面。 2.基带 在本文中,我们考虑如何通过具有高性能CPU子系统和包括FPGA可重编程加速硬件处理单元的SoC架构来成功应对5G的独特需求。 基带从网络接口(例如以太网)获取数据,并将其转换为通过前传(Fronthaul)接口传输到射频前端进行传入/传出的复杂样本。以下高级原理图包括用于LTE下行链路的发送器(图2a),以及用于上行链路的接收器(图2b)。 (a)下行链路 (b)上行链路 图2:基带处理的高级原理图 3.基带L1处理的案例研究 在这里,我们举例说明如何将基带处理(尤其是Layer-1层)映射到关键处理元器件上,如处理器子系统、CPU和DSP内核,以及固定和灵活的硬件加速,如图3所示。 图3:关键基带处理元器件 3.1. 前传(天线接口)连接 除了前面描述的处理元器件之外,还有一个灵活的天线接口功能模块:这是连接基带和射频单元所需的元件。传统上,这是通用公共无线电接口(CPRI),有时是开放式基站架构计划(OBSAI)兼容的部分。 然而,越来越多的方案在转向指定一个更灵活的前传接口,以允许基带和RF前端之间的不同映射(如图4所示)。IEEE对下一代前传接口NGFI(IEEE1914)进行了持续的跟进,包括用于基于分组的前传传输网络标准IEEE1914.1和以太网无线电(RoE)包封和映射标准IEEE1914.1。同时,还有其他行业项目指定了5G前传接口并可共享,例如eCPRI。 鉴于前传接口面临的各种规范、标准和要求,FPGA很适合其应用,并通常用于支持此接口,如图3所示。 3.2. 可加速5G上市时间的分立结构 图4将5G所需的处理元器件映射为具有独立器件的分立式架构,包括CPU SoC、辅助FPGA加速和天线接口。此配置反映了在可以提供经过优化的5G专用集成电路( ASIC)之前,可以在5G原型设计和早期量产中部署的实施方案。 ·CPU系统级芯片里面包括:Arm处理器组合以及用于Layer-1处理和硬化加速器的DSP内核,用于固定的、明确定义的功能。 在此示例中,假设现有的4G ASIC SoC可用,因此具有通用加速(例如MACSEC)以及LTE特定加速:前向纠错(特别是turbo编解码器)、快速傅立叶变换和离散傅里叶变换,以在上行链路上支持SC-FDMA。 ·灵活的天线接口 如前所述,前传天线接口非常适合用FPGA来实现。这是在线配置的,数据从射频单元发出(在上行链路上),然后是被转换为诸如以太网等具有标准连接的协议。 ·硬件加速FPGA 辅助加速FPGA实现了在基带SoC上不可提供的所有必要的计算密集型功能。这可以是5G特定的功能或先前未曾规划的功能。 在此处显示的示例中,使用了CCIX互连。该标准允许基于不同指令集架构的处理器将缓存一致性、对等处理的优势扩展到包括FPGA和定制ASIC在内的多种加速器件上。 图4:可加速5G上市时间的分立结构 3.3. 基于Chiplet的5G实现 图5显示了与图4所示类似的架构,但是使用了基于系统级封装芯片(chiplet)的方法进行了重新配置。 在这种情况下,一个采用了更高带宽、更低延迟和更低功耗的接口将CPU SoC片芯晶粒与辅助硬件加速chiplet芯片连接起来。 支持前传连接到射频单元的FPGA器件在该示例中可以但并不是封装集成在其中的;但实际上,如果有足够的资源,它可以是与硬件加速chiplet芯片相同的chiplet器件。 图5:基于Chiplet的方法可实现更高的集成度 用于封装集成的两种主要技术是使用硅中介层或有机基板,以及某种形式的超短距离(USR)收发器。 3.4.完全集成的5G实现方式 最后,图6展示了本文考虑的最终、最高集成度的基带架构。该方法包括与先前相同的处理元件,具有相同的功能,但嵌入式FPGA(eFPGA)集成在了芯片内。 图6:采用单片集成的、应用于5G基带的异构多核系统级芯片 这种紧密集成的单片集成方法具有许多优点。与基于chiplet的方法相比,该接口具有更高的带宽、更低的延迟和更低的每比特能耗。此外,资源组合可以根据所考虑的特定应用进行定制,因此避免了不需要的接口、存储器和核心逻辑单元。这样可以实现以上所考虑的三种架构中最低单位成本。 如前所述,现在的主要目标是提供更快的上市时间、更高灵活性和未来可用性。之所以能加快了上市时间,是因为SoC可以提前流片,因为可以针对eFPGA进行后期修改(例如5G标准中Polar码的出现)而不是完成即固定的ASIC。来自新算法或者未预计算法(例如新的加密标准)的灵活性可以通过嵌入式可编程逻辑而不是软件或外部FPGA来解决。最后,未来可用性可以延长SoC的生命周期,因为诸如URLLC和mMTC等新标准等大批量新兴需求可以通过现有产品解决,而不需要进行新的开发。 总结 CPU和可编程加速(嵌入式或独立FPGA)的紧密耦合,使开发人员能够去创建可以一个应用于多个不同市场的平台产品。 这增加了特定产品的市场适用性并提高了开发投资回报。 这甚至可以在流片后再对市场进行定位(或重新定位),即最大化的可编程性所提供的内在灵活性可支持相当大的创新空间。 或许从5G的角度来看更为重要的是,高度可编程的解决方案可以加快产品上市速度。例如,在标准最终确定之前,不再需要推迟SoC的流片时间,后续改变的需求可以在软件或可编程硬件中实现。这对于早期5G部署所面临并在不断增加的压力,以及应对新标准的不断涌现,这是一个突出优势。   文章作者:Achronix半导体公司高级产品营销经理,Alok Sanghavi

    时间:2020-06-06 关键词: CPU FPGA 可编程 5G

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章

技术子站

更多

项目外包