当前位置:首页 > 图形处理器
  • Imagination发布IMG B系列GPU:功耗降低30% 面积缩减25%

    Imagination发布IMG B系列GPU:功耗降低30% 面积缩减25%

    10月13日下午,半导体知识产权(IP)供应商Imagination Technologies(以下简称Imagination)宣布推出全新的IMG B系列图形处理器(GPU),继继去年的IMG A系列后进一步扩展了其GPU知识产权(IP)产品系列。 依靠着先进的多核架构,全新的B系列可以使Imagination的客户在降低功耗的同时获得比市场上任何其他GPU IP更高的性能水平。它能提供高达6 TFLOPS(每秒万亿次浮点运算)的计算能力,与前代产品相比在功耗降低了多达30%,面积缩减了25%,且填充率比竞品IP内核高2.5倍。 B系列是Imagination GPU IP的再一次演进,可提供最高的性能密度(performance per mm2),同时提供了多种全新配置,可以针对给定的性能目标实现更低的功耗和高达35%的带宽降低,这使其成为顶级设计的理想解决方案。 B系列提供了各种不同的配置,从而使我们的客户拥有更广泛的选择。凭借核心部分的可扩展性,它成为移动设备(从高端到入门级)、消费类设备、物联网、微控制器、数字电视(DTV)和汽车等多个市场的终极解决方案。 B系列中还包括IMG BXS产品,这是首批符合ISO 26262标准的GPU内核,可以为汽车领域提供各种选择:从小型的安全备份内核,到可用于先进驾驶辅助系统(ADAS)和高性能自动驾驶的高计算力内核。 Imagination Technologies首席产品官Chris Porthouse说道:“我们在多核架构中采用了自己最佳的高性能、低功耗内核,并整合了创新性的分散管理方法,从而可以提供高效的扩展特性,并且可与诸如小芯片(chiplet)架构等行业趋势相兼容。这使我们能够提供以前的GPU IP所不能提供的一系列性能水平和配置。” Imagination Technologies首席执行官Simon Beresford-Wylie表示:“IMG B系列为我们的客户提供了更多选择。它建立在大量投资及A系列技术优势的基础上,同时增加了多核技术,以惊人的33种全新配置扩展了Imagination的GPU产品系列。凭借B系列产品,我们相信Imagination可以为每个人提供最佳的GPU,无论他们有何种需求。” IMG B系列现已可提供授权,并且每个产品系列都已有厂商率先获得了授权。 一、先进的多核架构 全新的多核架构已经针对BXT和BXM内核的每个产品系列进行了优化,利用多个主核的扩展特性实现了GPU内核的多核扩展。多核架构结合了所有内核的能力,可以为单个应用提供最大化的性能,或者根据需要支持不同内核去运行独立的应用。 BXE内核提供了主核-次核的扩展模式,这是一种面积优化的解决方案,通过单个GPU内核提供了高性能,同时可以利用我们的HyperLane技术进行多任务处理。 BXS汽车GPU内核也利用了多主核可扩展的特性,来支持性能扩展,以及跨多个内核进行安全检查,以确保正确运行。 二、最佳的图像压缩技术 IMG B系列还使用了IMGIC技术,这是市场上最先进的图像压缩技术,可为我们的客户提供节省带宽的新选择。它提供了多达四种压缩等级:从像素完全无损模式,到可确保4:1或更佳压缩率的带宽极省模式。这为SoC设计人员提供了更高的灵活性,以优化性能或降低系统成本,同时保持出色的用户体验。IMGIC技术可以兼容B系列中的所有内核,这使得即便是最小的内核,也能够拥有Imagination行业领先的图像压缩技术优势。 三、IMG B系列内核 IMG B系列GPU拥有四个产品系列,可以针对特定的市场需求提供专业的内核: 1、IMG BXE:实现绚丽的高清显示——凭借一系列专门针对用户界面(UI)渲染和入门级游戏设计的GPU内核,BXE系列每个时钟周期可以处理从1个像素到高达16个像素,从而可支持从720p到8K的分辨率。与上一代内核相比,BXE实现了多达25%的面积缩减,同时其填充率密度高达竞品的2.5倍。 2、IMG BXM:难以置信的图形处理体验——一系列性能高效的内核在紧凑的硅面积上实现了填充率和计算能力的最佳平衡,可以为中档移动端游戏以及用于数字电视和其他市场的复杂UI解决方案提供支持。 3、IMG BXT:前所未有的性能——可以为从手持设备到数据中心等现实世界的应用提供难以置信的高性能。该旗舰款B系列GPU是一个四核部件,可以提供6 TFLOPS的性能,每秒可处理192 Gigapixel(十亿像素),拥有24 TOPS(每秒万亿次计算)的人工智能(AI)算力,同时可提供行业最高的性能密度。 4、IMG BXS:面向未来的汽车GPU——BXS系列是符合ISO 26262标准的GPU,这使其成为迄今为止所开发的最先进的汽车GPU IP内核。BXS提供了一个完整的产品系列,从入门级到高级的产品,可为下一代人机界面(HMI)、UI显示、信息娱乐系统、数字驾舱、环绕视图提供解决方案,再到高计算能力的配置,则可支持自动驾驶和ADAS。

    时间:2020-10-14 关键词: imagination 图形处理器 多核架构

  • Imagination推出IMG B系列图形处理器(GPU):多核技术创造更多可能

    英国伦敦,2020年10月13日 – Imagination Technologies宣布推出全新的IMG B系列(IMG B-Series)图形处理器(GPU),进一步扩展了其GPU知识产权(IP)产品系列。凭借其先进的多核架构,B系列可以使Imagination的客户在降低功耗的同时获得比市场上任何其他GPU IP更高的性能水平。它提供了高达6 TFLOPS(每秒万亿次浮点运算)的计算能力,与前几代产品相比,功耗降低了多达30%,面积缩减了25%,且填充率比竞品IP内核高2.5倍。 凭借IMG A系列GPU,Imagination在前几代产品基础上实现了超乎寻常的飞跃,从而在性能和功耗特性方面占据了行业领先地位。B系列是Imagination GPU IP的再一次演进,可提供最高的性能密度(performance per mm2),同时提供了多种全新配置,可以针对给定的性能目标实现更低的功耗和高达35%的带宽降低,这使其成为顶级设计的理想解决方案。 B系列提供了各种不同的配置,从而使我们的客户拥有更广泛的选择。凭借核心部分的可扩展性,它成为移动设备(从高端到入门级)、消费类设备、物联网、微控制器、数字电视(DTV)和汽车等多个市场的终极解决方案。此外,全新的多核架构使IMG BXT产品能够达到数据中心的性能水平,这对于当前的GPU IP而言,是一种独一无二的能力。 B系列中还包括IMG BXS产品,这是首批符合ISO 26262标准的GPU内核,可以为汽车领域提供各种选择:从小型的安全备份内核,到可用于先进驾驶辅助系统(ADAS)和高性能自动驾驶的高计算力内核。 Imagination Technologies首席产品官Chris Porthouse说道:“我们在多核架构中采用了自己最佳的高性能、低功耗内核,并整合了创新性的分散管理方法,从而可以提供高效的扩展特性,并且可与诸如小芯片(chiplet)架构等行业趋势相兼容。这使我们能够提供以前的GPU IP所不能提供的一系列性能水平和配置。” Imagination Technologies首席执行官Simon Beresford-Wylie表示:“IMG B系列为我们的客户提供了更多选择。它建立在大量投资及A系列技术优势的基础上,同时增加了多核技术,以惊人的33种全新配置扩展了Imagination的GPU产品系列。凭借B系列产品,我们相信Imagination可以为每个人提供最佳的GPU,无论他们有何种需求。” IMG B系列现已可提供授权,并且每个产品系列都已有厂商率先获得了授权。 先进的多核架构 全新的多核架构已经针对BXT和BXM内核的每个产品系列进行了优化,利用多个主核的扩展特性实现了GPU内核的多核扩展。多核架构结合了所有内核的能力,可以为单个应用提供最大化的性能,或者根据需要支持不同内核去运行独立的应用。 BXE内核提供了主核-次核的扩展模式,这是一种面积优化的解决方案,通过单个GPU内核提供了高性能,同时可以利用我们的HyperLane技术进行多任务处理。 BXS汽车GPU内核也利用了多主核可扩展的特性,来支持性能扩展,以及跨多个内核进行安全检查,以确保正确运行。 最佳的图像压缩技术 IMG B系列还使用了IMGIC技术,这是市场上最先进的图像压缩技术,可为我们的客户提供节省带宽的新选择。它提供了多达四种压缩等级:从像素完全无损模式,到可确保4:1或更佳压缩率的带宽极省模式。这为SoC设计人员提供了更高的灵活性,以优化性能或降低系统成本,同时保持出色的用户体验。IMGIC技术可以兼容B系列中的所有内核,这使得即便是最小的内核,也能够拥有Imagination行业领先的图像压缩技术优势。 IMG B系列内核 IMG B系列GPU拥有四个产品系列,可以针对特定的市场需求提供专业的内核: · IMG BXE:实现绚丽的高清显示——凭借一系列专门针对用户界面(UI)渲染和入门级游戏设计的GPU内核,BXE系列每个时钟周期可以处理从1个像素到高达16个像素,从而可支持从720p到8K的分辨率。与上一代内核相比,BXE实现了多达25%的面积缩减,同时其填充率密度高达竞品的2.5倍。 · IMG BXM:难以置信的图形处理体验——一系列性能高效的内核在紧凑的硅面积上实现了填充率和计算能力的最佳平衡,可以为中档移动端游戏以及用于数字电视和其他市场的复杂UI解决方案提供支持。 · IMG BXT:前所未有的性能——可以为从手持设备到数据中心等现实世界的应用提供难以置信的高性能。该旗舰款B系列GPU是一个四核部件,可以提供6 TFLOPS的性能,每秒可处理192 Gigapixel(十亿像素),拥有24 TOPS(每秒万亿次计算)的人工智能(AI)算力,同时可提供行业最高的性能密度。 · IMG BXS:面向未来的汽车GPU——BXS系列是符合ISO 26262标准的GPU,这使其成为迄今为止所开发的最先进的汽车GPU IP内核。BXS提供了一个完整的产品系列,从入门级到高级的产品,可为下一代人机界面(HMI)、UI显示、信息娱乐系统、数字驾舱、环绕视图提供解决方案,再到高计算能力的配置,则可支持自动驾驶和ADAS。

    时间:2020-10-13 关键词: 多核技术 imagination 图形处理器

  • Imagination推出汽车行业最先进的XS图形处理器(GPU)知识产权(IP)产品

    英国伦敦,2020年7月8日–Imagination Technologies宣布推出面向汽车领域的XS图形处理器(GPU)产品系列,可实现先进驾驶辅助系统(ADAS)加速和安全关键图形处理功能。XS是迄今为止所开发的最先进的汽车GPU知识产权(IP),并且是业界首款符合ISO 26262标准的可授权IP,该标准旨在解决汽车行业中存在的功能安全风险。 全景环视、数字仪表盘和ADAS等下一代车载系统都需要安全关键图形处理和计算功能。XS的设计采用了一种新型安全架构,该架构具有独特的计算和图形处理机制,对关键工作负载性能的提升可高达2倍,从而实现丰富、高性能且具备功能安全性的图形处理能力。 XS GPU的主要特性包括: · ADAS计算加速:XS产品系列专门针对ADAS加速进行了优化,可提供高性能且具备功能安全性的计算能力。 · 安全关键图形处理:XS是业界首个专为安全关键图形处理应用而设计的GPU产品系列,在这些应用中GPU负责数字仪表盘、全景环绕和摄像系统等关键任务。 · ISO 26262流程一致性:XS是汽车行业首款符合ISO 26262标准的GPU IP。整车厂(OEM)、一级供应商(Tier 1)和半导体供应商现在可以深具信心地将符合ISO 26262标准的IP集成至其产品中。 随着汽车系统变得越来越复杂,对功能安全的要求也越来越高。新型安全架构包含了正在申请专利的技术,该技术使Imagination能够验证和确保GPU数据的正确执行和传输。除锁步(lockstep)机制外,XS还包括硬件机制,可以在计算和图形处理功能上执行安全关键工作负载,同时实现性能最大化。 ABI Research首席分析师James Hodgson表示:“Imagination重新设计了其GPU,使其在各个层面都具备安全性,并创建了定制化内核以满足汽车市场的需求,尤其是ADAS的需求。该架构采用了先进的设计,除虚拟化等现有功能外,还具备全新的功能和安全机制,例如分块区域保护(Tile Region Protection)。至关重要的是,这些功能都集成在硬件中,因此可以在性能不受损的同时发挥这些功能。对于汽车GPU和自动驾驶汽车而言,这是向前迈出的重要一步。” Imagination日前宣布,公司在成功通过HORIBA MIRA对其功能安全管理系统进行的审查之后,已获得ISO 26262流程一致性认证声明。此外,Imagination还宣布,公司已为其汽车GPU开发了OpenGL®安全关键(Safety-Critical)2.0驱动程序,从而使其客户可以在安全关键型应用中受益于GPU加速。 Imagination Technologies汽车业务资深总监Jamie Broome说道:“我们的GPU因其具备高性能、高可靠性和独特的功能,在汽车市场中被多次选用。例如我们备受赞誉的硬件虚拟化解决方案,其支持在同一个GPU上运行多个屏幕、多个操作系统和多个应用程序,而且不会出现性能损失。XS的推出代表着我们在汽车领域实现了一次阶跃式进步,它也为下一代汽车系统级芯片(SoC)定义了新的基准。凭借我们符合ISO 26262标准的GPU和软件驱动程序,整车厂和一级供应商可以充分相信,通过把我们的技术集成至他们的设计中,可使他们快速且经济高效地构建具备功能安全性的SoC。” Imagination是领先的GPU供应商,其GPU可用于多种汽车SoC,在汽车领域的市场份额已超过50%,实现了数字仪表盘、全景环视和信息娱乐系统等车载应用。 了解更多关于XS的信息,请注册参加我们的网络研讨会。 Imagination的XS GPU产品系列现已可提供授权。

    时间:2020-07-09 关键词: GPU xs 图形处理器

  • Radeon Pro W5500X图形处理器,两种版本可选

    Radeon Pro W5500X图形处理器,两种版本可选

    在这篇文章中,小编将为大家带来Radeon Pro W5500X图形处理器的相关报道,一起来了解下吧。 新的Radeon Pro W5500X图形处理器拥有8GB GDDR6内存,,基于AMD的RDNA架构,单精度计算量可以达到5.6TFLOPS,11.2TFLOPS的半精度计算,最多支持四个4K显示器、一个5K显示器或者一个Pro Display XDR。Radeon Pro W5500X还可以作为独立的半高MPX模块购买,价格为600美元。至于W5700X,单精度计算量可以达到9.5TFLOPS,1/2双精度计算量593.8GFLOPS,16GB显存。 全新的Mac Pro工作站是苹果去年推出的迭代产品,面向专业用户,提供塔式和机架两种版本,起步配置为8核Intel Xeon W处理器,32GB DDR4 ECC四通道内存,加Radeon Pro 580X显卡等等配置。 以上便是小编此次带来的全部内容,十分感谢大家的耐心阅读,想要了解更多相关内容,或者更多精彩内容,请一定关注我们网站哦。

    时间:2020-07-04 关键词: 苹果 w5500x 图形处理器

  • 计算机图形学年鉴:研究现状、应用和未来

    计算机图形学年鉴:研究现状、应用和未来

    计算机图形学是支持各种影视特效、三维动画影片、计算机游戏、虚拟现实以及大家手机上各种照片视频美化特效背后的技术基础,在本文中,微软亚洲研究院网络图形组深入解释了图形学的现状、发展和未来。 谈及“计算机图形学”,可能很多人会觉得很有距离感,或者和计算机视觉、图像处理等学科混淆。但是,如果告诉大家图形学技术是支持各种影视特效、三维动画影片、计算机游戏、虚拟现实以及大家手机上各种照片视频美化特效背后的技术基础,相信大家都不会再觉得陌生。 在计算机诞生后,如何在计算机中有效地表达、处理以及显示三维信息,很快变成了计算机应用研究中的一个重要问题。针对这一需求,计算机图形学在二十世纪六十年代应运而生。在过去的几十年中,计算机图形学得到了长足的发展,并深深地影响了很多产业的发展和人们的生活、工作和娱乐方式。 在硬件上,图形学的发展催生了专用图形处理器GPU(graphics processing unit)的产生与普及。在软件上,图形学的基本绘制流水线已成为操作系统的一部分,为各种计算机平台提供显示和图形处理。应用上,图形学催生了影视特效、三维动画影片、数据可视化、计算机游戏、虚拟现实、计算机辅助设计和制造等一系列产业,并为这些产业的发展提供了核心技术和算法支持。 作为一个计算机应用学科,计算机图形学的内涵和外延在过去几十年里也在不断地演进和扩展。如果我们回顾计算机图形学年会ACMSIGGRAPH上过去十几年发表的论文,一方面会惊叹其中纷杂精彩的研究题目和每篇文章作者的奇思妙想,另一方面也难免感到有些迷失,似乎图形学仅仅是在不断追求新奇和炫目的视觉效果。这是在一个快速发展的应用学科中很多刚入门的学者都会有的困惑。 图形学研究的核心是什么?推动图形学发展的动力是什么?未来,随着计算机图形学的进一步发展,哪些应用场景将呼之欲出?伴随着这些新的应用场景、需求的出现,我们面临的技术挑战又是怎样的?在这篇文章中,我们试着对图形学的现状、发展和未来做一些思考,并尝试一一回答这些问题。 计算机图形学研究与应用现状 图形学的核心科学问题是在计算机中有效的表达和处理三维世界的各种属性。图形学所处理的三维信息既包括物理真实世界中的三维信息,也包含我们人类大脑通过想象产生的虚拟的三维信息。计算机图形作为一个中介,提供了这两个世界在计算机中的一个共同的表达和信息交流渠道。 在计算机图形学诞生之前,物理学家和数学家已经对真实三维世界进行了长期的研究,把我们观察到的世界有效的解构为核心的一些物理量和他们之间相互作用的规律。如图1所示,传统的图形学受物理学和数学启发,将三维对象分解为几何、表观、行为或者动态三种属性。其中几何描述三维对象的几何形状;表观描述三维对象的材料光照属性以及材料如何和光相互作用;行为则表达了一个三维对象的动态特性从而决定了对象的运动和其他物体的交互行为。 在这个基础上,针对不同对象特性和应用要求的不同,图形学研究中具体的三维对象又可以大致分为物体、人(包括类人的角色character)以及环境三部分。 针对这些三维对象的不同三维信息(几何、表观、行为),我们把图形学的研究方向和技术也可以大致分为三个大类: 一是获取和建模。主要研究如何有效地构建、编辑、处理不同的三维信息在计算机中的表达,以及如何从真实世界中有效地获取相应的三维信息。这既包括三维几何建模和几何处理这一研究方向,也包含材质和光照建模、人体建模、动作捕捉这些研究课题。 二是理解和认知。主要研究如何识别、分析并抽取三维信息中对应的语义和结构信息。这个方向有很多图形学和计算机视觉共同感兴趣的研究课题,如三维物体识别、检索、场景识别、分割以及人体姿态识别跟踪、人脸表情识别跟踪等。 三是模拟和交互。主要研究如何处理和模拟不同三维对象之间的相互作用和交互过程。这既包含流体模拟和物理仿真,也包含绘制、人体动画、人脸动画等方面的研究。 在应用层面,图1中最外环黑色字展示了计算机图形学的经典应用场景,图形学的早期发展来源于使用计算机设计真实世界产品的需求,如汽车外形。因此,计算机辅助设计和制造成为了计算机图形学在真实世界的核心应用场景。随着图形学的发展,创建虚拟场景实现人类的想象,成为了图形学在虚拟世界的核心应用场景,产生了游戏、影视特效等应用场景。随着相机的普及,图片和视频的编辑也成为图形学中一个重要的横跨虚拟世界和真实世界的重要应用。 有了上面的”洋葱“结构,我们就可以对每一个图形学论文或者研究热点,通过其研究对象、三维属性和所属技术对其进行归类,比如绘制(Rendering)算法的研究是对场景的表观属性进行模拟和交互的研究:算法通过研究光与环境的交互作用,生成真实感的图像。 对计算机图形学发展模式的回顾和思考 回顾和思考过去几十年来图形学的发展,我们发现图形学研究的核心对象和科学问题并没有发生根本性的变化。但是技术和三维信息的表达却在不断的发展更新。而这些技术的发展往往发端于新的硬件设备的出现和普及。 如图2所示,新的硬件设备的出现一方面往往引发了新的应用需求,或使得某个应用的技术成本急剧的下降。另一方面带来了新的数据和技术问题,从而引发了新的研究方向和技术,推动了对图形对象表达的更新和研究方法的更新。而这些技术的发展又反过来进一步推动了硬件的发展和应用的普及,从而带动整个领域的快速迭代发展。光栅化图形显示技术的出现,GPU图形学流水线的提出,可编程GPU的出现,三维扫描仪的出现,图像采集设备的出现和普及,是过去几十年图形学发展几次浪潮的背后缘起。 这里我们以基于图像的绘制和光场表达的出现为例对上述的发展模式做一个分析。传统图形学中,所有的研究对象和属性基本是基于物理表达。在这一表达下,几何和物理过程成为了各个研究方向的基础。 从20世纪后期开始,随着图像捕捉设备的快速发展,人们有机会对真实世界进行大量的图像采集。这些大量的图像一方面需要研究者研发有效的图像编辑,分析和解构技术。另一方面,也使得研究者开始探索是否可以抛开背后的物理机制,直接基于三维世界的这些观察建立新的表达。由此催生了基于全光函数的表达和基于图像的绘制技术。 这里,全光函数是一个高维函数,记录了在一个三维场景的任意一点(x,y,z)沿任给方向(θ,Φ),在某一时间t,在每一波长λ上的光强。在真实世界中,虽然每种我们可以观察到的视觉现象都可以解构为以上的三维基本属性及其相互作用,但是我们的人眼和图像传感器可以观测到的却是光线,即全光函数(PlenopticFuncTIon)(x,y,z,θ,Φ,t,λ)的一个采样。 图像的表达和绘制技术的进步,催生了计算摄像学的发展,反过来促进了新的摄像设备的诞生和发展,并进一步促进了图形学中对全光表达函数的采样与重构、分析与编辑、认知与理解三个方向的研究。这一迭代发展过程,从根本上将三维信息的表达由基于物理的表达推广到新的基于观测的表达,从而拓展了研究方法,并将图形学的研究领域从传统三维几何扩展到了图像和视频,并且和计算机视觉、图像和视频处理、光学成像等学科产生了新的交叉。 计算机图形学的未来:设备和硬件 展望未来,我们认为,上述图形学发展的模式还会继续。硬件的发展和革新,会不断促进了新的图形技术和应用产生和迭代发展。在这个过程中,图形学也在不断地结合计算机视觉、光学、信号处理与机器学习等学科的最新研究成果,来解决图形学中的研究问题。下面,我们就从各个层面对计算机图形学的未来进行一些大胆的展望。 在硬件设备方面,我们认为下面的这些硬件会迎来新的发展并带来图形学技术和应用的革命性进展。 三维显示。提供高分辨率,高动态范围的全三维显示。包括近眼的光场显示设备,或者多焦平面显示设备。或者远场的全沉浸式的光场显示设备。 深度相机。提供和现有的彩色相机相匹配的高分辨率,高帧率,低功耗,低噪声的深度相机。 多自由度机械手和类人软体机器人装置。提供低成本,高精度,编程可控的多自由度机械手以及具有类人外形的软体机器人。 三维打印机。提供同时支持多种打印材料,高精度,低价格,快速的三维打印。 IOT与传感器。提供小型、省电、低成本的能测量真实世界各种物理参数的传感器与实时的数据收集。 力学捕捉与反馈设备。提供精确的,具有高空间分辨率和力分辨率的触觉输入输出。 计算机图形学的未来:应用场景 随着上述硬件设备的发展和普及,以及计算机视觉和机器学习技术的进步,图形学的应用场景将得到更大的扩展。如图1黄色高亮部分所示,面向真实世界,机器人和三维打印将成为新的应用场景。面向虚拟世界、虚拟现实,混合可视媒体将成为新兴的应用场景,带给人们更好的娱乐体验,释放人类的想象力。在真实世界和虚拟世界之间,增强现实将虚拟信息融合进真实世界,并增强人类在真实世界的体验;数字化孪生则产生真实世界在虚拟世界的镜像,方便我们更好地管理规划真实世界。下面,我们将讨论每个应用场景,和它们对相关图形学技术的需求。 机器人 随着机械硬件,传感器设备以及人工智能技术的进步,多用途的机器人将逐渐被应用到不同的真实世界场景中,自动化或半自动化地帮助人类完成各种任务。自动驾驶可以被认为是这一场景中一个应用。机器人为了在不断变化的三维场景中完成给定任务,不仅需要实时重建不断变化的三维场景的几何,还需要识别真实场景中的物体的类别和物理特性,从而预测物体的运动并决定自己的运动。同时,机器人自身也需要实时的动态模拟技术来准确地规划和预测自己的运动,和环境中物体进行交互,从而最终完成任务。 三维打印 三维打印硬件的发展使得生产复杂几何形状和不同几何形状的成本显著下降。和传统的减材制造不同,三维打印可以精确地控制三维形体中每个体素的材质构成,从而可以产生更为丰富的设计和功能。为了支持三维打印,图形学技术需要将设计与物理模拟更好地结合在一起,提供一体化的端到端解决方案。通过高效的计算模拟和逆向优化,帮助设计师和制造者快速地设计产品的三维形状和内部材质分布,从而达到所需要的功能。 虚拟现实 虚拟现实技术作为一类新的媒体,提供了全新的沉浸式体验,在教育、游戏等方面具有重要的应用。为了达到更好的虚拟现实体验,我们不仅需要图形学渲染技术的进步,也需要更好的物理模拟技术和交互技术,提供视觉外其他物理特性,如触觉和听觉的建模和实时渲染。更为根本的是,如何更加快速地生成高质量的三维虚拟内容,以及如何在虚拟环境中和不同的虚拟内容进行有效的交互,是虚拟现实应用得以成功和普及的关键。 增强现实 增强现实和混合现实系统通过将虚拟三维内容叠加在真实场景中,从而实现了虚拟信息和真实世界的融合,提高了人们在真实世界的工作效率,提供了个性化的环境和更好的生活体验。某种程度上,可以将增强现实理解为新一代的精确GPS定位系统。它可以提供在场景中的实时精确三维定位和实时的三维地图构建服务。为了实现这一目标,三维场景的实时捕捉建模(包括几何、表观、物理特性和行为),分析和理解将成为这一应用场景背后的核心技术。 数字化孪生 和增强现实将虚拟信息叠加在真实世界相反,数字化孪生尝试建立真实世界在计算机中的虚拟镜像,并实时地记录预测真实世界的所有变化。结合IoT和传感器技术的发展,数字化孪生技术将提供真实环境的完整数字化,从而实现对真实世界的高效信息分析和控制。同时,数字化孪生为将为机器学习技术提供更多的数据和训练环境。为实现这一目标,我们需要研究更加有效的三维建模和捕捉技术,以及实时的物理模拟技术。 计算机图形学的未来:技术挑战 上文中,我们看到了未来计算机图形学的应用场景,并讨论了每个应用场景所需要的关键技术。这些需求也为图形学的发展提出了一系列的研究问题与挑战: 高效高质量的三维内容创作系统 虽然已有的图形学算法和系统可以让艺术家创作出具有高度真实感的虚拟环境和栩栩如生的人物及其动态,这一过程仍然需要大量时间、专业技巧以及昂贵复杂的设备。发展高效高质量的三维内容生成算法和创作系统是图形学研究中一个永恒的任务,也是虚拟现实、数字化孪生以及新一代的混合媒体等应用场景得以实现的关键技术。 为了实现这个目标,我们需要在以下三个方面的研究取得突破:一是研发新一代的捕捉硬件系统和算法,使得普通用户越来越容易从真实世界中快速地捕捉所需要的三维内容;二是利用三维内容属性的本征属性,从用户的少量输入如草图、照片、视频中构建符合用户需求的三维内容;三是利用机器学习技术,如对抗神经网络(GAN),直接从已有的大量数据中生成新的三维内容。 三维世界的实时理解与分析 实时地对我们所处的三维世界进行理解,识别出场景中物体和人,推断物体和人之间的空间关系与约束,以及人的动作,是增强现实和机器人应用场景中的核心技术。 在计算机视觉领域,由于大量标注数据的出现和深度学习技术的发展,图像和视频的理解与分析工作取得了飞速的发展。但是三维世界的理解和分析工作仍旧处于起始阶段。 一方面,三维内容由于获取困难,可使用的标注数据少,数据噪声大。另一方面,三维数据表达多样、维度更高。这些特点也对三维世界的分析理解算法的实时性、鲁棒性提出了更大的挑战。如何研发适合三维内容的通用表达和机器学习算法,结合已有的图片和视频信息进行三维世界的理解和分析也是这一领域未来研究的重点。 大规模可扩展的实时模拟技术 在真实世界中,不同物体的运动和相互作用构成了世界复杂的动态。而在人类社会中,人的行为和交互则更为复杂。模拟这些复杂的动态和交互是图形学中一个重要任务,也是三维打印、机器人、数字化孪生应用背后的重要技术支撑。现有的图形学技术发展了一系列快速的技术来模拟环境、物体和人的运动和复杂交互。然而,这些算法仍然存在复杂性高、计算不稳定、收敛慢的问题。寻找适用于不同场景的更为通用的模拟算法,发展快速数值解法,将深度学习技术用来加速优化求解,以及利用增强学习技术进行运动的规划都是这一领域下一阶段的研究重点。 人机交互与图形学的深度结合 随着新型传感器、穿戴设备、VR/AR/MR设备的迅猛发展,人们有着更多的方式与机器打交道。这些新的输入输出方式也为图形学研究带来新的挑战。如何使用多元异构的数字输入信息来指导生成符合用户期望的三维影像与世界,如何针对不同设备设计便捷的输入方式与交互手段,如何协同多用户的操作并实时提供数字上和物理上的真实反馈、如何动态调整已有算法以适配用户的不断更新的个性化要求等问题,都值得图形学研究者与从业者积极探讨与深入研究。 计算机图形学的未来:研究趋势 通过上述内容,我们可以很容易地看到,每个新的图形学应用场景都不可能由单一的一个图形学技术来解决。为此,我们不仅需要在每个研究方向上进一步努力,更需要借鉴最新的机器学习技术和计算机视觉技术,以及本领域的其他研究方向的技术和算法,才能最终解决问题。 从基于物理和观察的表达到基于学习的本征表达 现有的图形学可以对单个三维对象的三维属性进行有效的表达和处理。但是对于所有的三维对象构成的三维属性空间,例如所有特定人造物体(椅子)的三维形状空间,所有真实世界表面材质的空间,或一个场景中所有光照传输路径的空间,我们仍然缺乏有效的研究和表达。随着数据的增多和机器学习算法的应用,这方面的研究慢慢成为可能。这些研究会导致三维信息新的表达形式的出现,即基于机器学习的三维形状、材质、行为等属性空间的本征表达。这一表达会与传统的基于物理的表达与基于观测的表达共存。这一研究将成为图形学的一个基础理论问题,并对我们研发高效的三维内容建模、模拟和识别理解算法都具有极为重要的意义。基于这一全新的表达,在图形学研究中,如何有效的结合这一全新的表达和已有的表达,如何形成不同表达间的映射与转换,也会成为一个重要的研究问题。 在技术层,基于这一新的表达,机器学习技术将利用三维数据的本征属性而不是物理属性来解决三维内容捕捉、生成、处理和模拟问题。如何将机器学习技术有效地用于高维的三维图形数据,结合用户的交互输入,是目前研究的热点。进一步将原有基于物理的方法与机器学习的方法有效结合,充分利用两者的优势,也是图形学研究中一个广受关注和需要解决的重要问题。 从属性的单一表达到属性的统一表达与融合 现有的图形学对不同的三维属性(形状、表观、动态)具有各自单独的表达和不同的处理方法。然而,一个三维对象(如物体)的表观、形状和行为并不是任意组合的,属性之间也具有一定的约束和相关性。比如,一个木制的椅子由于材质的限制,其椅腿的粗细和细节不可能是任意的。而它的表观、重量和可能的运动特性也与木头材质属性紧密相关。如何得到所有三维属性更为简洁一致的表达是图形学研究中的一个基础问题。 在技术和应用层面,针对每个特定的应用和问题我们研发了可用的算法和解决方案。然而,这些算法或工具集是彼此孤立的。在目前的实际应用中,我们需要具有领域知识的人将这些算法放在一起,辅以大量的人工和反复使用,调整修改每个工具的结果,反复迭代来达到最终的目标。举例来说,为了设计一个像章鱼爪子的软体变形机械手,设计者可能需要先用造型软件设计机器手外形,然后运行仿真模拟软件计算力学特性。设计好后,再运行三维打印软件进行制造。制造好以后,进行实际测试。由于每个模块不知道最终的目标,由此带来的误差需要人工反复修改并重复这一过程。 为此,我们需要将不同的技术方案,如几何设计、仿真模拟、三维打印等有机地集成到一起,将每一步的约束引入到其他算法中,并允许所有的算法在统一的逆向优化反馈框架下进行自动迭代,快速地生成满足设计要求的结果。在最近几年,越来越多的研究尝试将不同的技术融合在一起,形成一个端到端的解决方案,这也成为了图形学研究的一个趋势。 从基础工具集到智能系统的演进 图形学技术的一个重要目标是将用户的抽象设计意图变成具体的三维对象。设计的最终目的是满足一定的物理功能或故事情节的视觉展现。在功能和情节的约束下,最终得到美观、成本合理的物理设计和视觉作品。目前,针对每个环节,已有的图形学技术实现了基本的工具,可以帮助用户完成形状、表观、动态等底层三维属性特性的生成、编辑,以及物理特性的模拟。然而,由于图形学的属性和对象表达缺乏对物理功能和语义的有效描述,使得现有的图形学技术工具集无法帮助用户有效的将高层抽象的功能和情节描述转化为具体的三维属性和表达。随着机器学习的引入,图形学技术的集成和表达的融合,图形学研究将慢慢从三维信息的基础设计和表达工具向高层语义的目标进发,最终实现从用户的高层语义描述自动生成三维内容的最终目标。 放眼未来,随着计算机图形学的进一步发展,计算机辅助设计和制造技术的进步,带有传感器的三维打印的个性化产品和机器人将被广泛应用于人类的实际生活和现实世界中。而真实环境的数据化孪生也将在计算机中实时地监控着真实环境的动态变化,规划协调机器人高效地完成不同任务。而在虚拟世界中,随着内容创作工具的进步,每个人的艺术天分都可以得到充分发挥,从而自由地创建自己的虚拟世界、游戏和虚拟化身。随着下一代的虚拟现实设备和增强现实设备的出现,真实和虚拟的世界会得到更好的融合,新一代的人类将不需要再区分真实世界和虚拟世界。人、计算机(机器人和虚拟世界)和真实的物理世界将和谐高效地融合在一起,带给人类一个超现实的世界。 本文作者:微软亚洲研究院网络图形组

    时间:2020-06-15 关键词: 虚拟现实 图形处理器

  • 《机器人与智能系统》第六期正式出刊

    《机器人与智能系统》第六期正式出刊

    由深圳市机器人协会、中国传动网负责编撰的《机器人与智能系统》第六期正式出刊,该杂志一直以来聚焦机器人产业,致力智能系统技术。本期重点关注:明星企业创始人谈如何让机器人更实用、更好用;机器视觉助推OLED产业转型升级;AI时代,养老照护服务机器人的创新探索;基于图形处理器加速Wave-CAIPI重建的改进共轭梯度法等。 如需阅读杂志完整版,欢迎点击链接下载https://pan.baidu.com/s/1HXZsxsOs_3GQ7m6LhU-fjA

    时间:2020-05-11 关键词: 机器人 机器视觉 智能系统 图形处理器

  • 华为三星已对高通产生威胁

    据彭博社9月11日报道,集成了应用处理器和第五代无线调制解调器的系统芯片,与使用两个独立芯片的现有解决方案相比,会显著降低对空间和电量的要求。高通公司在2020年的路线图上有这样的型号,但过去一周,三星宣布计划在2019年底为量产这种系统芯片,而华为的速度更快,承诺在9月19日推出的Mate30 Pro智能手机上采用其最先进的处理器。 报道指出,华为子公司海思半导体的麒麟990 5G由台积电生产,在指甲大小的空间里集成了103亿个晶体管。它包括一个图形处理器、一个八核CPU和最重要的5G调制解调器,以及用于加速人工智能任务的专用神经网络处理器。 在华为的柏林产品发布活动上,华为常务董事、消费者业务CEO余承东展示了高端990 5G在中国移动网络实现超过1.7Gbps的真实下载速度。这足以在几秒钟内下载高清电影和要求极高的3D游戏。 彭博社称,三星Exynos 980的策略是瞄准中档市场。除了5G功能,这种新的芯片还集成了802.11ax的快速Wi-Fi以及三星自己的NPU。它运行应用程序和游戏的速度不会像旗舰芯片那么快,但应该能帮助这家韩国公司在高通明年推出带有5G功能的新芯片之前在更主流市场中分一杯羹。 三星对这块移动市场的重视也在本月推出Galaxy A90上有所体现,这款手机将成为最早销售的5G中档手机之一。 至于高通公司,它承诺在2020年推出5G产品组合,涵盖所有的价位和移动设备类型,但这位全球首屈一指的“移动芯片设计师”发现,眼下,自己已经落后于速度更快的竞争对手。

    时间:2019-09-13 关键词: 调制解调器 电源资讯 图形处理器

  • 英伟达将停止支持开普勒笔记本显卡,台式机不受影响!

    英伟达今日在官网上发布了公告,宣布了“开普勒”(Kepler)这一经典架构显卡在笔记本平台上的终结。     英伟达将在2020年4月起,停止支持“开普勒”架构笔记本显卡,台式机显卡则不受影响。这意味着,自明年4月起,“开普勒”笔记本显卡将无法再收到安全更新。 “开普勒”是英伟达在2012年4月发布的图形处理器微架构的代号,是“费米”(Fermi)架构的继承者,大多数GeForce 600系列、GeForce 700系列,以及部分GeForce 800系列显卡都是基于“开普勒”架构的。 根据英伟达官网提供的列表,以下GPU将在上述时间之后,将无法再获得安全更新: NVIDIA GeForce 710A NVIDIA GeForce 810M NVIDIA GeForce 820M NVIDIA GeForce 825M NVIDIA GeForce 910M NVIDIA GeForce 920M NVIDIA GeForce GT 640M NVIDIA GeForce GT 640M NVIDIA GeForce GT 640M LE NVIDIA GeForce GT 640M LE NVIDIA GeForce GT 645M NVIDIA GeForce GT 650M NVIDIA GeForce GT 650M NVIDIA GeForce GT 720M NVIDIA GeForce GT 730M NVIDIA GeForce GT 730M NVIDIA GeForce GT 730M NVIDIA GeForce GT 735M NVIDIA GeForce GT 740M NVIDIA GeForce GT 740M NVIDIA GeForce GT 745M NVIDIA GeForce GT 745M NVIDIA GeForce GT 750M NVIDIA GeForce GT 750M NVIDIA GeForce GT 755M NVIDIA GeForce GT 755M NVIDIA GeForce GTX 660M NVIDIA GeForce GTX 660M NVIDIA GeForce GTX 670MX NVIDIA GeForce GTX 675MX NVIDIA GeForce GTX 675MX NVIDIA GeForce GTX 680M NVIDIA GeForce GTX 680MX NVIDIA GeForce GTX 760M NVIDIA GeForce GTX 765M NVIDIA GeForce GTX 765M NVIDIA GeForce GTX 770M NVIDIA GeForce GTX 775M NVIDIA GeForce GTX 780M NVIDIA GeForce GTX 780M NVIDIA GeForce GTX 860M NVIDIA GeForce GTX 870M NVIDIA GeForce GTX 880M

    时间:2019-03-09 关键词: 英伟达 显卡 图形处理器

  • 不支持光线追踪!GTX 1660 Ti PCB照片曝光

    今日外媒VideoCardz曝光了几张GTX 1660 Ti核心的照片,核心代号TU116-400,这是一个全新的型号。     早先的爆料信息显示,GTX 1660系列显卡将将采用TU116图形处理器,不支持光线追踪。此次曝光的照片上显示,显卡的核心面积比支持光线追踪的TU106核心面积小了不少。 VideoCardZ也发出了微星GTX 1660 Ti Ventus的PCB拆解图。拆解图显示,显卡的供电部分设计在核心左侧,采用六相供电,应该还需要8 Pin外接供电。         GTX 1660 Ti将于2月22日正式发布,非Ti版本的GTX 1660预计在下个月到来。

    时间:2019-02-15 关键词: TI PCB gtx 1660 图形处理器

  • Imagination考虑整体出售公司?

    Imagination考虑整体出售公司?

    据外媒报道,半导体设计公司Imagination Tech的年报称,苹果的一项声明“未经证实”,“令人深感遗憾”。该公司的GPU(图形处理器)设计已授权给苹果iPhone和iPad使用。 该公司称,在2017财年,该公司开始盈利,而且有了清晰的发展战略。但是,苹果的一句话让该公司一下子跌入了万丈深渊。苹果警告称,它计划在未来两年内更换其GPU设计,届时将不再向Imagination Tech公司支付授权费用。 “在过去一年中,我们的管理团队做得很棒,让公司实现了扭亏为盈,而且有了清晰的发展战略。令人非常遗憾的是,这样的进步受到了苹果立场的严重冲击。我们改善了财务表现,实现了盈利,并开始产生大量现金。但是,苹果的未经证实的说法及其导致的纠纷,迫使我们偏离了既定的航道。”Imagination Tech公司说。 该公司宣称,苹果不可能在不侵犯它专利的情况下设计出针对iOS设备的GPU。 Imagination Tech公司的股价狂跌了70%。上个月,它宣称正在考虑整体出售公司。此前,已有人提出以优厚的条件收购该公司的两个部门。它认为,整体出售公司是最好的选择。 “遗憾的是,经过一番努力,在本来快要实现我们的战略的时候,我们却不得不考虑出售公司了。我们相信,在与苹果的纠纷中,这是我们维护投资者利益,确保公司在未来继续发展壮大的最好方式。” 该公司与苹果正在处理相互之间的纠纷,目前尚未取得任何进展。 目前,苹果每部iPhone给Imagination Tech公司支付30美分授权费。随着协议快要到期,苹果每部设备支付的费用可能会减到10美分,直到最后完全停止付费。Imagination Tech公司依靠苹果创造了其至少一半的营收。

    时间:2017-10-23 关键词: GPU 行业资讯 imagination 图形处理器

  • 和苹果谈崩后市值增发三分之二 Imagination寻求出售

    和苹果谈崩后市值增发三分之二 Imagination寻求出售

    4月份时有报道指出,苹果已经知会图形芯片技术公司 Imagination Technologies,将在两年内放弃使用后者的一切技术,包括专利、知产、保密信息等等。随后 Imagination Technologies 证实苹果“正在开发独立的图形处理器,以便控制自己的产品,降低未来对 Imagination Technologies 技术的依赖”。下面就随嵌入式小编一起来了解一下相关内容吧。   和苹果谈崩后市值增发三分之二 Imagination寻求出售 在这一消息传出后,该公司股价当天大跌近 70%,市值蒸发三分之二。这也是 Imagination Technologies 十年来股价变动最大的一次。在此之前,该公司的市值为 7.54 亿英镑。 但 Imagination Technologies 被苹果抛弃后“最糟糕的日子”还未到头。今日据《纽约时报》报道,Imagination Technologies 在与其最大客户苹果公司的这场分手大戏中折损了近 70% 的市值之后,于今日宣布,公司目前正在寻求出售。 据悉,来自苹果的订单占到了公司总收入的一半左右。Imagination Technologies 表示,过去几个星期内,已经有数个企业表现出了对该公司进行收购的兴趣。因此董事会决定启动公司的收购流程并对潜在竞标者进行初步讨论。

    时间:2017-06-25 关键词: 苹果 行业资讯 imagination 图形处理器

  • 和苹果谈崩后市值增发三分之二 Imagination寻求出售

    和苹果谈崩后市值增发三分之二 Imagination寻求出售

    4月份时有报道指出,苹果已经知会图形芯片技术公司 Imagination Technologies,将在两年内放弃使用后者的一切技术,包括专利、知产、保密信息等等。随后 Imagination Technologies 证实苹果“正在开发独立的图形处理器,以便控制自己的产品,降低未来对 Imagination Technologies 技术的依赖”。   在这一消息传出后,该公司股价当天大跌近 70%,市值蒸发三分之二。这也是 Imagination Technologies 十年来股价变动最大的一次。在此之前,该公司的市值为 7.54 亿英镑。 但 Imagination Technologies 被苹果抛弃后“最糟糕的日子”还未到头。今日据《纽约时报》报道,Imagination Technologies 在与其最大客户苹果公司的这场分手大戏中折损了近 70% 的市值之后,于今日宣布,公司目前正在寻求出售。 据悉,来自苹果的订单占到了公司总收入的一半左右。Imagination Technologies 表示,过去几个星期内,已经有数个企业表现出了对该公司进行收购的兴趣。因此董事会决定启动公司的收购流程并对潜在竞标者进行初步讨论。

    时间:2017-06-23 关键词: 苹果 技术前沿 imagination 图形处理器

  •  IBM 携手 NVIDIA,将 Tesla P100 图形处理器服务推进云服务

    IBM 携手 NVIDIA,将 Tesla P100 图形处理器服务推进云服务

        根据科技网站 ZDNet 的报导,蓝色巨人IBM为了加大云端托管服务的内容,日前宣布推出英伟达 (NVIDIA) 的 Tesla P100 图形处理器(GPU)的服务,以进一步成为在云端运算中提供 Tesla P100 图形处理器服务的第一大云端运算服务提供商。而该项服务预计在 2017 年 5 月份正式上线。 报导指出,IBM 在旗下的云端运算平台上推出 Tesla P100 GPU 服务,借由透过 Nvidia GPU 与服务器的中央处理器(CPU)来一起可以提高应用程序的性能。因此,大型运算数据的工作可以更快、更高效地运行。如此象徵着企业可以透过更迅速、更有效地以 NVIDIA 的加速技术来执行大型运算工作,例如人工智能、深度学习、以及高效能的大数据分析等。 事实上,IBM 和 Nvidia 之间的关系并是新建立的。自 2014 年以来两家公司就一直在合作将最新的 GPU 技术推向云端运算中。过去,蓝色巨人曾于 2015 年在云端运算中部署了 NVIDIA Tesla K80 GPU 的服务,而 2016年则又部署了 Tesla M60 GPU 的服务。 IBM 在一份声明中表示,IBM 是第一个在全球云端运算中提供 Tesla P100 GPU 服务的云端运算提供商。此举可以使得各行业都可以透过 GPU 从大数据里撷取有价值的资料,如医疗保健、金融服务、能源和制造业等行业。而潜在使用案例包括,金融服务行业客户在 IBM Cloud 上使用 GPU 的服务技术,在几秒钟内完成复杂风险计算的运行。而医疗保健公司则可以更快地分析医学图像,能源公司也可以借此找到新方法改进操作。 Tesla P100 在 IBM 的云端运算里的推出,这对 NVIDIA 而言无疑的又是另一项突破。因为 NVIDIA 最初制造的只是游戏图形芯片,后来利用游戏图形芯片经验,将图形处理功能销售到数据中心中,最终则成了深度学习 GPU 的首选制造商。 NVIDIA 之前的在于端运算中的介入,包括为微软 Azure 云提供 NVIDIA GPU 加速器。另外,NVIDIA 也与 Google、亚马逊合作,提供电子商务网络服务。此外,也与中国的阿里巴巴集团也达成过的合作交易。2017 年 3 月,NVIDIA 也宣布与腾讯达成协议,将旗下的 GPU 芯片推至腾讯云当中。

    时间:2017-04-07 关键词: IBM 英伟达 技术前沿 图形处理器

  • 应对下一代移动图形处理的挑战

     GPU市场增长与Mali™ 技术的成功 2006年,图形处理器(GPU)总出货量约为1.35亿,广泛用于智能手机、DTV和平板电脑等多种设备。同年,ARM® 完成对挪威Falanx公司的收购,并获得其移动GPU技术,完成对原有IP技术的扩展。10年后的今天,仅智能手机的全球出货量就已达到15亿台(据ARM内部数据和Gartner数据显示);短短10年时间,ARM Mali技术也已成为全球出货量第一的GPU,2015年总计出货量超过7.5亿。 本文将重点讨论GPU市场、技术、应用案例,以及GPU爆炸式发展背后的深层原因。同时,文章还将简述ARM Mali GPU及其架构在过去10年的演进,并介绍搭载全新Bifrost架构的Mali-G71。   API与制程节点开发 对图形领域而言,2015年振奋人心——全新应用程序接口(API)的出现允许开发商将基础图形硬件发挥至技术允许的最高水平。 同年,Khronos团队的工作引发有关Vulkan的热烈讨论。Vulkan是新一代OpenGL API,为新一代图形API设计量身打造。Vulkan足以满足全部需求,并彻底终结了OpenGL ES和OpenGL作为API各自为政的时代。 Vulkan于2016年2月正式发布,是首款按照开发商需求设计的Khronos API。它由游戏引擎开发商、芯片提供商、IP公司和操作系统供应商共同开发,以期打造兼顾各相关方需求的最佳解决方案。Vulkan API应运而生,采用全新异构系统,不仅内置多线程支持,而且可以最大程度发挥硬件一致性的优势。Vulkan属于底层API,允许开发商自主决定硬件交互方式,并通过底层接入以找到最佳平衡点。 上述特性对虚拟现实(VR)等新兴应用尤为重要,帮助开放商减少延迟,优化图形流水线。   对聚焦GPU运算应用的开发商来说,OpenCL 2的发布是一个重要节点,多项全新理念进一步简化了高性能GPGPU应用的开发流程。虚拟存储共享概念的提出可以说最为关键,允许CPU和GPU之间的虚拟地址共享。与硬件一致性结合后,细粒度缓冲器共享成为现实。该技术简化了实现CPU和GPU工作负载共享所需的开发工作,因为两者间的数据双向传输不再是必要条件。 半导体制造工艺也经历了巨大革新。2014年,台积电与三星推出20纳米工艺节点,标志着平面工艺节点的10年历史终于落幕。2015年,三星在Exynos 7420上使用全新14纳米FinFet技术,台积电紧随其后,推出16纳米FinFet工艺,并搭载于苹果A9芯片。2016年,工艺节点获得进一步完善,成本降低,产量增加。步入2017年, 10纳米工艺节点也不再是梦想。 从GPU的角度看,工艺节点技术的进步对整个行业意义非凡。首先,工艺节点越先进,单位区域(或功耗)的晶体管密度就越大。GPU属于并行处理器,只要架构扩展,性能就会随之提升。然而,先进工艺节点对布线的扩展效果不如晶体管。恰恰相反,Ergo 工艺制程从28纳米优化至14纳米,SoC设计师得以实现更高的晶体管密度,但却不如布线的扩展。这意味着,如果设计10纳米GPU时采用与28纳米同样的方法,设计结果必然会打折扣,因为晶体管和布线各有权衡,不尽相同。设计师常常需要妥协,使IP适应某个节点,这种权衡随着先进工艺节点数量的增加变得愈加重要。 深入探讨高端移动GPU的性能如何继续提高之前,我们需要特别指出GPU性能从2011年到2016年提升了20倍这个有趣的事实。由于手机同时变得更加轻薄,因此该数字并不能代表技术进步的全景,但现代移动设备开发商对性能提升的渴求已经可见一斑。   移动设备开发商不断完善现有用例,开发颠覆性的新用例,以保持创新节奏,并从新一轮的性能升级中获益。 案例开发 随着移动平台的发展,各类传感器层出不穷。凭借飞速提升的系统性能、不断改善的屏幕精度和日益增加的电池寿命,移动设备开发商已经坐拥创新的最佳平台。 增强现实(AR)可以充分挖掘并展现智能手机的强劲性能。AR的原理并不复杂,利用高级摄像头捕捉图像,经过CPU、GPU、ISP、VPU和DPU,最后显示在高清屏幕上。这个过程中,增强内容将覆盖实际影像。根据应用目标的不同,物体识别、方位补偿(使用电子罗盘和/或加速度计)或高级渲染技术都将各有用武之地。 一些人气移动应用让AR不再远在天边,并一举进军大众市场,比如将滤镜叠加在用户脸部,然后生成图片和视频用于分享的Snapchat;以及让用户在真实地点看到动画人物的Pokemon Go。无独有偶,还有一些应用采取了更高级的AR技术,比如将摄像头捕捉与3D物体相结合。这些创新用例层出不穷,并可以用于包括零售和高端游戏在内的各行各业。举个例子,用户可以使用移动设备查看家具是否与硬装搭配,家具巨头宜家就打算在2017年发布AR产品目录。 虚拟现实已经不算新理念了,但其核心技术却仍在经历巨变。硬件设备已经万事俱备,拥有足够强大的性能运行炫目的VR内容;一个适合创新的大规模开发商生态系统也已经形成。这一点在移动平台的体现格外深刻,因为人人都能用,且其移动性自身便是重要优势。与台式机和游戏机不同,移动设备无拘无束。当然,实现这一点需要在设备上安装各类传感器。实际上,VR领域的许多重大突破都是在移动设备上实现的——利用VR技术增强用户体验的云霄飞车就是高性能移动应用的一个典型案例。 尽管推陈出新的颠覆式应用不断刷新智能手机的使用方式,但我们经常会忘记一点现实,最普遍的移动应用情景依然是网页浏览和游戏。近几年,屏幕分辨率和刷新率都得到提升,用户界面(UI)的视觉效果和使用体验也越来越自然。这些优化对GPU提出了更高要求,成为成本导向型市场不小的挑战。 移动设备已经成为最主要的游戏平台,由于移动游戏的便捷性,玩家人数持续增加,并进一步推动游戏数量的上升。从免费的独立游戏到数百万美元投资的工作室游戏,现代玩家有丰富的游戏类型、价格和质量等级可供选择。随着可选游戏数量的上升,视觉效果也得到显著改善。GPU刚刚引入移动设备时,3D游戏简单粗暴,不堪入目。而现在呢?游戏画面丰富多彩,景色怡人,动态感十足,在上一代的手柄游戏机时代都是前所未闻的。   上图是ARM演示团队制作的三张示意图。我们先来看看相对简单(以今天的标准)的3D内容,演示游戏为2010年推出的True Force,运行于2011年款的Galaxy S2。每帧图元16k,片段处理每像素时钟周期3.7次,基于OpenGL ES 2.0。 3年后的2013年,OpenGL ES 3.0正式推出,改善了GPU 对GPU运算的支持(并不是OpenGL ES 3.0 API的主打特色,而随OpenGL ES 3.1正式推出);允许开发商使用更多高级渲染技术。结合基础硬件后,视觉质量显著提升。将Trollheim演示与TrueForce比较一下便可一目了然,前者的复杂性比后者高了不少。TrueForce的每帧图元为16k,而Trollheim为150k,TrueForce的片段处理每像素时钟周期为3.7次,而Trollheim则为16次。 2016年,Vulkan正式推出,API效率大幅提高,与OpenGL ES相比能够以更低的开销帮助开发商更好地发挥硬件性能。当然,硬件本身也快速发展,比较一下Lofoten和Trollheim演示,我们即可清楚地看到复杂度的提升:每帧图元提高了300%,片段复杂度提高了150%。 智能手机设计的挑战与趋势 使用场景的变化仅是一个方面,移动设备本身也经历大幅升级。智能手机市场最初主打旗舰机型,随着智能化程度的不断提高,很多 PC特性已经可以实现,但通讯依旧是其主要功能。然而,过去短短几年间,智能手机用途不断扩展,打电话已不再是智能手机的主要功能,图像显示成为了关注焦点。 过去,手机电池寿命一般用单次充电支持的通话时长来衡量,而现在的标准则是网络浏览或高端游戏的续航时间。GPU与显示性能一起备受关注。用户希望体验更高质量的视觉效果,到目前为止,这一目标都是经由智能手机设计改善,以及显示内容的美感和流畅性来实现,一个证据就是屏幕边框变得越来越窄。市场的大致趋势是朝着屏幕包裹设备的方向发展,设计美感更多由UI而非硬件来实现。下图中,我们可以看出屏幕占整个设备的比例不断增加。这一趋势在三星Galaxy S7 Edge等机型上体现得尤为明显,已经实现屏幕对设备的全包裹。 除了打电话,现代智能手机还能提供极为丰富的功能,如邮件、社交媒体、导航定位、支付、浏览网页、游戏、拍照和视频等等。用户在期待功能升级的同时,也希望电池寿命不断延长。但是,即便使用当前所有最先进的技术,智能手机的电池容量还是要不断增大,具体变化趋势见下图。   除了电池容量变大,智能手机还变得越来越薄。一些机型的厚度甚至已经达到了7毫米以下,考虑到现代智能手机的技术含量,如此纤薄实在令人惊讶。 这样的发展方向并非完全没有弊端。屏幕增大导致电池尺寸变大,机身变薄,设备散热能力下降,因为屏幕的散热效率不如金属机身。此外,机身变薄后,用以散热的表面积也会减少。现代高端智能手机的性能上限很大程度上被散热能力牵制,如何保证机身内部元器件不因为高温而受损则因此成为另一大挑战。 现代智能手机装有多种耗电发热的核心元件,如摄像头子系统、屏幕、调制解调器、Wi-Fi、非易失性存储器、DRAM和主芯片本身(包括CPU、GPU和其他处理器)。因为总功耗一致,所以其中任何一个元件功耗的减少,都可以增加其他元件可以使用的配额,这也是系统功耗配比由用例决定的原因。 现代GPU非常复杂,严重依赖CPU运行驱动程序,以实现基于软件与应用程序进行交互。多亏了Vulkan这样的现代API,驱动程序的开销下降了,但是CPU依然需要运行驱动程序,所以不能完全避免耗电。由于所有元件功耗预算共享,因此在CPU中使用的、用于GPU交互的功耗就是不能应用于GPU本身的功耗。基于上述原因,降低CPU功耗势在必行,不仅是为GPU发展扫清瓶颈,更是要为尽可能的提高GPU可用功耗铺平道路。 与之类似,在运行复杂3D游戏的现代系统中,GPU会消耗大量DRAM带宽。由于要处理大量数据(上述提及的Lofoten每帧处理600,000个三角),消耗带宽责无旁贷,但DRAM的读写本身就是耗电的过程,也需要占用系统的总功耗预算。减少DRAM带宽可以降低其功耗,并用于其他元件。 现代智能手机的设计和日益复杂的用例对GPU提出了前所未有的挑战。下一章,我们将介绍ARM新一代GPU和GPU架构是如何应对这些挑战的。 为下一代设备打造的Mali-G71 Mali-G71是ARM最新推出的高性能GPU,也是首款基于全新Bifrost架构的GPU,性能和效率都获得显著提升。   Mali-G71是迄今为止ARM性能最高的GPU。为满足现代用例所需性能,着色器核心数量从1扩展至32,帮助芯片制造商根据目标市场自主权衡性能和功耗。出于这个原因,我们认为Mali-G71将在各类应用中将大展拳脚。   如前文所述,智能手机的很多性能都受到散热的限制,还有一些手机的限制因素则是成本,或者说是芯片尺寸。为了实现更高性,Mali-G71和Bifrost架构同时升级了能源效率(单位瓦特性能)和性能密度(单位芯片面积性能),帮助功耗与散热性能遭遇挑战的芯片制造商实现更高的GPU性能。相似条件下,Mali-G71的能源效率相较Mali-T880最多可提高20%,性能密度最多可提高40%。此外,外部存储消耗的总带宽降低20%,进一步减少整体系统功耗。   Bifrost架构发展 为了进一步说明Mali-G71为何具备远超历代ARM GPU的性能,我们首先来探讨一下GPU架构本身,以及实现这些性能的设计方法。 Bifrost是ARM的第三代可编程的GPU架构,其研发知识与经验传承自Utgard和Midgard GPU架构。   ARM的前两代GPU架构——Utgard和Midgard都取得了巨大成功。它们专为新兴的移动GPU市场打造,无论出货量还是内部科技的运用都可圈可点。Utgard是ARM首款可编程GPU,支持GLES 2.x,片段着色器与顶点着色器相互独立。Midgard则引入了统一着色器,支持GLES 3.x,并可与OpenCL 1.x Full Profile协同实现GPGPU运算。Midgard是一款前瞻性的GPU架构,甚至包括了一些可以支持Vulkan的功能特性。考虑到这是5年前设计的架构,就足以成为了不起的成就。 然而,随着内容和用例的改变,架构本身也必须进行根本性的升级,以适应各类下一代用例。   从顶层设计看,与Midgard架构相比,Bifrost的GPU内核没有明显变化。表面上依然包括多个可扩展的着色器核心、一个负责与驱动程序交互的任务管理器、一个负责处理内存页表的MMU以及一个tiler(Bifrost 仍然是一个 Tile based 渲染架构),但全部模块都获得了显著提升。 通过AMBA ACE或AXI-Lite与外界交互的L2子系统为支持AMBA 4 ACE专门设计,帮助Mali-G71彻底实现硬件一致性,并在GPU和CPU等其他单元之间实现了基于硬件的细粒数据透明共享。 我们对tiler做了重新设计,以支持一种全新的渲染流,即索引驱动的位置渲染。该技术的理念是将顶点着色分为两部分以节省带宽,因为无需读写屏幕上看不见的变化参数(varying)1;而且由于无需写回不可见位置,带宽可以得到进一步节省。   着色器核心本身的变化更为巨大。ARM在Bifrost中引入全新指令集,根据大量的内容和趋势分析以及长年的行业经验开发。现代GPU的总体趋势是执行越来越多的复杂可编程着色器,通常通过算法完成并采用大量标量代码。作为全新引擎的一部分,Bifrost采用全新的算法单元,以极高的效率执行高级着色器核心。它们更容易扩展,如果未来需求有增加,该架构也可以轻松应对。 Bifrost的属性(attribute)单元和变化参数单元相互独立,这些操作在图形处理中极为普遍,使用独立的高度优化硬件模块更为合理。全新的指令集引入高效的四线程组以节省控制逻辑,并通过四线程组管理器将线程组切换至执行引擎。我们还加入了一个控制架构以提高物理利用率。如上文所述,此特性对现代工艺节点非常重要。 Bifrost引入了名为子句着色器的概念,专门用于处理执行引擎内部的布线密度问题。你可以将子句想象成一组连续自动执行的指令,也就是说,一个子句的执行不能被中断,无论是分支(如分支只发生在子句边界上)还是其他任何事件都无法中断。这意味着子句是可以预测的,数据路径周围的控制逻辑变得更容易。比如说,你无需在子句内部更新程序计数器,因为GPU知道它会在执行前(或执行后)根据子句内部的指令数量向前推进。 对CPU而言,这一行为并不可取,因为CPU必须迅速处理分支,而且分支的出现并不偶然。但恰恰相反,对GPU而言,该技术又可以进一步优化设计。请想象一组指令集正在经过。连续的指令经常使用上一条指令作为输入(见下方一排中的多个ADD正在积累数据)。如果你经常观察到这一现象,而且你知道访问暂存器组的代价非常高昂(因为这是一个巨大的存储模块),有一种方法来缓解这个问题,那就是巧妙地使用临时寄存器来减少寄存器组的访问量。由于寄存器是临时的,数据只会在一个时钟周期中保留,所以要想实现,子句必须确保在子句内部原子执行。   请参考下图的简单着色器程序,从指令集的角度了解子句着色器的工作原理。需要指出的是,这是开发者所看不到的,由编译器完成的。   总结 通过对Bifrost架构如何提高效率和性能的详细解读,我们可以清楚地了解Mali-G71具备哪些根本性的创新技术,以实现万众期待的GPU性能升级。通过支持全新的现代API(如Vulkan和OpenCL 2.0),Mali-G71有助于实现出色的新兴应用场景体验。ARM将继续研发Bifrost架构,满足下一代内容的需求并超越行业期待。2016年,更多新技术将现身ARM Mali 多媒体组件。

    时间:2017-01-19 关键词: 图形领域 移动gpu技术 图形处理器

  • 人工智能的最大误区,图形处理器居然这么重要!

    据国外媒体报道,人工智能是科技行业的下一个重大领域。大数据和物联网的发展促使从IBM到Facebook在内的科技巨头开发人工智能技术,利用未来物联网设备收集的海量数据。IBM称之为认知计算,Facebook和谷歌称之为机器学习或人工智能。 在对人工智能技术的讨论中,有一点被忽略了,那就是它运行的硬件。例如,最适合运行谷歌TensorFlow人工智能软件的不是英特尔X86芯片,而是图形处理器,英伟达是一家主要的图形处理器供应商。 英伟达周二新发布了两款图形加速器,帮助Facebook、百度和谷歌等公司开发新的深度学习模式,并在无需大规模服务器农场的情况下部署这些模式。这两款芯片,以及配套的软件工具,是半导体行业开发能完成人工智能任务芯片努力的一部分。 英伟达的两款芯片中包含Tesla M40,能为研究人员“训练”他们的神经网络提供强大的处理能力;另外一款被称作Tesla M4的芯片处理能力稍弱,面向谷歌、Facebook或亚马逊等公司使用的服务器。 人工智能技术需要图形处理器而非传统英特尔芯片的原因是,图形处理器更适合处理并行任务。一个图形处理器集成有数百个不同的运算内核,英特尔至强芯片集成有至多18个内核。训练神经网络要求大量更简单和重复性的步骤,更适合在图形处理器上运行。 今年早些时候,Facebook人工智能研究主管雅恩·乐坤解释称,在训练神经网络方面,图形处理器是更合适的芯片,但表示仍然面临一些挑战。例如,由于管理软件功能不够强大,在一个神经网络上配置多个图形处理器仍然相当困难。英伟达开发的新软件工具能把多块显卡捆绑在一起,帮助乐坤等研究人员解决了难题。 但是,英伟达并非是开发人工智能芯片和软件工具的唯一一家公司。例如,IBM的沃森(Watson)最初在自家的PowerPC芯片上运行,但也可以运行在SoftLayer的云计算环境中,SoftLayer采用基于X86和图形处理器的服务器。IBM还公布了新的PowerPC特性,能更好地满足人工智能研究人员的需求。 IBM和高通还在考虑把人工智能技术移植到智能手机。高通提出了Zeroth技术,在一个芯片上运行神经网络,例如利用手机中的数字信号处理器提供图像识别功能。 IBM的战略听起来更具野心。IBM希望开发一款模拟人脑功能的芯片,能在智能手机上完成人工智能任务。它以人脑为模型,因为人脑是迄今为止我们已知的效率最高的计算机,能耗仅为20瓦。相比之下,英伟达新款低配版图形处理器的能耗为50-75瓦。 IBM、英伟达、高通,甚至美光都投资开发人工智能和深度学习芯片,英特尔没有什么动作?英特尔上个月收购人工智能创业公司Saffron引起轩然大波,但总体而言它很少公开讨论在深度学习方面的努力。英特尔8月份曾表示,它可以综合利用Altera的可编程芯片和至强芯片运行专用算法,例如用于训练神经网络的算法。 鉴于芯片技术的进步通常需要数年时间的孕育,相对的沉默意味着麻烦。英特尔的新技术通常能给人们带来惊喜,但在芯片社区中,缺乏深度学习产品被认为是英特尔产品线的一大空白。半导体研究公司Tirias Research首席分析师吉姆·麦克格雷格说,“在芯片产业,厂商必须提前2-4年规划新产品,因此必须提前判断哪些是关键应用。英特尔错过了手机,不想再错过人工智能。”

    时间:2015-11-18 关键词: 人工智能 图形处理器

  • 多核处理器可替代FPGA

     Peter认为,鉴于其高性能、易编程及低成本特点,GPGPU技术在许多情况下能够替代FPGA和DSP。 尽管没有针脚,诸如图形处理器(GPU)和Tilera处理器等多核处理器在某些应用中正逐步替代现场可编程门陈列(FPGA)。开发人员表示,GPU可用于执行多种功能,而非单纯的图形处理,从而成就了图形处理器通用计算(GPGPU)技术的出现,其中最为瞩目的便是 NVIDIA’s CUDA。当评估GPGPU、TILE或FPGA技术能否作为任何即定应用的首选时,需考虑(但不局限于)以下因素: • 可用处理能力 • 延迟 • 可扩展性 • 开发成本 • 技术嵌入 • 价格 处理能力 处理能力的评估一定程度上取决于处理数据类型及处理算法。 由于GPU起初主要负责图形绘制,因此,其尤其善于处理单精度(SP)及(某种情况下)双精度(DP)浮点(FP)运算。Tilera的TILE设备当前不支持硬件FP运算,但要求进行软件模拟,且性能代价高昂。一般而言,FPGA亦是如此,设备通过利用多种资源来处理FP运算问题。达到可接受性能要求IP区块需消耗多个门并要求深流水线技术。例如:当前Tesla级GPU每秒最高可执行1012次浮点运算或1TFLOPS,而Xilinx Virtex-6设备则为150 GFLOPS。 当考虑到定点运算时,情况有所不同。新一代GPU在浮点速率相同的情况下可执行整数运算,例如:当Virtex-6设备提高至500GOPS时,GPU每秒可执行1012次运算或1TOPS。整数性能是TILE处理器的优势所在:8位数据时,TILE-Gx(图1)最高执行能力为750GOPS,32位数据时为188GOPS。 图1:8位数据时,Tilera的TILE-Gx处理器最高执行能力为750GOPS 在信号处理应用中使用定点处理会延长开发时间。在系统定义阶段时间进行诸多分析,进而能够测定各处理阶段的动态范围要求,并确保实际信号应用中无上溢或下溢现象发生。否则,开发人员需要在系统运行时使用额外资源来持续监控动态范围并调整区块比例因数。 无论从时间还是空间上讲,许多通用架构处理开销可能显著较大,因此,逐位运算尤为适用于FPGA。若在FPGA上执行逐位运算,则需要考虑开发时间。毋庸置疑,系统的实际可用处理能力在很大程度上可能会因理论峰值处理能力的不同而有所差异。影响该差异的两个主要因素包括硬件架构算法的适用性及优化执行能力所需时间。 例如:FPGA能够利用其并行及适应多种算法的特性来获得更加接近理论最大值的性能。但是,FPGA需要更大的硅片空间和更长的开发时间来接近这些理论最大值。对于适应于GPU硬件并行模式的算法,GPU已经能够达到峰值的20~30%。它们同样具有合理的硅密度(40nm工艺,32nm研发中)和开发时间(通常只有数周,而FPGA则需几个月)。TILEPro64处理器可提供FPGA相类似的适应性和GPU相类似的可编程性,但是,由于其粗糙的任务级问题分解特点使得其无法像FPGA和GPU那样实现细粒度并行。 内存带宽在评估处理器性能方面同等重要,GPU能够提供3倍于FPGA、6倍于TILEPro64的优势。但是,必须指明,该带宽须以下列条件为基础:出现的大延迟须通过交叉处理进行控制,应在最佳访问模式中通过整合实现接合访问。有了FPGA,开发人员需要充分考虑内存位置。新一代GPU和TILEPro64处理器具有传统的缓存分布,能够帮助优化内存位置并减少开发时间。 延迟 也许能够排除使用GPGPU的最可能因素便是延迟。例如:调用内核所需时间及主存储器较长访问时间均可引起长延迟。许多情况下,这种延迟可能会稍有缓解但是无法完全避免。因此首选应为大数据集处理,原因在于,其为大量运算,换言之,其具备较高的计算强度。在需要满足严格延迟要求的环境下(例如闭回路控制),FPGA为首选。TILE处理器具有良好的延迟特性,“裸机”模式下进行编程时尤为突出。 可扩展性 FPGA能够与诸如Aurora等低开销联接紧密耦合,或执行诸如Serial RapidIO或PCI Express等标准串行结构。GPGPU为协处理器,通常需要一个主处理器。如图2所示,许多GPU能够联接至一个单主处理器(首选多核)中,但是,当各主处理器核使用一个GPU时,共享资源会限制返回。 图2:GE智能平台加固型IPN250和NPN240能够使Intel多核主处理器管理多个NVIDA GT240 96核CUDA GPU 多联接GPGPU间执行代码的常用方法是使用OpenMP。该方法允许在并行线程中自动执行处理回路,且分别使用不同的GPU。在集群层面(主处理器+GPU[或多GPU])还可实现进一步扩展。该集群还可通过PCI Express、10G Ethernet、InfiniBand及其它联接进行联接,并且通过使用诸如MPI等中间件进行编程。 TILE处理器可通过多种网状结构实现核间高度连接,进而调整至不同的处理类型。TILE处理器多交换结构考虑到了核间通用低延迟IPC及核间内存一致性。设备与设备之间可通过10G以太网和PCI Express进行连接。整个设备或核心集群可编程为对称多处理设备。 开发成本 开发成本难以度量。从定性分析的角度,一般认为采用C或C++的多核设备编程要比FPGA编程简单。而且大家普遍认为找到合格的多核设备编程工程师要比招募FPGA 设备的VHDL或Verilog编程人员更加容易。由于开发人员须同时优化硬件和算法(软件),因此需要多种技能,才可使FPGA接近理论性能。在多核情况下,因为硬件已经确定,开发人员可专注于算法开发和优化(仅软件)。 量化该差别是个难题。一种方法是考虑软件规模即代码行(SLOC)多少。这种方法根据算法不同而会有所差异,但多核处理器代码行少于三分之一的现象并不少见。使用更高级的比较方法会使情况变得模糊——如GPGPU采用MATLAB,FPGA编程采用Agility-C或MATLAB系统生成器等。 单单SLOC并不能精确代表开发成本。许多推动软件开发生产率发展的工具和语言创新,如集成开发环境、调试器、测试覆盖率生成和面向对象编程都在对FPGA开发产生影响——但还有很长的路要走。此外,开箱即用的FPGA开发由于较长的综合及布局、布线时间、较低的处理器状态透明度以及可能耗时很久的仿真时间等因素,并不具有最快的软件测试和修改周期。这些问题有相应的解决方案,但都需要额外的投资。 技术嵌入 在应用层面,GPGPU设备可升级至更多核的新产品而无需做出很大改动。例如,无论存在多少核,通过小型执行单元(内核)进行并行处理的方法都依然有效。在开发及运行时,工具链和驱动程序可分别使应用程序与硬件脱离。可同时调用成百上千的线程,运行这些内核。 单个二进制数可运行在具有不同核数量的不同设备上。多数情况下,这可以最大程度简化到新平台的移植。 与此类似,编写的TILE处理器的SMP应用,可在添加了新设备时,自动适用于更大的核数量。 相比之下,将FPGA应用移植到新设备上时,即使算法保持不变,也需要对硬件表达式代码进行大量修改,以适应不同的目标平台。 价格 商用级GPGPU板(图3)的售价可低至$50,而针对超级计算应用的最新GPGPU板的售价则为$4000。含有高端Virtex-6 的FPGA板的售价可能在$4000左右。Tilera板由于其针对性更强,售价会高的多。这三种型号的加固产品由于具有更小的体积、更好的板构造技术、更严格的检测和筛选,因此价格高出许多。例如,完全加固、传导冷却的GPU板售价可在$7000左右。此类板针对军事/航天应用需求,原因是商用级板无法适应恶劣环境下的环境压力,同时也不具备长期项目所需的长使用寿命。 图3: NVIDIA的支持CUDA技术的GeForce GT130M即为GPGPU技术的廉价入门级产品 结论 对于很多应用来说,FPGA在处理能力以及延迟方面的性能仍然无可比拟。但仍有许多应用场合应考虑使用多核设备。由于其定点性能,可考虑直接使用TILE处理器替代FPGA。GPGPU更加擅长浮点运算,因此可考虑将其用于替代FPGA,或作为FPGA的补充。 多核处理器与传感器靠的更近,这种模块可能不久就将面市 – 这些设备紧靠在模数转换器(ADC)后面即FPGA原先所处的位置。原先从带有AltiVec的PowerPC等通用处理器(GPP)改换至FPGA阵列的一些应用现在开始移植到多核架构上。例如,医疗成像设备如计算机断层扫描(CT)和磁共振显像现在采用GPGPU来成像。 目前混合采用FPGA和GPP的雷达系统正在评估使用GPGPU的可行性,以便降低处理子系统的尺寸、重量和功耗(SWaP),从而使其可部署在UAV等较小的平台上,或提升相同占位面积的处理能力。360度态势感知等一些先前使用专门硬件的成像应用如今采用TILE处理器和GPU来采集多个摄像机数据流,然后经过变形、拼接,从而显示全景图(图4) 图4: GPGPU支持多个摄像机数据流采集,从而实时生成全景图。 考虑到多核设备编程简单,及出色的处理能力、低廉的购置成本和与之相关的低廉开发成本,强烈建议将其用于先前主要采用可编程硬件阵列的应用。

    时间:2015-03-25 关键词: FPGA 处理能力 图形处理器

  • 英特尔欧洲投资1200万美元 研发图形处理器

    英特尔日前表示,将向欧洲投入研究资金近1200万美元,用于图形处理和视觉计算方面的研究。 据国外媒体报道,这笔款项将在未来五年作为德国萨尔兰大学项目资金的一部分,它将成为英特尔公司有史以来向欧洲研发项目拨款的最高记录。 英特尔公司首席技术官兼高级研究员贾斯廷拉特纳(Justin Rattner)表示,英特尔公已经在萨尔兰大学与世界顶尖级研究人员合作多年,共同致力于视觉计算的研究。 拉特纳补充称,鉴于目前视觉计算技术的研究已处于越来越重要的地位,建立这样一个新的研究所,以扩大我们与其它研究机构的合作是非常必要的。 英特尔称,该项目将重点放在改善图像处理方式、改善用户日常计算处理中的互动方式及图像分析方式等方面。英特尔希望该项目能被广泛应用与游戏、医疗成像、财务分析等多个领 域。 英特尔还透露,在未来的长期发展中,公司还将开展万亿级计算项目的研究,该研究将寻求下一代数据中心和应用创建的平台。

    时间:2014-05-25 关键词: 投资 英特尔 总线与接口 图形处理器

  • MulticoreWare推出适用于Imagination PowerVR Series6图形处理器的高级VP9 解码器

    21ic讯  Imagination Technologies宣布其战略合作伙伴 MulticoreWare 推出了全新的高级GPU 加速 VP9 软件解码器,该款解码器适用于Imagination的行业领先的 PowerVR Series 6 Rogue 图形处理器 (GPU)。 这款基于 OpenCL 的解码器是同 Google 合作开发而成的,支持 1080p、30fps 的 YouTube 视频回放,为在包括移动设备、平板电脑、互联电视和其他产品的多种设备上的播放高清视频提供低功耗解决方案。通过采用这款全新解码器,现有的配备 PowerVR Series6 GPU 的产品可以播放由 VP9 生成的内容。 VP9 是一款高性能的编解码器,可将视频文件和视频流压缩至前代编码技术可实现的大约一半大小,因此特别适用于高清和 4K 视频。作为 Google 所赞助的 WebM 开放网站媒体项目的组成部分,VP9 将被应用于 YouTube、Google Hangouts,以及其他基于网站的视频应用程序当中。 Imagination 多媒体技术市场营销总监 Peter McGuinness 表示:“GPU 计算是在新兴视频标准拥有硬件支持之前快速响应新标准支持的理想之选。全新的 VP9 软件解码解决方案能够帮助我们的授权客户及他们的OEM 客户实现现有 PowerVR 设备上对 VP9 视频内容的支持。Imagination 充分支持 VP9 和 WebM 项目,为我们的客户和终端用户提供一流的视频编解码器之选。” 采用适用于 PowerVR GPU 的全新 VP9 解码器,计算密集型任务可从 CPU 卸载到 GPU 上,从而大幅减少整体功耗。使用OpenCL 可以帮助用户根据特定平台对 VP9 解码器进行优化,以确保最高性能、无抖动回放,并延长电池寿命。PowerVR GPU 上的 VP9 加速解码为客户提供了提高其现有硬件视频解码器的性能的短期解决方案。 采用业界领先视频 IP 解决方案 PowerVR 视频解码器系列的用户也会从统一的软件栈中受益。 Google WebM 项目高级业务产品经理 Matt Frost 表示:“Imagination 广受欢迎的 PowerVR GPU 同 VP9结合,可以帮助来自 YouTube 的高清视频和来自 Google Hangout 的视频会议减少目前使用的一半的带宽。Imagination 也加入 VP9 合作伙伴生态系统,共同推动行业的发展。” 世界移动通信大会展示 Imagination 将在世界移动通信大会 (Mobile World Congress) 中展示采用PowerVR GPU硬件加速 VP9 视频内容的 YouTube 视频播放器。世界移动通信大会于 2月24-28 日在西班牙巴塞罗那举行,Imagination 的展位号为 6E30。 供应情况 适用于 PowerVR Series6 GPU 的 VP9 解码器现即可由 Imagination 合作伙伴 MulticoreWare 供货。

    时间:2014-03-10 关键词: 解码器 powervr multicoreware imagination 图形处理器

  • 适用PowerVR Series6图形处理器的高级VP9解码器面市

    Imagination Technologies宣布其战略合作伙伴 MulticoreWare 推出了全新的高级GPU 加速 VP9 软件解码器,该款解码器适用于Imagination的行业领先的 PowerVR Series 6 Rogue 图形处理器 (GPU)。 这款基于 OpenCL 的解码器是同 Google 合作开发而成的,支持 1080p、30fps 的 YouTube 视频回放,为在包括移动设备、平板电脑、互联电视和其他产品的多种设备上的播放高清视频提供低功耗解决方案。通过采用这款全新解码器,现有的配备 PowerVR Series6 GPU 的产品可以播放由 VP9 生成的内容。 VP9 是一款高性能的编解码器,可将视频文件和视频流压缩至前代编码技术可实现的大约一半大小,因此特别适用于高清和 4K 视频。作为 Google 所赞助的 WebM 开放网站媒体项目的组成部分,VP9 将被应用于 YouTube、Google Hangouts,以及其他基于网站的视频应用程序当中。 Imagination 多媒体技术市场营销总监 Peter McGuinness 表示:“GPU 计算是在新兴视频标准拥有硬件支持之前快速响应新标准支持的理想之选。全新的 VP9 软件解码解决方案能够帮助我们的授权客户及他们的OEM 客户实现现有 PowerVR 设备上对 VP9 视频内容的支持。Imagination 充分支持 VP9 和 WebM 项目,为我们的客户和终端用户提供一流的视频编解码器之选。” 采用适用于 PowerVR GPU 的全新 VP9 解码器,计算密集型任务可从 CPU 卸载到 GPU 上,从而大幅减少整体功耗。使用OpenCL 可以帮助用户根据特定平台对 VP9 解码器进行优化,以确保最高性能、无抖动回放,并延长电池寿命。PowerVR GPU 上的 VP9 加速解码为客户提供了提高其现有硬件视频解码器的性能的短期解决方案。 采用业界领先视频 IP 解决方案 PowerVR 视频解码器系列的用户也会从统一的软件栈中受益。 Google WebM 项目高级业务产品经理 Matt Frost 表示:“Imagination 广受欢迎的 PowerVR GPU 同 VP9结合,可以帮助来自 YouTube 的高清视频和来自 Google Hangout 的视频会议减少目前使用的一半的带宽。Imagination 也加入 VP9 合作伙伴生态系统,共同推动行业的发展。” 供应情况 适用于 PowerVR Series6 GPU 的 VP9 解码器现即可由 Imagination 合作伙伴 MulticoreWare 供货。

    时间:2014-03-07 关键词: GPU powervr series6 vp9解码器 图形处理器

  • 瑞芯微电子与ARM合作取得ARM处理器及图形处理器技术订购授权

    21ic讯 ARM®与瑞芯微电子有限公司近日共同宣布,瑞芯微已获得多项ARM先进技术订购授权(Subscription License)。在这授权协之下,瑞芯微能够采用包括ARM Cortex®-A57、Cortex-A53以及Cortex-A12处理器等基于ARMv8-A与ARMv7架构的众多处理器技术、ARM Mali™系列图形处理器、以及ARM CoreLink™互连技术。这是ARM在中国市场首项的订购授权合作案,也是ARM Mali在全球的首份订购授权。这项合作将帮助瑞芯微实现强大而灵活的产品路线图,从而应对快速发展的移动互联网与智能家居市场需求。 ARM全球业务拓展执行副总裁Antonio Viana表示:“瑞芯微与ARM已建立了成功的长期战略合作伙伴关系,这可从基于ARM Cortex-A9处理器以及Mali-400 MP GPU的瑞芯微RK31与RK30系列解决方案中得到验证。我们非常高兴能够进一步扩展双方的合作关系,通过更多项的ARM Cortex处理器以及ARM Mali GPU解决方案,帮助瑞芯微强化国内外市场的领先地位,并得以应对由要求苛刻的消费者对于移动互联网与智能家庭设备的需求所带来的机遇与挑战。” 瑞芯微首席营销官陈锋表示:“瑞芯微致力于为我们的客户与终端用户提供尖端的CPU与GPU技术及解决方案,为移动设备与智能家居设备带来令人瞩目的用户体验。此次获得ARM先进技术的订购授权,瑞芯微将能够通过继续构建广泛的技术与产品路线,来践行我们的宗旨—为全球客户带来兼具更高性能与功效的下一代智能手机、平板电脑、安卓笔记本、平板手机(Phablet)以及互联网电视。” ARM位于当今技术领域规模最大、最具影响力与创新能力的生态系统中心,并提供独特的多样化、灵活SoC技术,涵盖了从处理器、视觉计算到ARM Artisan®物理IP。在后PC时代,ARM及其合作伙伴将通过针对移动市场的创新,不断保持领先的性能与能效优势,带动消费者与业务的革新。 ARMv8-A 架构是ARM首款64位处理器技术,在兼容现有32位软件的同时,更加注重功耗效率的实现。这有助于拓展性能表现的同时,依然能保持低功耗的特性,为未来的创新节能设备提供强大的技术支持。ARM Mali系列一直引领着由用户体验所推动的GPU创新,可提供更高的分辨率与复杂内容计算能力、更先进友好的用户界面、以及下一代图形处理与视觉计算的能力。ARM处理器、GPU技术与物理IP的强强联合,可为合作伙伴提供更多设计与实现解决方案,从而为年轻消费者带来更多新潮的产品体验。

    时间:2013-11-05 关键词: ARM 处理器 图形处理器

首页  上一页  1 2 下一页 尾页
发布文章

技术子站

更多

项目外包