当前位置:首页 > GPU
  • 股价半年重挫50%,英伟达怎么啦?

    股价半年重挫50%,英伟达怎么啦?

    英伟达无需进一步介绍。从2015年到2018年底,这家GPU巨头在近四年的时间里一直是华尔街的宠儿。在此期间,英伟达的股价飙升超过130%,从2015年1月的20美元飙升至2018年10月的280美元。这支股票势不可挡,每一个季度的收益似乎都在上涨。在强劲的需求和游戏、人工智能计算、自动驾驶和加密货币的增长的推动下,该公司的业务正在起飞。 2018年11月,英伟达第三季度收入低于预期,第四季度收入下降(预期收入33亿美元下降到27亿美元),在一月份,另一个指标下降(从27亿美元下降到22亿美元)。2019年1月加密泡沫破裂后,该公司股价跌至130美元左右的低点。 自那以后,英伟达公布了两个并不令人鼓舞但还过得去的季度业绩。由于全年前景不明朗,投资者情绪一直较为谨慎,而全球局势显然对股价没有好处消极情绪、谨慎的前景和较低的预期共同作用,使英伟达的股价接近两年低点。鉴于英伟达业务强劲的基本面,我们相信长期前景是稳固的,在当前的价格水平上,该股值得一看。 我们认为英伟达未来复苏和增长的动力来自四个方面: 1.作为GPU硬件的主要供应商,英伟达将能够在未来几年赶上人工智能的浪潮,并享受增长。 人工智能和机器学习在商业和社会运作中发挥了重要作用。根据思科系统在2018年进行的一项调查,越来越多的公司表示他们依赖人工智能和机器学习。 其结果是人工智能领域的支出持续快速增长。人们普遍预计,人工智能的收入将在未来继续增长。2017年和2018年企业应用AI市场增长率分别为134%和93%,预计2016年至2025年CAGR增长率为64%。 随着人工智能的高速发展,由人工智能驱动的硬件收入也将以惊人的速度增长。硬件市场收入将从2018年的196.4亿美元增长到2025年的2346亿美元,CAGR为43%。GPU硬件的CAGR将达到34%,而其他种类的芯片,如CPU、ASIC、FPGA和SoCaccelerator的总和CAGR将达到48%。 由于对功耗和效率的关注,各大厂商越来越多地投入到ASIC、FPGA等更具体的任务芯片的研发中,这类芯片前期成本较高,但可编程性强,更符合算法流程。但是,由于进程变化的适应性的限制,预计这些芯片仍然主要用作加速器,GPU和CPU对于数据中心的计算仍然是非常必要的。 在过去的几年里,英伟达已经在GPU行业确立了领先地位。NvidiaGPU的市场份额一直在60%到80%之间,英特尔(INTC)和AMD(AMD)占据了剩余的份额。 GTX,RTX和特斯拉的芯片是来自英伟达,而Radeon是来自AMD。英伟达提供了一个更全面和更广泛的产品范围的选择,从高性能到低性能的显卡的所有范围。GPU在深度学习和算法训练方面的软件支持也占据了主导地位。Nvidia的产品系列几乎支持所有DL框架,而AMD的GPU则不受支持。这使得英伟达的GPU在卷积网络上的计算性能优越得多,成为其客户的首选。 英伟达人工智能的另一个高增长领域来自自动驾驶。预计从2016年到2025年,自动驾驶功能的市场规模将以14%的复合年增长率增长。 目前,英伟达为自动驾驶汽车的硬件、软件和仿真提供业务解决方案。它的DRIVEAPX2平台提供了2级以上的自动驾驶功能,根据该公司的公告,通过与该领域的主要汽车制造商合作,它已经取得了良好的进展。奥迪、大众、沃尔沃、梅塞德斯-奔驰和丰田都宣布了与英伟达的合作伙伴关系,计划在其汽车AI平台上部署DRIVEAPX2。该公司还宣布与人工智能领域的领军企业百度合作,为自动驾驶汽车开发一个云平台。 英伟达公布的汽车收入在2019年第二季度中期有所增长,但在最近两个季度有所放缓。这一增长是由于该公司在2016年宣布了XavierSoC,随后在2018年初部署。2020年第二季度在汽车业的收入将略有增长,因为英伟达正在采取措施与汽车制造商合作并开发新技术。然而,由于没有新的改变游戏规则的产品,数字不太可能发生巨大变化。 虽然英伟达预计的汽车收入增长速度较慢,但随着行业的快速增长,未来随着研发的成熟和商业化,财务业绩可能会有所回升。 2.英伟达的CUDAAI平台和对MLNX的收购使其能够为客户提供更全面的解决方案。 与AMD产品相比,英伟达的GPU的主要优势之一是软件支持。通过帮助开发和维护一个开源社区,英伟达推动了数据分析和并行计算结构的多个应用程序的开发,其GPU可以完美地运行这些应用程序,但在使用AMD或英特尔时需要做一些工作,例如将CUDA应用程序指令翻译成OpenCL(AMD使用的框架)。 收购Mellanox也表明,Nvidia希望通过向客户提供更全面的解决方案来提高销售额和利润。Mellanox是计算机网络技术InfiniBand的提供商。他们的产品一起形成了一个端到端的综合网络解决方案。 如果Nvidia和Mellanox合并,Nvidia将能够为数据中心客户提供高计算能力的硬件和软件解决方案,而Mellanox将能够为客户提供跨服务器、内部网络数据传输。通过这笔交易,可以实现两个业务协同效应: 销售部门成本削减的协同效应。目前,梅拉诺克斯拥有460名销售和营销人员,销售和营销收入约占公司总收入的10%-15%。虽然为英伟达节省销售人员是不现实的,但Mellanox肯定可以通过整合其销售团队和英伟达的数据中心销售团队来削减成本。 新客户开发的协同效应:Mellanox拥有庞大的数据中心客户群,高质量的客户和戴尔占总收入的25%以上)。这一客户群将帮助英伟达更容易地与这些公司接触,获得自己的数据中心服务。因此,使客户开发成功率更高,甚至更低的流失率。此外,通过向客户提供更全面的解决方案,英伟达和Mellanox将能够共同收取更高的价格。 3.新技术和趋势的转变将帮助英伟达继续巩固其在游戏领域的地位,并抓住一些增长机遇。 游戏业经历了低迷的一年。过去几年,GPU的附加率(由于出售个人电脑而出售的GPU)一直波动在130%至140%之间,包括分立和集成的GPU,总体PC市场环比下降了14.4%,环比下降了4.2%。这两个数据加在一起表明,由于PC销售,GPU的总发货量正在下降。游戏行业的总体趋势是,玩家正在从个人电脑转向游戏机,而移动游戏正以更快的速度增长。其背后的原因是,具有离散gpu、控制台和移动设备的pc机之间的性能差距正在缩小。未来5年,整个游戏行业的收入预计将以6%的年复合增长率增长。 有两个主要原因,英伟达的游戏部分可以证明在未来几年的强劲增长。原因之一是英伟达目前在其GPU上提供光线追踪加速,这是一种提供更好光线的渲染技术,而AMD没有向市场提供相应的产品。AMD的市场份额在短期内将受到缺乏这种技术的影响,因为许多游戏公司已经推出了基于这种技术的相关游戏开发计划。 最近,英伟达推出了新产品2080Super零售价为699美元,2070Super零售价为499美元,2060Super售价399美元。该声明发布的一个月后,AMD宣布提供AMDRXRadeon5700XT游戏卡,零售价为449美元。RXRadeon5700XT比2070Super便宜50美元。 该产品回应了AMD和Nvidia的战略,而AMD试图以更便宜的价格对抗英伟达,但英伟达专注于引领市场趋势。这两种芯片的主要区别在于它们的计算能力(见下面的最终幻想XV基准测试结果),2070Super提供了射线追踪技术和DLSS(深度学习超级抽样,一种提高帧率的人工智能技术)。因此,消费者为额外的性能、射线跟踪和DLSS支付额外的50美元。这是大型游戏工厂探索这项技术的初始阶段,随着越来越多的游戏开始依赖这项技术,这将提升英伟达的市场地位。 另一个最近的热门话题是云游戏,原因是更快的互联网的可访问性。 大多数云服务需要超过10-15兆比特每秒的互联网速度才能平稳运行,最小延迟,速度超过10兆比特每秒的固定连接的权重从2014年的69.4%增加到2017年的84.2%。 对于英伟达来说,云游戏将是一个巨大的机会,因为无论GeForceNow多么成功,大多数云游戏提供商都会选择在他们的数据中心使用Nvidia的GPU,尤其是那些缺乏设计和制造自己芯片能力的创业公司。 未来,随着为游戏玩家提供的云服务成熟,个人购买GPU的数量可能会减少,而云游戏供应商将购买更多的GPU来构建他们的数据中心。只要游戏需求仍在增长,就会推动英伟达的增长。 4.对于英伟达来说,密码问题似乎已经成为过去。该公司对解决库存问题的关注正显示出积极的效果,管理层多次表示业务正在回归正轨。 在2018年下半年之前,英伟达的库存管理和周转率一直表现出色,库存大幅飙升,存货週转比去年同期下降了一半以上。加密货币的下降消除了矿商使用的图形芯片的需求,由此产生的库存过剩导致个人电脑游戏玩家通常使用的芯片订单放缓。库存问题导致销售额和利润下降。根据管理层的评论,英伟达应该需要几个季度的时间才能解决库存问题(2019年上半年),之后应该就能恢复运营(2019年下半年)。 通过对英伟达库存的快速分析,我们发现去年第四季度的总库存达到了峰值(1575亿美元),随后有所下降;第四季度触底的存货週转也开始趋于稳定。这个指标将是一个需要注意的重要指标,如果存货週转能够在下半年继续保持上升趋势,这将是一个明确的证明,库存问题得到控制,然后应该转化为盈利能力的改善。 估值 根据我们的假设,现金流量分析给出的价格范围是每股122-293美元,而目前的价格是160美元。这个模型很大程度上依赖于这样的假设:到2023年英伟达的年收入将超过200亿美元,到2026年将超过300亿美元,在接下来的6年里,这大约是20%的复合年增长率。在12%的折扣率和3%的终端增长率的不利情况下,英伟达的最低价格为122美元,比目前的价格水平低25%,5%的终端增长率和8%的折扣率的有利条款使得估计价格达到293美元,这意味着比今天的价格增加了80%。 虽然价格区间很宽,但是基于收入增长、EBITDA利润率和资本成本的结果,这一分析很好地理解了英伟达的交易价格区间。考虑到这支股票最近的波动性,低于130美元肯定是一个不错的切入点,前提是增长仍然完好无损。 目前,由于英伟达在GPU领域的主导地位、快速增长的预测和盈利能力,该公司的交易成本相对较高。然而,随着经济的宏观趋势转变,市场可能不再愿意在估值中支付溢价,这可能会严重影响英伟达的股价。 总结 在我们的眼中,英伟达在秘密破产期间脸上挨了一记重拳,其股价遭受了意义深远的打击。发布其股价调整后,从根本上来说,Nvidia还是和以前一样稳固。虽然潜在的风险仍然存在,但是由于人工智能、游戏和自动驾驶汽车的需求增长,英伟达的前景是光明的。 目前该股价格在160美元至170美元之间,而贴现现金流模型给出的价格区间为122美元至293美元,基于2021年和2022年的市盈率,市盈率分析给出的基本情况为168美元至215美元。因此,因此,目前的买入头寸没有足够的安全边际。如果英伟达的基本面没有改变,股价跌至130美元左右(下跌15-20%),这肯定会让该股更具吸引力,更值得一试。 本文来源:半导体行业观察

    时间:2020-05-29 关键词: 英伟达 GPU

  • Imagination的PowerVR GPU获芯驰科技选用并成功支持其高性能车规级芯片

    英国伦敦和中国南京 ─ 2020年5月29日 ─ Imagination Technologies宣布,南京芯驰半导体科技有限公司(SemiDrive,以下简称“芯驰科技”)在其发布的智能座舱芯片X9中采用了Imagination的PowerVR Series9XM图形处理器(GPU),目前该芯片已完成流片并成功启动。芯驰科技是一家专注于车规级芯片设计的企业,致力于为智能网联汽车提供高可靠、高性能的智能座舱、安全驾驶和核心网关等汽车SoC产品。 芯驰科技是中国为数不多通过ISO 26262 功能安全管理体系认证的半导体设计企业,同时也是中国第一家获得TÜV莱茵颁发的ISO 26262:2018版功能安全管理体系证书的企业,能够满足国家的车规和风险管控标准。本次成功流片的芯片是芯驰科技Vehicle On Chip战略中的全新智能座舱芯片,可满足汽车电子座舱对计算能力、多媒体性能的需求,进一步增强了中国在高性能、高可靠智能汽车芯片领域的实力。新一代芯片具有智能座舱的硬件虚拟化能力,尤其是在全高清多屏的虚拟化模式下,其硬件虚拟化加速单元DriveBoost显示出惊人的性能,同时凭借Imagination的PowerVR GPU提供的强大支持,虚拟子系统显示效能大幅提升,接近硬件透明调用的效能。 Imagination深耕汽车行业10余年,采用Imagination的GPU开发的汽车芯片在全球范围内的出货量常年处于领先地位。芯驰科技智能座舱芯片所采用的PowerVR 9XM GPU属于Imagination的PowerVR Series9 GPU产品系列,该系列GPU实现了功耗/性能/面积(PPA)的全面优化,其高性能密度使其成为汽车市场的理想解決方案。Imagination的GPU可以为汽车芯片提供如下性能或支持: · 质量管理过程和所有内核的可追溯性,支持客户实现符合ISO 26262标准及其ASIL安全要求的 SoC。 · 为管理程序、汽车操作系统和安全关键API提供扩展支持。 · ASIL和其他认证的相关文档,专门针对汽车应用的文档。 · 可提供有保证的服务质量和安全性的硬件虚拟化功能,ECC和BIST技术支持可靠性和还原度。 · 提供长期支持,包括对特定软件版本的支持,可帮助芯片企业支持车厂(OEM)。 芯驰科技首席执行官仇雨菁表示:“Imagination的GPU拥有强大的性能,例如其硬件虚拟功能能够在各种应用程序/操作系统之间提供很好的隔离,提高安全性的同时可以最大化底层GPU硬件的利用率。此外,Imagination在汽车行业拥有丰富的经验,与多家全球领先的汽车芯片企业常年合作,对于汽车市场的需求和挑战有着深刻的理解。这些都是我们选择Imagination作为合作伙伴的原因,期待双方可以合作开发出更多的车规级芯片,助力中国汽车芯片领域继续提升实力和完善布局。” Imagination首席执行官Ray Bingham表示:“智能化是汽车行业的发展热点,而汽车芯片在其中的重要性不言而喻。在中国自主汽车芯片亟需发展的今天,芯驰科技起到了很好的表率作用。我们很高兴能与芯驰科技合作开发其智能座舱芯片,同时对芯片的顺利流片和成功发布表示祝贺。Imagination一直都非常重视对中国合作伙伴的支持,我们将继续为芯驰科技及更多中国企业提供性能优异的产品和全面的支持服务,帮助他们开发出更多功能强大的汽车芯片。” 未来,除了智能座舱芯片,Imagination 还会在AI加速和高性能混合运算等更多应用场景上与芯驰科技展开合作。针对芯驰科技的另一条重要产品线自动驾驶芯片,Imagination的最新一代神经网络加速器(NNA)PowerVR Series3NX可以提供最高达160TOPS的算力;针对其高端座舱芯片,Imagination最新发布的IMG A系列(IMG A-Series)GPU可以提供更高的性能、更快的处理速度和更低的功耗。

    时间:2020-05-29 关键词: GPU 车规级芯片 芯驰科技

  • 苹果自研5G基带芯片,补齐短板强攻2020年5G手机市场

    苹果自研5G基带芯片,补齐短板强攻2020年5G手机市场

    编者按:5G不仅是一个快速便捷的手机网络,而是一种革命性的数据共享和通信能力。在美国,商用5G视乎目前仅限于毫米波频谱,这种技术在城市地区、室内以及短距离都能很好工作。中国则集中在6GHz以下的频段,IDC研究经理认为,目前在5G手机领域,三星的主要优势在于品牌渠道和产业链上,而苹果主要还是依靠iOS操作系统的粘性,和安卓生态这类的相似。苹果最近收购英特尔的5G基带芯片部门,加大自研芯片比例,就是为了对5G手机产业链实现掌控权。 上周五,苹果(Apple)收购英特尔(Intel)手机基频芯片部门终底定,先前传出将入列苹果iPhone供应链分食5G基频芯片订单的联发科希望落空;而业界估苹果未来应会推出首款采用自制ARM架构芯片的MacBook机种。 而值得注意的是,目前苹果除了iPhone、iPad、Apple Watch与Apple TV等A、S系列自制芯片开发有成,亦投入电源芯片(PMIC)与绘图芯片(GPU)研发,买下英特尔基频芯片部门后,自研芯片之路又迈进一大步,供应链预估下个标的预将是Mac系列去英特尔化,而最大受惠者将是坚持专业代工与制程领先的台积电。 英特尔曾计划2020年前准备好5G Modem芯片,苹果将透过英特尔( INTC-US )一臂之力,达到自研5G芯片目标。半导体业者表示,苹果原本就计划全面提升自研芯片比重,加上主要手机竞争对手三星电子(Samsung Electronics)、华为早已提前投入基带芯片研发,而英特尔在技术研发上又不争气,因此收购基频芯片,转而自行研发早在市场预期之中,10亿美元代价相当划算。 苹果与高通签署多年芯片供应协议,2019 新款iPhone 不会采用5G 技术,仍使用4G,预计2020 年新款iPhone 将采用高通Modem 芯片。 值得关注的是,苹果近年来正有条不紊的将自研芯片大计推进至各主力产品线其中,ARM架构A、S系列芯片已用于iPhone、iPad、Apple Watch与Apple TV等产品,效能表现优异且庞大需求规模,明确掌握研发成本费用与开发进度。 当中值得一提,iPhone、iPad推出前,苹果曾找上英特尔合作,希望能为其提供Atom客制化处理器平台,然因价格等合作细节谈不拢最终告吹,此决定也让英特尔下个十年错过行动装置商机爆发世代,苹果则是一跃成为行动装置巨擘。 而早在2017年4月时,苹果就预告将自行开发GPU技术,未来15个月~2年期间将终止与英国GPU业者Imagination的合约,由于ImaginaTIon早于iPod时代就与苹果展开合作,获利高度仰赖苹果,解约消息传出,也使得ImaginaTIon营运面临危机。目前苹果GPU技术发展快速,已如预期逐步摆脱 ImaginaTIon,多款iPhone和 Apple Watch产品已采用自行设计的GPU。 无法靠自己研发,而又必须快速补强的技术,银弹丰沛的苹果就直接收购或挖角供应链。在2018年10月时,苹果就宣布以3亿美元买下iPhone电源管理芯片(PMIC)供应链Dialog的部分资产、专利授权,资产包含300多位员工,同时再支付3亿美元预付未来3年订单。苹果会锁定Dialog,主要是近年来手机效能快速推进,电池效能与电源管理面临高度技术挑战,苹果仅以3亿美元就取得电源芯片自研权,又是一笔超值收购案。 而值得注意是,半导体业界预估下个标的将是Mac系列去英特尔化。苹果Mac系列在2018年出货总量约在1,800万台左右,位居全球PC市占第四大,对比其它PC竞争对手,品牌实力及用户黏著度最高,且型号机种属性鲜明,不采机海战术,因此平台规格亦相对简约。 据了解,英特尔为拉拢苹果,2005年就于美国奥勒冈州工厂特为其设立「Apple Group」,展现全力支持苹果的诚意,然自2015年起,市场就盛传苹果Mac系列有降低对英特尔x86处理器的依赖,2018年推出的采用A12X Bionic处理器的iPad Pro时,就强力宣称效能已不输一般入门级笔记本电脑(NB)。 英特尔近年10纳米制程出现延迟,新旧平台转换失序明显影响了苹果Mac新机上市时程,也因此让在 CPU 与GPU 架构已有一定研发基础的苹果,更加深自制芯片决心。 业界评估,待操作系统、应用软件程序等调整完成,加上效能可全面拉升,至少提升至中阶Witnel机种水平后,苹果应会推出首款采用自制ARM架构芯片的MacBook机种,预估最快2020年底有机会看到工程样本,效能强大的Mac桌上型计算机则仍需要3~5年。 随著苹果加速自研芯片大计推进,全面扩大零组件供应链掌握度,各式芯片累计出货规模逐年放大,市场预期最大受惠者将是坚持专业代工与制程领先的台积电。以竞争面来看,苹果持续去三星化,2013年后就与台积电展开合作,2017年后通吃iPhone大单,iPad、Apple Watch系列芯片亦交由台积电代工。 另由技术制程评估,台积电不断推进先进制程,在7纳米以下制程晶圆代工战场仅有三星一家对手,目前在技术、良率与一条龙服务方面完胜对手,更重要的是不与客户竞争,坚持专业代工,也因此台积电成为苹果在晶圆代工领域最重要合作伙伴,先前来自Dialog技术开发的电源管理芯片就由台积电代工,而由英特尔手中取得的手机基频芯片,以及逐步舍弃英特尔,自行研发的Mac处理器平台,据了解都已确定未来会委由台积电负责,可观新单效应预计2021年逐步发酵。 不过,苹果加速自研芯片之路,此次收购英特尔手机基频芯片,几已确定先前传出将入列苹果iPhone供应链,与高通分食5G基频芯片订单的联发科希望落空。据了解,2020年苹果下世代5G iPhone全采用高通基频芯片,2021年推出首款自行研发基频芯片试水温。 7月29日消息,天风国际分析师郭明錤送出的最新报告显示,由于收购了英特尔基带项目,苹果会在明年发布的三款新机中都支持5G网络,同时他们也计划最快明年为中国市场推出定制版低价5G手机。 郭明錤表示,明年只有高端iPhone才支持5G网络,不过最新的报告已经修改了这个结果,即2020年发布的三款iPhone中,全部支持5G,因为有了英特尔的帮助,苹果有更多的资源去开发5G手机。 郭明錤还指出,迫使苹果明年大力推出5G手机的另外两个原因是,第一5G网络可以帮助他们推广AR生态,第二则是安卓厂商的激进,预计到2020年第二季度,安卓5G手机售价将降至249–349美元(约合人民币1700元起),那个时候消费者会认为买手机,支持5G网络就是必要功能,故售价更高的iPhone唯有支持5G,才能争取运营商补贴与消费者购买意愿。 本文资料来自DigTImes和腾讯科技,本文整理分享。

    时间:2020-05-28 关键词: iPhone 基带芯片 GPU 5G

  • 7nm安培GPU详解:400W功耗、40GB HBM2、826mm2怪兽出炉

    7nm安培GPU详解:400W功耗、40GB HBM2、826mm2怪兽出炉

    等了很久,今晚NVIDIA正式发布了7nm安培GPU,号称是8代GPU史上最大的性能飞跃。不过官方并没有公布安培GPU的技术细节,Anandtech网站倒是给出了一份详细的介绍。 这次的GTC 2020大会演讲中,NVIDIA CEO黄仁勋主要谈的就是HPC计算、AI人工智能等方面的内容,目前推出的A100大核心也是针对这个领域的,与之相比的是3年前发布的Volta架构V100核心,很多东西跟RTX 3080 Ti游戏卡会不一样,大家不用纠结。 首先来说大方面的,V100核心使用的是12nm Volta架构,211亿晶体管,核心面积815mm2,而A100核心是台积电7N工艺,应该也是定制版的7nm工艺,826mm2,542亿晶体管,同样是核弹级别的。 V100核心拥有80组SM单元,5120个CUDA核心,SXM2/3架构,而A100核心是108组SM单元,SXM4架构,6912个CUDA核心。 AI方面是变化最大的,相比Volta架构的640个Tensor Core,A100核心的Tensor Core减少到了432个,但是性能大幅增强,支持全新的TF32运算,浮点性能156TFLOPS,同时INT8浮点性能624TOPS,FP16性能312TFLOPS。 常规的FP32、FP64性能提升倒是不算明显,从V100核心的15.7.、7.8TFLOPS提升到了19.5、9.7TFLOPS。 频率方面,A100核心实际上还倒退了,从V100的1530MHz降低到了1.41GHz左右,毕竟核心规模实在太大,功耗已经飙到了400W,比V100的300/350W功耗高出不少。 显存方面,A100配备的也是HBM2显存,频率从1.75Gbps提升到了2.4Gbps,位宽5120bit,相比V100的4096bit增加了1024bit,容量也从16/32GB增加到了40GB。 不过HBM2的配置略显奇怪,增加1024bit理论上应该多1组HBM2,但从核心图上看又是6组HBM2显存,或许是2组512bit的?保不准以后还会有完整版A100核心。 不过HBM2显存位宽、频率双双提升的后果就是,A100核心寸带宽达到了1.6TB/s,远高于V100的900GB/s,比AMD的Radeon VII显卡的1TB/s带宽还要高。 最后,NVLink技术也升级到了3.0版,带宽从300GB/s提升到了600GB/s,适合服务器领域多卡互联,不过未来应该还会有PCIe版的。

    时间:2020-05-28 关键词: NVIDIA GPU 7nm 安培

  • NVIDIA Research突破性进展亮相SIGGRAPH,为多领域提供更多可能性

    NVIDIA Research突破性进展亮相SIGGRAPH,为多领域提供更多可能性

    NVIDIA一直致力于帮助图形学专业人士、研究人员、开发者和各学科的学生充分利用图形学领域的最新技术,包括实时光线追踪、AI和增强现实带来的全新可能性。本周,NVIDIA的研究团队与来自顶尖院校和各行各业的合作伙伴齐聚全球最重要的计算机图形学会议SIGGRAPH。 其中最受关注的当属光线追踪——它采用NVIDIA RTX平台,融合了光线追踪、深度学习和光栅化。在本周举办的50场光线追踪相关的技术会议中,NVIDIA参与了其中34场,这一数量远远大于其他公司。我们的座谈吸引了业界杰出人士的目光,有四位技术类学院奖得主参加了NVIDIA的会议。 除技术会议之外,我们还将展示全新开发者工具,以及一些令人感到兴奋的成果。其中,我们带来了一款交互式绘画程序NVIDIA GauGAN,它采用了GAN(生成式对抗网络),让用户变身神笔马良,只需简单涂抹就能创建艺术作品。 此外,与会者还能在SIGGRAPH期间体验到月球漫步。这一令人叹为观止的演示基于AI姿态估计,能够实时捕捉访客的身体动作。通过将NVIDIA Omniverse技术、AI和RTX光线追踪相结合,与会者能够亲身感受到登月这一历史性时刻。 所有这些成果都离不开NVIDIA Research。我们的团队有近200人,分别在全球11个地点办公。我们始终践行NVIDIA的承诺,为客户提供机器学习、计算机视觉、自动驾驶汽车、机器人、图形、计算机架构、编程系统等领域的创意。 论文、讲座及教程全方面展示全新一代图形技术 NVIDIA在将新一代图形技术推向市场的过程中起到了主导性的作用。在SIGGRAPH期间,NVIDIA参与或主办的课程共六场。我们将在此期间详细介绍全新一代图形技术。 这些课程的主题涵盖了:实时光线追踪介绍、NVIDIA OptiX API、蒙特卡罗和拟蒙特卡罗采样技术、最新路径追踪技术、实时渲染领域中的待解决问题以及光线追踪的未来。 这些内容都和RTX有关。RTX实现的实时光线追踪功能能够提供比传统实时渲染技术更为逼真的光照效果。 NVIDIA还赞助了七个课程,主题涵盖面向内容创建和实时渲染的深度学习,以及面向电影和设计领域的GPU光线追踪等。 此外NVIDIA还将发表技术论文,详细阐述最新的近眼AR显示器演示如何运行,并利用被称为AI基石的卷积神经网络,以及现代化AI技术大大缩短逼真图像生成的时间,为蒙特卡洛渲染带来新的飞跃。 新兴技术 与会者可以在SIGGRAPH的新兴技术展示区亲身体验NVIDIA的最新技术。我们展示了一副可穿戴的增强现实显示器。如果你必须需要佩戴眼镜才能看得清东西,那么这一技术值得你一探究竟。 “PrescripTIon AR”是一款嵌入prescripTIon AR的显示设备。它比现代AR设备更轻薄,视野也更宽阔。虚拟对象分布于整体之中,而非团簇于中心。当您佩戴矫正光学器件时,它会直接将prescripTIon内嵌其中。相较于当前市面上的任何设备,这一AR显示器更加舒适实用,并更易被接受。 更多信息可观看视频:http://www.iqiyi.com/w_19s9y6uzut.html “Foveated AR”是一款头戴式设备,可以借助深度学习进行实时调整,以适应使用者的视线。它能够调整显示图像的分辨率和焦点深度,以匹配您的注视区域,还能提供更加清晰的图像和更加宽广的视野。 更多信息可观看视频:http://www.iqiyi.com/w_19s9y6rn31.html 为此,它将两种不同的显示方式结合在一起——小区域的高分辨率显示应用于视觉敏锐度最高的地方,而周边视觉区域的分辨率则较低,这为用户带来了高质量的视觉体验及更低的功耗和计算量。 * 配图由Colie Wertz提供,借助GauGAN完成。

    时间:2020-05-28 关键词: NVIDIA 显示器 GPU 增强现实 光线追踪

  • 万年12nm退场 NVIDIA激进:台积电也接到5nm GPU订单了

    万年12nm退场 NVIDIA激进:台积电也接到5nm GPU订单了

    与AMD在2019年就转向7nm节点不同,NVIDIA在GPU工艺上比较保守,不过今年情况好像不一样了,除了7nm安培,5nm GPU也呼之欲出了。 NVIDIA当前的图灵GPU使用的是台积电12nm工艺,考虑到12nm不过是16nm的改进版,所以NVIDIA使用16/12nm节点至少4年了,这在GPU历史上还真不多见,以往多是2年左右升级一次工艺。 当然,在NVIDIA看来,16/12nm工艺的GPU性能、能效都很给力,领先对手一两年,又何必冒风险、多花钱去升级GPU工艺呢? 早前还有消息称NVIDIA今年会使用更低成本的三星8nm甚至10nm工艺,不过这几天风向大变,除了7nm安培GPU之外,NVIDIA下下代的5nm GPU、传闻中的Hopper也频繁曝光。 昨天的消息称7nm安培GPU主要是台积电代工,5nm霍普GPU则是三星5nm工艺代工,不过Digitimes报道称,台积电也接到了NVIDIA的7nm及5nm GPU订单,这下意义就不同了,分两家代工意味着NVIDIA的订单量不会少,暗示着NVIDIA在新一代GPU上押注不小,要知道AMD今年也不过是将GPU升级到7nm+工艺而已,5nm GPU都没影呢。 NVIDIA的7nm、5nm GPU还没实锤爆料,比较合理的分析称7nm安培GPU是面向数据中心市场的,5nm霍普GPU才是给游戏卡准备的。 如果真的是这样,那NVIDIA今年恐怕是爆发一波了,12nm GPU都有性能、能效优势,7nm、5nm就更不用说了,老黄今年这是要直接开大了,这一切要等5月14日的GTC 2020演讲中就会公布了。

    时间:2020-05-25 关键词: NVIDIA 工艺 GPU 7nm 5nm 12nm

  • NVIDIA GPU今年或是双胞胎:7nm安培、5nm霍普双杀

    NVIDIA GPU今年或是双胞胎:7nm安培、5nm霍普双杀

    再过10天,NVIDIA CEO黄仁勋就要发表GTC 2020演讲了,这次推出7nm安培(Ampere)架构是板上钉钉了。不过2020年的GTC可能不止于此,NVIDIA还有可能更新GPU路线图,公布5nm Hopper(霍普)GPU,而它有可能是三星5nm EUV代工的。 在GPU工艺上,之前的泄露信息显示出了NVIDIA的复杂,安培GPU使用10mm、8nm及7nm工艺的爆料都有,不过目前来看台积电7nm工艺代工的安培GPU还是主力。 但是NVIDIA并不会完全依赖台积电,前几年就跟三星有GPU代工了,14nm节点就在Pascal显卡的GTX 1050系列上有合作,在7nm及以下工艺中也会如此。 日前三星宣布Q2季度开始量产基于EUV工艺的5nm LPE工艺,并强调他们的客户来自处理器及显卡,而这个GPU客户可以排除AMD,基本上就是在暗示拿到了NVIDIA的5nm GPU订单。 最新爆料称,NVIDIA今年的GPU计划很庞大,7nm工艺用于安培GPU,但它很有可能主要用于计算卡市场,而5nm工艺则是给下下代架构Hopper(霍普)准备的,这才是面向消费级游戏卡市场的,那也意味着RTX 3080 Ti要变成5nm工艺了。 如果按照这个路线发展,那么今年的GPU倒是跟之前的Volta伏打、Turing图灵差不多,两代GPU面向的市场不同,使用的工艺、架构也不同,NVIDIA是彻底把游戏与计算卡市场分开了。

    时间:2020-05-25 关键词: 英伟达 GPU

  • 基于NVIDIA GPU的加速服务 为AI、机器学习和AI工作负载提速

    基于NVIDIA GPU的加速服务 为AI、机器学习和AI工作负载提速

      NVIDIA和VMware宣布为VMware Cloud on AWS推出基于NVIDIA GPU的加速服务,为机器学习、数据科学和AI工作负载提速。具有高度扩展性和更高安全性的混合云平台助力企业实现下一代应用的迁移、更新和部署。 加利福尼亚州旧金山——VMworld U.S. 2019——2019年8月26日 ——NVIDIA和VMware今日宣布将为VMware Cloud on AWS推出基于NVIDIA GPU的加速服务,为AI、机器学习和数据分析工作流程等现代化企业应用提供支持。通过这些服务,客户可以将基于VMware vSphere的应用和容器原封不动地无缝迁移至云端,实现应用和容器现代化,从而充分发挥高性能计算(HPC)、机器学习、数据分析和视频处理应用的优势。 如今,越来越多的企业正在应用AI技术实现流程和产品的差异化及提升。企业正在迅速采用AI(1)技术并实施新的AI策略,这些策略需要借助性能强大的计算机,从企业数据的拍字节中创建预测模型。各行各业的企业都使用了借助NVIDIA GPU的神经网络,实现了训练和实时推断的加速,并实施图像和语音识别、高级财务建模、自然语言处理等机器学习应用。此外,VMware近期收购了AI初创公司Bitfusion,让企业中的AI和机器学习工作负载能更有效率地使用GPU的性能。 通过此次合作, VMware Cloud on AWS的客户将获得具有高度可扩展性和安全性的全新云服务,它包含了通过NVIDIA T4 GPU和全新NVIDIA虚拟计算服务器(vComputeServer)软件加速的Amazon EC2裸机实例。 NVIDIA创始人兼首席执行官黄仁勋表示:“无论是运营智能还是人工智能,企业都需要GPU加速计算来作出快速、准确的预测,这些预测将直接影响企业的盈利。我们与VMware一同设计了最先进的GPU基础架构,帮助企业加快各领域的创新速度,从虚拟化、混合云到VMware的全新Bitfusion数据中心分解。” VMware首席执行官Pat Gelsinger 表示:“我们的客户正通过VMware Cloud on AWS所提供的独特价值加速关键业务应用的迁移和现代化。我们通过与NVIDIA和AWS等行业领导者的合作推动创新,为混合云中最密集的数据驱动型工作负载和现代应用提供一流的GPU加速服务。” 基于NVIDIA GPU的VMware Cloud为AI、机器学习和数据分析带来的效益 该产品上市后,企业不仅可以使用企业级混合云平台加速应用程序现代化,还能通过从数据中心到AWS云端的VMware一致基础架构,为AI、机器学习和数据分析等计算最密集的工作负载提供支持。其带来的效益包括: ·无缝迁移:无需预定停机时间,用户即可使用VMware HCX一键迁移NVIDIA vComputeServer软件和GPU赋力的工作负载。这给在云或本地执行训练和推理的客户带来更多的选择和更大的灵活性。 ·灵活的AWS基础架构:由于能够自动扩展由NVIDIA T4加速的AWS集群上的VMware Cloud,管理员能够根据数据科学家的需求扩大或缩小可用的训练环境。 ·更快的现代应用计算速度:NVIDIA T4 GPU搭载能够加快深度学习推理工作流程的Tensor Core。通过与用于GPU虚拟化的vComputeServer软件相结合,企业能够在虚拟化环境中灵活运行AI、机器学习和数据分析等GPU加速工作负载,从而提高安全性、实用性和易管理性。 ·一致的混合云基础架构和运营:借助VMware Cloud on AWS,企业机构可以建立统一的跨混合云基础架构和运营,将VMware行业标准级vSphere、vSAN和NSX作为关键业务应用更新的基础。IT运维人员可以在本地同时管理vCenter内的GPU加速工作负载和vSphere上运行的GPU加速工作负载。 ·无缝端对端数据科学和分析管线:借助NVIDIA RAPIDS™,NVIDIA T4数据中心GPU为主流服务器提供超强支持,并可加速数据科学技术。NVIDIA RAPIDS™是一个包含深度学习、机器学习和数据分析的NVIDIA GPU数据科学加速库集。 (1) Gartner“人工智能和机器学习发展战略”研究,2019年7月15日。

    时间:2020-05-25 关键词: NVIDIA vmware GPU 机器学习

  • 新款荣耀Play曝光搭载麒麟970处理器并首发GPU Turbo技术

    新款荣耀Play曝光搭载麒麟970处理器并首发GPU Turbo技术

    作为荣耀最强自拍手机,荣耀20S这次不仅前置了3200万像素摄像头,还加入了人像超级夜景模式,配合7nm处理器带来的超强AI算力,实现夜景自拍“人美景也美”的效果。但是,荣耀这次带来的惊喜恐怕远不止如此。 新款荣耀Play曝光 荣耀总裁赵明在微博上爆料称,除了自拍王者荣耀20S,我们还会发布另一个档位的王者,很吓人的。说起“荣耀”“很吓人的”,倒是很容易让人联想起因“吓人的技术”而闻名的荣耀Play,这款手机首次将麒麟970带到1999元价位段,并首发GPU Turbo技术,大幅提升手机游戏性能,让游戏帧数更加稳定。 荣耀Play 赵明爆料微博发出后,有大V评论称:“问过了,据说是荣耀play!”难道这次荣耀会在新品发布会上发布荣耀Play的迭代产品?值得注意的是,赵明曾有提到“另一个档位的王者”,因此这款神秘新机很有可能在价格和定位上与荣耀20S截然不同,如果真的是新款荣耀Play,则极有可能实现某个方面的降维打击,并首发荣耀全新的自研技术。 荣耀20S发布会将于9月4日晚7:30在武汉举行,这款神秘荣耀新机真的会是新款荣耀Play吗?我们拭目以待。

    时间:2020-05-25 关键词: turbo GPU 麒麟970 荣耀手机

  • GPU为机器视觉可以带来些什么

    GPU为机器视觉可以带来些什么

    机器视觉的核心是简单地利用图像中可用的信息来决定图像中的对象下一步该做什么。 在装配线上或装运之前对产品进行简单的通过/失败检查是一个更简单的例子。PCB检测是一种常见的用例,当生产PCB从自动拾取和放置系统移动到下一阶段时,可以快速轻松地将正确填充板的图像与生产PCB进行比较。 这是质量保证和废料减少的宝贵步骤,人类的眼睛和大脑每天都不会一直重复数百甚至数千次,而机器视觉却可以做到。 随着图像捕获系统的分辨率增加,机器视觉的可能性也增加,因为可用于评估的细节以相应的速率增加。可以针对主模板评估较小和较小的视觉信息子集,增加了系统处理器在数据流失中的负担并且快速地做出关于后续步骤的决定。 简单的拿农业蔬菜分级举例说明,蔬菜分级是指产品质量的简单尺寸和合格/不是最佳的情况,产品质量会随着季节不同而变化。而未来能够最大限度的节约成本和保证蔬菜的质量,就需要更优化的算法来进行质量分级,这对于人眼和大脑来说是几乎不可能的任务,但是通过智能相机方案定制就可以处理大量的信息,需要多个阶段和摄像机,机器照明,种植场地增加等。 此外,一种方法是应用广泛的处理能力,既可以作为高带宽连接的集中处理单元,也可以作为智能相机的分布式处理,直接在摄像机中实时处理数据,只需将每个产品的结果传送到最终的机械分级系统。 可以依靠具有不同传感器阵列的可更换磁头与智能相机系统配合使用。例如,其高光谱成像头可以对食品质量和安全性进行无损检测。在标准视觉系统中,食品质量和安全性通常由外部物理属性(如纹理和颜色)定义。 高光谱成像使食品行业有机会将新属性纳入质量和安全评估,如化学和生物属性,以确定产品中的糖,脂肪,水分和细菌数量。在高光谱成像中,从每个像素获得空间和光谱信息的三维图像立方体。 更多的光谱特性可以更好地区分属性,并使更多的属性得到认可。图像立方体包括所有获取的光波长的每个像素的强度(反射或透射光),这导致每个图像立方体包含大量信息。该数据量表示计算挑战的指数增加,以实时提取产品分级的定性和定量结果。 只需要在智能相机平台中使用加速处理单元(APU),将GPU和CPU组合在同一个芯片上,使系统能够将视觉应用中的密集像素数据处理卸载到GPU,而无需处理组件之间的高延迟总线事务处理。 这使CPU能够以更低的延迟提供其他中断,有助于提高整个系统的实时性能,并满足现代视觉系统不断增长的处理需求。GPU是一个大规模并行引擎,可以同时在大数据(像素)集中应用相同的指令;这也正是机器视觉所需要的。通过将APU与移动PCI Express模块(MXM)外形中的外部独立GPU配对,可以进一步提高性能,使其能够在需要时添加额外的GPU处理资源以支持更加密集的视觉任务。 关于软件,异构处理平台可以由标准Linux内核管理,每个新内核版本只需要适度的开发支持。x86的生态系统支持使公司能够利用开源和第三方图像处理库,如OpenCV,Mathworks Matlab和Halcon。调试工具,延迟分析器和分析器(perf,ftrace)也广泛可用。 机器视觉是可扩展处理如何在嵌入式应用程序中发挥作用的一个很好的例子。 来源:朗锐智科

    时间:2020-05-22 关键词: 机器视觉 GPU

  • Win 10果然是Bug 10:GPU占用率原来是这么算的

    Win 10果然是Bug 10:GPU占用率原来是这么算的

    从总体上来说,Windows 10是一个好系统,虽然我们天天戏称它为“Bug 10”,但不可否认的是,从立项以来,开发团队就一直在努力为它加入新的功能,其中有不少是相当实用的。 比如说,他们在1709这个大版本中,为任务管理器加入了GPU性能监控单元,用户可以通过任务管理器直观地看到目前的GPU占用率,比以往要开GPU-Z等程序方便了不少。 但很多用户在实际使用的时候也发现了,这个针对GPU的性能监控好像不太准,我显卡在全力计算的时候,任务管理器里面的GPU占用率怎么这么低? 比如我开个挖矿程序,显卡的占用其实是满的,但左边GPU窗格中显示的占用率只有3% 为了找出答案,我们找到了当时引入这项新功能时,开发者的讲解Blog,由于是与图形相关的内容,这篇Blog被归入DirectX Developer Blog中。 首先开发者给我们讲述了任务管理器是怎么得知GPU的占用情况的。在Windows 10上面,GPU通过Windows Display Driver Model(WDDM,Windows显示驱动模型)抽象,它的核心—;—;图形内核—;—;负责抽象、管理和在所有进程分配GPU资源。 它含有一个GPU事务器(VidSch)和一个视频内存管理器(VidMem),前者负责将GPU的各种引擎分配给想要使用它们的进程,并对访问进行仲裁和优先级排序,后者则是负责管理GPU可调用的内存—;—;包括专用的显存和共享的系统内存。 任务管理器就是通过VidSch和VidMem回报的数据来计算GPU的使用情况的,这样一来,不管程序使用了什么API(DX、OpenGL、OpenCL,甚至CUDA、Mantle这种专有API都可以监控),它都能准确地收集GPU的占用情况,另外由于两者是实际负责分配GPU资源的,位于驱动层面,它们回报数据的精准度也要比很多第三方工具要高,使得任务管理器有很高的精度。 既然有很高的精度,那它为什么还是报不准我的GPU占用率呢?这就牵扯到另一个问题,GPU引擎。 现代GPU上除了有主要用于图形、通用计算的统一计算单元外,还会集成一些其他的电路,比如说,用于视频编解码的专用模块。它们之间的关系一般是并行的,GPU可以同时运行图形计算和视频编码任务,在驱动层面,这些不同的模块就被抽象为不同的Engine,也就是引擎,比如说一个典型的GPU可以有以下这些引擎: 在具体执行任务的时候,不同的任务会在不同的引擎上面执行,比如说我打游戏,就用到3D引擎;我用显卡加速Premiere Pro,就用到CUDA引擎;我用NVENC编码视频,就用到视频编码引擎。 一张RTX 2060显卡被系统抽象出的引擎 由于部分引擎之间有复用的关系,比如说3D引擎和CUDA引擎复用CUDA Cores进行计算,那么如果通过简单加法来计算占用率,那这个占用率就有可能会超过100%。 开发团队也考虑过使用平均利用率来表示,但也不靠谱。那3D引擎不是被用的最多吗,就用它怎么样?也不太行,比如在视频引擎满载而3D引擎空载的情况下,它将会显示0%的占用率,也是不准确的。最终,开发团队选择将当前最为繁忙的引擎占用率作为GPU整体占用率的代表。 恩……博文说的很好,那么到今天为止这个功能上线也有一段时间了,其具体表现是怎样的呢?让我们看回顶上的那张图,在GPU的CUDA引擎满载的情况下,其左边的整体占用率仍然很低,显然是没有达到开发团队所说的。 我们又测试了一下别的情况,这里使用NVENC对视频进行编码,此时可以看到左边窗格中的GPU占用率又跑到了满载。 而在跑典型的3D应用程序的时候,它也很正常。 最后,我们尝试了OpenCL负载,这次任务管理器又能反映出CUDA引擎的占用率了。 如此看来,任务管理器GPU占用率的薛定谔情况可能是Windows 10的一个Bug所导致的,在大部分情况下,它都会反映负载最大引擎的占用率,但在某些情况下,它并不能够正确地显示当前最繁忙引擎的占用情况。

    时间:2020-05-21 关键词: GPU 任务管理器 占用率

  • 谈谈手机GPU驱动升级那点事

    谈谈手机GPU驱动升级那点事

    最近,MIUI开始推送独立GPU驱动的事情,引起了很多朋友的关注。众所周知,手机的硬件驱动往往不能像电脑一样,独立安装升级,现在情况居然发生了变化,不少朋友纷纷感叹这简直就是黑科技。▲应用商店竟然可以推送GPU驱动更新?GPU驱动能够独立升级,对于用户体验来说,无疑是一件好事情。通过独立的驱动更新,手机能够更迅速便捷地获得新驱动带来的性能提升、问题修复。这样的好事情,在别的安卓上也会有吗?这是独门科技还是大势所趋?这就来谈谈吧。安卓为何没法单独升级驱动?安卓之所以长时间以来,没法像Windows那样灵活升级驱动,是和系统架构息息相关的。安卓基于Linux,而Linux使用的是宏内核,系统内核和驱动等模块紧密结合。而Windows的架构更接近于微内核,系统各模块之间分离度较高。宏内核和微内核(类微内核)的特性,会反映到驱动的更新推送的体验上。由于宏内核将驱动和系统内核耦合在一起,因此如果想要升级驱动,往往需要升级系统;而Windows这样的类微内核系统,则可以独立升级驱动。微软为了兼容更多硬件,还为驱动设计了标准模型,例如图形驱动的WDDM,音频架构UAA等,只要驱动编写符合WDDM、UAA等架构,就可以自行安装升级,无需对系统内核进行改动。▲传统意义上的安卓系统架构,可见显示驱动、相机驱动等等都是被打包在Linux内核当中的尽管宏内核在驱动升级方面不够灵活,但Linux之所以如此设计,还是有道理的——宏内核耦合度高,这可以带来更高的进程间IPC通讯效率,性能更为出色。因此,我们可以看到Linux广泛应用于各类不同性能的设备之上,超算用Linux能够更加物尽其用,智能手环这样的小物件用Linux则可以带来更流畅的体验。安卓的改变:装驱动越来越像Windows?然而,宏内核在移动互联网/物联网时代,则遭遇到了一些挑战。各式各样智能设备迅速涌现,令硬件适配成为了一个不得不面对的问题。以安卓机为例,市面上的安卓机使用了不同的CPU、GPU、基带、CODEC等等,由于宏内核的高耦合度,安卓机很难对操作系统和硬件驱动进行单独升级,无论想要升级系统还是想要升级驱动,厂商都需要为每个安卓机型号单独制作系统镜像。并不是每个厂商都会选择投入大精力到系统维护当中的,这导致了安卓系统和驱动升级困难,最后的结果就是安卓机系统版本的碎片化。为此,Google改变了安卓的形态,在安卓8.0中推行了Project Treble机制,将系统(Android OS framework)单独分区,和硬件驱动(Vendor implementation)分离,此后厂商可以为设备单独推送新版安卓,而不需要重新适配驱动。Project Treble大大简化了安卓系统的升级流程,我们也可以观察到,安卓8.0以后的设备,升级安卓大版本的速度比以前更快了。▲Project Treble将Google的安卓系统框架和硬件供应商提供的驱动作了分离但这还不够。在安卓10当中,Google推行了Project Mainline,将系统进一步细分模块化。在安卓10中,14个系统组件被Mainline化,媒体解码器、权限控制器、网络组件等系统组件,都可以像普通APP一样,通过应用商店来更新——GPU驱动能够独立更新,就得益于此。可以说,安卓通过Project Treble和Project Mainline,正变得越来越“微内核”。在尚未正式发布的安卓11中,安卓的组件模块达到了20个之多,安卓的系统维护将会变得前所未有地灵活,变得越来越像PC。GPU驱动升级是黑科技吗?可见,MIUI之所以能够通过应用商店独立更新GPU驱动,主要是受益于安卓Project Treble和Project Mainline的特性。而作为此次更新所服务的硬件,高通芯片的贡献也功不可没。在去年年底,高通就宣布旗下的最新SoC骁龙865,可以通过应用商店来独立更新驱动,而且更新操作和更新APP一样简单。不过当时高通所说的是通过Google Play商店来进行更新,由于众所周知的原因,国内无法使用Google Play,因此MIUI转用自己的渠道更新GPU驱动,这还是很不错的。▲高通宣布GPU驱动可以单独更新如无意外,高通今后也会继续为旗下的芯片发布新驱动,不过是否所有的安卓机都能收到更新?这最终还得看手机OEM厂商——驱动发布后,需要OEM厂商进行测试,然后再向用户推送。无论如何,OEM厂商所需要做的工作,已经比以往少了许多,这都不给用户提供驱动升级,未免太说不过去。目前高通似乎尚未明确除了骁龙865外,还有哪些芯片能够获得独立的驱动更新。但无论如何,Project Mainline的前途是光明的。此后我们有望在越来越多的手机上得到GPU驱动升级这样的福利,这个Google带来的“黑科技”将成为解决安卓碎片化的希望。总结随着移动互联网和物联网的发展,为了更灵活地适配硬件,系统的“微内核化”似乎成为了趋势,从安卓的系统架构变更可以印证这点。希望有更多硬件厂商跟进安卓的新机制,及时为各类硬件推送独立驱动,为用户带来更好的体验吧!

    时间:2020-05-21 关键词: GPU

  • Intel展示“天父级”GPU:核心面积2.6倍于10核酷睿i9

    Intel展示“天父级”GPU:核心面积2.6倍于10核酷睿i9

    Intel义无反顾地扎进独立显卡领域,成败皆系于Xe架构上。 记性好的读者可能还有印象,去年12月,Intel首席架构师、图形业务负责人Raja Koduri曾晒出Intel班加罗尔团队的合影,称他们取得重大突破,在迈向全球最大硅芯片的路上达成里程碑。 今天,Intel方面晒出了这款“baap of all(天父级)”的GPU芯片,也就是已经流片成形。以5号电池为参照物,芯片封装面积约在3696mm2,有效芯片面积约2343mm2。 什么概念? 以最新发布的10代酷睿i9-10900K为例,10核20线程、LGA1200接口的它,封装面积不过1406mm2。几乎看齐了28核至强铂金8280(LGA3647)的4200mm2。 不出意外的话,这颗核心就是用于Ponte Vecchio(维琪奥桥)Xe_HP GPU,主要服务数据中心、人工智能等高负载场景。 有外媒还据此估计,Intel中高性能的游戏显卡,GPU面积预计在250~500mm2之间,媲美如今AMD RDNA和NVIDIA Turing GPU的规模。 大神Jim Keller(左图)和Raja(右图)

    时间:2020-05-21 关键词: Intel xe GPU 显卡

  • 国内首次!小米10/K30 Pro已支持应用商店更新GPU驱动

    国内首次!小米10/K30 Pro已支持应用商店更新GPU驱动

    4月29日消息 据网友曝料,小米10/10 Pro, Redmi K30 Pro已支持应用商店更新GPU驱动,并且是国内首批支持的机型。小米在应用商店上架了一款名为GPU驱动更新的应用,应用介绍称“支持GPU驱动的独立升级功能,使游戏或应用能够自由适配最新的GPU驱动。”主要功能是充分释放GPU潜能,不断提升游戏体验;优化GPU驱动,增强游戏性能和稳定性。此次GPU驱动更新主要是提升崩坏3、和平精英、堡垒之夜的运行稳定性,增强了Vulkan性能。了解到,去年高通发布骁龙865与骁龙765处理器时,曾公布过一个新特性——GPU驱动可单独在应用商店更新。

    时间:2020-05-19 关键词: GPU 小米10

  • 全新安培GPU架构来了!NVIDIA 5月14日发布黄仁勋演讲

    全新安培GPU架构来了!NVIDIA 5月14日发布黄仁勋演讲

    受新冠疫情影响,NVIDIA一年一度的图形技术大会GTC 2020一再推迟,最终无奈取消,改为新闻稿方式播出,万众期待的全新GPU架构“安培”(Ampere)也未能如期问世。 今天,NVIDIA官方宣布,将于北京时间5月14日21点,以录播的方式,放出创始人兼CEO黄仁勋的GTC 2020主题演讲。 NVIDIA表示,在这场原定于3月23日的演讲中,黄仁勋会介绍公司在AI人工智能、HPC高性能计算、深度学习、数据科学、自动驾驶、医疗健康、机器人、专业图形等方面的创新。 更具体的细节现在肯定不会披露,但值得注意的是,NVIDIA在新闻稿副标题中用了“Get Amped”一词,可以理解为沸腾起来,但这很显然是在暗指新的Ampere架构,Amp也正好就是电流单位。 所以,至此可以99.9%地确认,黄仁勋会在演讲中介绍下一代安培GPU架构,它将取代已经诞生接近两年的“伏特”(Volta)架构,成为NVIDIA在专业图形与计算领域的新基石。 按照惯例,这次宣布的新一代计算卡应该会命名为Tesla A100。 需要注意的是,伏特架构当年就是专门为专业用途设计的,游戏卡上则是帕斯卡、图灵,这一次的安培架构可能也会类似,下一代游戏卡会有另一个新架构。

    时间:2020-05-14 关键词: NVIDIA GPU tesla 黄仁勋 ampere 安培

  • Vicor 1200A ChiP-set 助力实现更高性能的 AI 加速卡

    Vicor 1200A ChiP-set 助力实现更高性能的 AI 加速卡

    2020 年 5 月 14 日,马萨诸塞州安多弗讯 — Vicor 推出面向直接由 48V 供电的高性能 GPU、CPU 和 ASIC (XPU) 处理器的ChiP-set。一个驱动器模块MCD4609加上一对电流倍增器模块MCM4609,可提供高达 650A 的持续电流和 1200A 的峰值电流。得益于小的空间占用以及纤薄的尺寸(45.7 x 8.6 x 3.2 毫米),电流倍增器可部署在靠近处理器的位置,不仅能显著降低配电网络 (PDN) 损耗,而且还能提高电源系统效率。4609 ChiP-set 主要为 GPU 和 OCP 加速模块 (OAM) 人工智能卡供电,现已投入批量生产,可供新客户在 Vicor Hydra II 评估板上进行评估。 Vicor 合封电源AI加速卡 4609 ChiP-set 丰富了Vicor 横向供电 (LPD) 解决方案的合封电源组合,突破横向供电(LPD)电流传输的极限。Vicor开创性的垂直供电(VPD)将很快实现更高的电流密度。VPD系统通过与处理器特定的引脚映射相匹配的电容网络,从垂直堆叠在处理器下方的功率转换器输出电流。GCM(“齿轮传动电流倍增器”)专用于VPD,与“变速箱”电容网络合并一起作为垂直堆栈中的一层,通过在处理器下方直接提供电流并消除PDN损耗,GCM将很快使电流密度达到2A/mm2。 Vicor Hydra II 评估板 合封电源 LPD 和 VPD 解决方案关键路径上的Vicor IP,能够为高级处理器(人工智能加速卡、人工智能高密度集群和高速组网等各种应用)提供无与伦比的电流密度和高效的电流传输。

    时间:2020-05-14 关键词: 加速卡 GPU AI

  • 涨知识:1999年的GeForce 256显卡长这样 世界首款GPU

    涨知识:1999年的GeForce 256显卡长这样 世界首款GPU

    NVIDIA是GPU图形处理器的发明人,在GPU之前显卡是分2D和3D的,1999年8月份NVIDIA发布的GeForce 256才是首个GPU,集成了硬件3D加速单元,奠定了显卡的基础。 在GeForce 256上,NVIDIA首次带来了256位3D单元、首个几何变换引擎、首个动态光照引擎、首次集成4像素渲染管线,并支持DX7.0及OpenGL。 此外,GeForce 256集成了2300万个晶体管,是当时P3处理器的2倍以上,浮点性能50Gflops,每秒1500万个三角形、4.8亿像素的渲染能力,这是前所未有的。 日本akiba-pc今天就挖坟到了1999年发布的一篇文章,让大家回忆起了GeForce 256显卡发售的情况。 这款显卡是创新品牌的,32MB显存,AGP接口,1999年10月9日起开卖,售价为28800日元,算下来约为1898元人民币,不过那时候是1999年的汇率,大家想想1999年有多少人能买得起这样2000块钱的显卡。 对了,1999年首发GeFroce 256显卡的厂商有Creative Labs、ELSA、Guillemot、ASUSTeK、Canopus及Leadtek,现在看看还有几家是在继续做显卡的。

    时间:2020-05-13 关键词: NVIDIA GPU 256 显卡 geforce

  • FPGA与GPU类比分析

    FPGA与GPU类比分析

    什么是FPGA?他有什么作用?本文通过与GPU对比,来搞懂FPGA的一些难点,解答几个有关FPGA的常见问题——什么是FPGA、为什么我会需要FPGA、如何为FPGA编程?FPGA(现场可编程门阵列)是集成电路中的重要门类,与CPU、存储器、DSP并称为四大通用集成电路芯片,它属于半导体行业无法缺少的一块,而国内半导体正处在蓬勃的发展阶段,各类高科技公司需求旺盛。 FPGA 是一堆晶体管,你可以把它们连接(wire up)起来做出任何你想要的电路。它就像一个纳米级面包板。使用 FPGA 就像芯片流片,但是你只需要买这一张芯片就可以搭建不一样的设计,作为交换,你需要付出一些效率上的代价。 从字面上讲这种说法并不对,因为你并不需要重连(rewire)FPGA,它实际上是一个通过路由网络(routing network)连接的查找表 2D 网格,以及一些算术单元和内存。FPGA 可以模拟任意电路,但它们实际上只是在模仿,就像软件电路仿真器模拟电路一样。这个答案不恰当的地方在于,它过分简化了人们实际使用 FPGA 的方式。接下来的两个定义能更好地描述 FPGA。 电路模拟是 FPGA 的经典主流用例,这也是 FPGA很早出现的原因。FPGA 的关键在于硬件设计是用 HDL 形式编码的,而且买一些便宜的硬件就可以得到和 ASIC 相同的效果。当然,你不可能在 FPGA 和真正的芯片上使用完全相同的 Verilog 代码,但至少它们的抽象范围是一样的。 这是与 ASIC 原型设计不同的一个用例。和电路仿真不同,计算加速是 FPGA 的新兴用例。这也是微软成功加速搜索和深度神经网络的原因。而且关键的是,计算实例并不依赖于 FPGA 和真正 ASIC 之间的关系:开发人员针对基于 FPGA 的加速编写的 Verilog 代码不需要与用来流片的 Verilog 代码有任何的相似性。 这两种实例在编程、编译器和抽象方面存在巨大差异。我比较关注后者,我将其称为「计算 FPGA 编程」(computaTIonal FPGA programming)。我的论点是,目前计算 FPGA 的编程方法都借鉴了传统的电路仿真编程模型,这是不对的。如果你想开发 ASIC 原型的话,Verilog 和 VHDL 都是正确的选择。但如果目标是计算的话,我们可以也应该重新思考整个堆栈。 让我们开门见山地说吧。FPGA 是一类很特殊的硬件,它用来高效执行模拟电路描述的特殊软件。FPGA 配置需要一些底层软件——它是为了 ISA 编写的程序。 这里可以用 GPU 做类比。 在深度学习和区块链盛行之前,有一段时间 GPU 是用来处理图形的。在 21 世纪初,人们意识到他们在处理没有图形数据的计算密集型任务时,也会大量使用 GPU 作为加速器:GPU 设计师们已经构建了更通用的机器,3D 渲染只是其中一个应用而已。 FPGA的定义以及和GPU的类比 计算 FPGA 遵循了相同的轨迹。我们的想法是要多多使用这一时兴的硬件,当然不是为了电路仿真,而是利用适合电路执行的计算模式,用类比的形式来看 GPU 和 FPGA。 为了让 GPU 发展成今天的数据并行加速器,人们不得不重新定义 GPU 输入的概念。我们过去常常认为 GPU 接受奇特的、强烈的、特定领域的视觉效果描述。我们实现了 GPU 执行程序,从而解锁了它们真正的潜力。这样的实现让 GPU 的目标从单个应用域发展为整个计算域。 我认为计算 FPGA 正处于类似的转变中,现在还没有针对 FPGA 擅长的基本计算模式的简洁描述。但它和潜在的不规则并行性、数据重用以及大多数静态的数据流有关。 和 GPU 一样,FPGA 也需要能够体现这种计算模式的硬件抽象,Verilog 用于计算 FPGA 的问题在于它在低级硬件抽象中效果不好,在高级编程抽象中的效果也不好。让我们通过反证法想象一下,如果用 RTL(寄存器传输级)取代这些角色会是什么样。 甚至 RTL 专家可能也无法相信 Verilog 是可以高效开发主流 FPGA 的方式。它不会把编程逻辑推向主流。对于经验丰富的硬件黑客来说,RTL 设计似乎是友好而熟悉的,但它与软件语言之间的生产力差距是不可估量的。 事实上,对现在的计算 FPGA 来说,Verilog 实际上就是 ISA。主要的 FPGA 供应商工具链会将 Verilog 作为输入,而高级语言的编译器则将 Verilog 作为输出。供应商一般会对比特流格式保密,因此 Verilog 在抽象层次结构中会处于尽可能低的位置。 把 Verilog 当做 ISA 的问题是它和硬件之间的距离太远了。RTL 和 FPGA 硬件之间的抽象差距是巨大的,从传统角度讲它至少要包含合成、技术映射以及布局布线——每一个都是复杂而缓慢的过程。因此,FPGA 上 RTL 编程的编译/编辑/运行周期需要数小时或数天,更糟糕的是,这是一个无法预测的过程,工具链的深层堆栈可能会掩盖 RTL 中的改变,这可能会影响设计性能和能源特性。 好的 ISA 应该直接展示底层硬件未经修饰的真实情况。像汇编语言一样,它其实不需要很方便编程。但也像汇编语言一样,它的编译速度需要非常快,而且结果可预测。如果想要构建更高级的抽象和编译器,就需要一个不会出现意外的低级目标。而 RTL 不是这样的目标。 如果计算 FPGA 是特定类算法模式的加速器,那当前的 FPGA 并不能理想地实现这一目标。在这个游戏规则下能够击败 FPGA 的新硬件类型,才可能带来全新的抽象层次结构。新的软件栈应该摒弃 FPGA 在电路仿真方面的遗留问题,以及 RTL 抽象。以上就是FPGA的解析,希望能给大家帮助。

    时间:2020-05-13 关键词: FPGA GPU 单片机

  • 国产GPU的进展顺利,能够追上GTX 1080了?

    国产GPU的进展顺利,能够追上GTX 1080了?

    虽然国产CPU这几年来进步很大,但是GPU方面与AMD及NVIDIA的差距要比CPU落后太多了,国内大概刚刚进入3D时代的阶段。 长沙景嘉微公司日前透露,该公司新一代GPU进展顺利,正在进入后端设计阶段。 景嘉微是国产GPU中的领头羊,之前研发的JM5400系列GPU已经在一下军用产品上替代了ATI的产品,目前的主力是JM7200系列,28nm制程工艺,核心频率1.2GHz,搭配4GB DDR3显存,性能跟NVIDIA的GT 640显卡相近,不过整体功耗不足10W,大大低于后者的50W TDP。 再往下还有更新一代的JM9系列,还在研发中。去年8月份,景嘉微公司公布的JM9系列研发进度是“目前已完成可行性论证和方案论证,正在进行前端设计和软件设计。” 今天下午,景嘉微在股东会议上表示,“下一代图形处理芯片按计划开展研发工作,目前处于后端设计阶段。” 从两次进度对比来看,下一代国产GPU的进展还很顺利,现在是后端设计阶段,当然后续还会有流片、验证、小规模生产、量产等多个阶段等着呢。 至于景嘉微JM9系列GPU的性能,根据公司之前招股书中的资料,JM9231 的性能可达到2016年中低端产品水平,而JM9271 核心频率不低于1.8GHz,支持PCIe 4.0 x16,搭配16GB HBM显存,带宽512GB/s,浮点性能可达8TFLOPS,性能不低于GTX 1080的水平,可达到2017年底的高端显卡的水平。 国产GPU能够追上GTX 1080了?这个目标听上去很远大,不过景嘉微并没有公布过进度表,之前传闻说是今年底完成JM9系列GPU的设计,不过从之前的JM5、JM7系列来看,延期是肯定的,再加上流片、生产等阶段,JM9系列估计要到2年后才有可能问世,那时候GTX 1080的性能已经不算多强了。 那么目前来说,国产GPU很难很快能跟AMD、NVIDIA公司竞争,景嘉微及其他GPU厂商主要还是立足于国产替代,优先满足军用、特种行业使用,桌面级市场还有很多问题要解决。

    时间:2020-05-12 关键词: 国产 GPU

  • 高通骁龙768G参数公布:CPU/GPU提升15%,支持10亿色照片

    高通骁龙768G参数公布:CPU/GPU提升15%,支持10亿色照片

    今天中午,高通公布了新款SoC 骁龙768G,骁龙768G支持拍摄超过10亿色的照片,支持4K HDR视频录制;单摄支持192 MP,视频格式支持HDR10, HDR10+, HLG, HEVC。 搭载了高通Kyro 475 CPU+传感器中枢+X52 5G调制解调器/射频系统,支持毫米波及6GHz以下频段。现在,高通官网公布了这款SoC的详细信息,一起来看一下吧。 骁龙768G支持120Hz屏,持部分骁龙Elite Gaming特性,支持GPU驱动升级;网络支持支持毫米波及6GHz以下频段,高通5G PowerSave技术,拥有全天候续航能力;支持Wi-Fi 6。 视频解码方面,骁龙768G支持H.265 (HEVC), H.264 (AVC), VP8, VP9,屏幕显示器支持QHD+ @ 60 Hz , FHD+ @ 120 Hz。内存方面,骁龙768G支持2133MHz。 根据官网的介绍,CPU部分,Kyro 475 频率可达2.8GHz,相比骁龙765G提升15%;GPU部分, Adreno 620 相比骁龙765G同样提升15%。

    时间:2020-05-11 关键词: CPU GPU

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章

技术子站

更多

项目外包