当前位置:首页 > 产业资讯 > 产业新闻
[导读]- 这款经过验证的解决方案可以在一个AI服务器集群中扩展上千个英特尔Nervana NNP-T ASIC芯片,达到近线性扩展效率 丹佛2019年11月19日 /美通社/ -- 企业计算、存储和网络解决

- 这款经过验证的解决方案可以在一个AI服务器集群中扩展上千个英特尔Nervana NNP-T ASIC芯片,达到近线性扩展效率

丹佛2019年11月19日 /美通社/ -- 企业计算、存储和网络解决方案以及绿色计算技术领域的全球领导者美超微电脑股份有限公司(Super Micro Computer, Inc.) (SMCI)正在与英特尔展开合作,将美超微的先进系统与英特尔® Nervana(TM)神经网络训练处理器(NNP-T)相结合,开发新的人工智能(AI)解决方案。英特尔的NNP-T是一款专门用于AI训练的ASIC芯片(专用集成电路),可满足深度学习训练模型不断增长的计算需求。


美超微总裁兼首席执行官梁见后(Charles Liang)表示:“美超微很高兴能与英特尔就Nervana NNP-T平台展开合作。由于在计算、通信和内存上达到平衡,在美超微系统上经过验证的NNP-T ASIC可以训练大规模AI模型,通过机箱内和机箱间的连接与通讯,达到近线性的扩展效率。”

英特尔Nervana NNP-T突破了内存上的限制,可通过美超微的机架式服务器,比市面上的其他解决方案更轻松地进行横向扩展。作为验证程序的一部分,美超微集成了8个NNP-T处理器、两个第二代英特尔®至强®可扩展处理器,每个节点最多支持6TB DDR4内存,同时支持PCIe卡和OAM(OCP加速器模块)规格。美超微NNP-T系统预计将在2020年中期推出。

英特尔公司人工智能产品事业部副总裁兼总经理Naveen Rao表示:“美超微已经验证了我们的深度学习解决方案,目前正在帮助我们验证Nervana NNP-T系统架构,包括卡和服务器设计、互连性和机架。”

凭借适用于复杂深度学习模型的高计算利用率和高效内存架构,美超微的NNP-T AI系统可验证现实中要考虑的两个关键因素:加速复杂AI模型的训练并符合既定的功率预算要求。该系统将加快AI模型在图像和语音识别上的训练、提高天然气和石油勘探的效率,提升医学图像分析的准确性,以及加速自动驾驶模型的生成。

圣地亚哥超级计算中心(加州大学圣地亚哥分校下设的研究机构)副主任Shawn Strande说:“我们正在与英特尔和美超微合作,利用NNP-T系统架构来加强创新计算和数据分析功能的研究与发现,以便投入到科学和工程应用中。”

美超微正在参加2019年11月17日至22日在美国科罗拉多州丹佛市的科罗拉多会展中心举办的SC19展会,在1211号展位上展示搭载PCIe卡的NNP-T AI系统。

相关链接 :

http://www.supermicro.com

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
关闭
关闭