当前位置:首页 > 厂商动态 > 厂商文章
[导读]像半导体设计这样如此具有挑战性的工作并不多见。在显微镜下,NVIDIA H100 Tensor Core GPU(上图)这样最先进的芯片看起来就像一个精心规划的大都市,由数百亿个晶体管组成,把它们连接起来的线比人的头发丝还细 1 万倍。

芯片工程师展示了一个高度专业化的行业如何使用NVIDIA NeMo 来定制大语言模型,以获得竞争优势。

10 月31 日,NVIDIA发布的一篇研究论文描述了生成式AI 如何助力芯片设计,后者是当今最复杂的工程工作之一。

这项工作展示了高度专业化领域的公司如何利用内部数据训练大语言模型,从而开发提高生产力的AI 助手。

像半导体设计这样如此具有挑战性的工作并不多见。在显微镜下,NVIDIA H100 Tensor Core GPU(上图)这样最先进的芯片看起来就像一个精心规划的大都市,由数百亿个晶体管组成,把它们连接起来的线比人的头发丝还细1 万倍。

多个工程团队进行协作,需要长达两年的时间才能构建出这样一个数字化超级大都市。

一些小组定义芯片的整体架构,一些小组负责各种超小型电路的设计与布局,还有一些小组负责测试工作。每项工作都需要采取专门的方法、软件程序和计算机语言。

大语言模型广阔的前景

该论文的主要作者、NVIDIA 研究总监Mark Ren 表示:“我相信,随着时间的推移,大语言模型将全面助力所有流程。”

在同日举行的国际计算机辅助设计会议上,NVIDIA 首席科学家Bill Dally 发表主题演讲并公布了这篇论文。这个年度盛会每年都会吸引数百名电子设计自动化(EDA)领域的工程师参加。

此次会议在旧金山举行。Dally 在会上表示:“这标志着在将大语言模型用于复杂的半导体设计方面迈出了重要一步。这项工作表明,即使高度专业化的领域也可以利用内部数据来训练极具价值的生成式AI 模型。”

ChipNeMo 浮出水面

这篇论文详细介绍了NVIDIA 工程师如何创建名为ChipNeMo 的定制大语言模型,供内部使用。该模型使用公司内部数据进行训练并生成和优化软件,以更好地协助人类设计师。

Ren 在EDA 领域从业超过20 多年,他表示,从长远来看,工程师们希望生成式AI 能够用于芯片设计的各个阶段,从而大幅提升整体生产力。

在针对可能的使用场景对NVIDIA 工程师进行调研之后,研究团队一开始选择了三个场景:聊天机器人、代码生成器和分析工具。

初始用例

维护已知bug 的更新描述需要耗费大量时间,而上述分析工具中的后者能够实现此类任务的自动化,并已得到广泛的采用。

一个聊天机器人原型可以回答有关GPU 架构和设计的问题,并且已经帮助许多工程师在早期测试中快速找到技术文档。

代码生成器将帮助设计者编写芯片设计软件。

一个正在开发中的代码生成器(如上图所演示)已经用两种芯片设计师专用语言创建了大约10-20 行软件的片段。它将与现有工具集成,为工程师们提供一个方便的助手来进行设计。

使用NVIDIA NeMo 定制AI 模型

这篇论文主要关注该团队收集设计数据并使用这些数据创建专门的生成式AI 模型,这个过程可以移植到任何行业。

作为起点,该团队选择了一个基础模型,并使用NVIDIA NeMo 对其进行了定制。作为NVIDIA AI Enterprise 软件平台的一部分,NVIDIA NeMo 是一个用于构建、定制和部署生成式AI 模型的框架。定的NeMo 模型具有430 亿个参数,这衡量了它对模式的理解力。它使用超过一万亿个文本和软件中的token、单词和符号进行了训练。

ChipNeMo 提供了一个技术团队如何用自己的数据改进预训练模型的示例。

然后,该团队在两轮训练中完善了该模型。第一轮使用了相当于大约240 亿个token 的内部设计数据,第二轮使用了约13 万个对话和设计示例。

这项工作是半导体行业进行生成式AI 概念研究和印证的几个例子之一, 这一趋势刚刚开始在实验室兴起。

分享经验

Ren 的团队学到的一个最重要的经验就是定制大语言模型的重要性。

芯片设计任务中,只有130 亿个参数的定制ChipNeMo 模型的性能达到或超过了更大的通用大语言模型(例如包含700 亿个参数的LLaMA2)。在某些使用场景中,ChipNeMo 模型甚至好很多。

他补充道,在这一过程中,用户需要谨慎地确定他们收集什么数据以及如何清理数据以用于训练。

最后,Ren 建议用户及时了解可以加快和简化工作的最新工具。

NVIDIA Research 在全球各地拥有数百名科学家和工程师,专注于AI、计算机图形学、计算机视觉、自动驾驶汽车、机器人学等领域。近期的其它半导体项目包括使用AI 设计更小、更快的电路,以及优化大型模块的布局。

希望构建自己的定制大语言模型的企业现在可以从使用GitHub 和NVIDIA NGC 目录中的NeMo 框架开始。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

北京——2024年4月25日 我们的客户选择亚马逊云科技运行他们的关键应用程序和最敏感的数据。每天,世界上发展最快的初创公司、最大的企业和最值得信赖的政府机构都选择亚马逊云科技作为技术基础设施平台。他们之所以选择亚马逊云...

关键字: GPU 计算 生成式AI

领先的数据和AI平台SAS Viya运用大语言模型的可解释性和可集成性改善现有流程;SAS Data Maker将在保护敏感数据的同时解决关键挑战 北京2024年4月18日...

关键字: SAS VI 生成式AI MAKER

据报道,日本电信巨头软银集团将在未来两年投资1500亿日元(9.6亿美元)升级其计算设施,该计划包括大量采购英伟达GPU。

关键字: 软银 英伟达 GPU AI

全新的专有模型导入功能让客户更轻松地将其专属模型导入到Amazon Bedrock中,从而充分利用Amazon Bedrock的强大功能。全新的模型评估功能使客户能够广泛且便捷地选择完全托管模型,包括RAG优化的新版Am...

关键字: 生成式AI 基础模型 数据

4月24日消息,特斯拉CEO马斯克在最近的财报电话会议上透露,特斯拉的Optimus人形机器人预计将在今年底前具备执行“有用的”工厂任务的能力,并有望在2025年底前推向市场。这一消息引发了业界和公众的广泛关注。

关键字: 马斯克 AI 特斯拉 GPU

近日媒体Business Insider透露称,微软目前正在疯狂囤货GPU,目标在2024年12月前达到180万片。微软本次采购的 GPU 主要来自英伟达公司,不过微软也计划采购 AMD 等其它公司的 GPU 进行扩充。

关键字: 微软 GPU

北京——2024年4月18日 西门子中国和亚马逊云科技双方高层在西门子中国北京总部会晤,双方宣布签署战略合作协议,共同成立“联合创新团队”。基于亚马逊云科技在生成式AI领域的领先技术和服务,并结合西门子在工业领域的深厚积...

关键字: 生成式AI 机器学习 大数据

北京——2024年4月17日 亚马逊云科技宣布,在Amazon Bedrock上正式推出来自Anthropic的Claude 3 Opus模型,该模型是Claude 3家族中最智能的模型,在高度复杂的任务上表现卓越,并拥...

关键字: AI驱动 大语言模型 生成式AI

赛诺贝斯开创性"三位一体"商业模式:领跑MarTech行业的创新引擎

关键字: 数字化 大数据 大模型 生成式AI
关闭