Q 版老黄带着硬核技术再登场,有点可爱,很有东西
时间:2021-11-11 14:23:12
手机看文章
扫描二维码
随时随地手机看文章
[导读]编译|禾木木出品| AI科技大本营(ID:rgznai100)看到下面这个老黄是不是觉得很Q~11月9日,GTC大会再次来了,英伟达创始人兼CEO黄仁勋再次从自己虚拟厨房走出来。本次GTC大会都有哪些亮点呢?Q版黄仁勋 英伟达展示过如何使用Omniverse来模拟仓库、工厂、物理...



Q 版黄仁勋



Omniverse Avatar 发布
在此次大会上,英伟达宣布推出 NVIDIA Omniverse Avatar,这是一个用于生成交互式 AI 虚拟形象的技术平台。




Omniverse Avatar 技术应用
Omniverse Avatar 的语音识别是基于英伟达 Riva,这是一种软件开发工具包,可识别多种语言的语音。Riva 还用于使用文本到语音功能生成类似人类的语音响应。


NeMo Megatron 框架
在 GTC 大会上,NVIDIA 推出了为训练具有数万亿参数的语言模型而优化的 NVIDIA NeMo Megatron 框架、为新领域和语言进行训练的可定制大型语言模型(LLM)Megatron 530B 以及具有多 GPU、多节点分布式推理功能的 NVIDIA Triton 推理服务器。这些工具与 NVIDIA DGX 系统相结合,提供了一个可部署到实际生产环境的企业级解决方案,以简化大型语言模型的开发和部署。“训练大型语言模型需要极大的勇气:耗资上亿美元的系统、持续数月在数 PB 数据上训练万亿参数模型,离不开强大的信念、深厚的专业知识和优化的堆栈”黄仁勋表示。因此,他们创建了一个专门训练拥有数万亿参数的语音、语言模型的框架——NeMo Megatron。NeMo Megatron 是在 Megatron 的基础上发展起来的开源项目,由 NVIDIA 研究人员主导,研究大型 Transformer 语言模型的高效训练。该框架已经经过优化,可水平扩展至大规模系统并保持很高的计算效率。该框架使用数据处理库自动处理 LLM 复杂训练,可以获取、管理、组织和清理数据。它使用先进的数据、张量和管道并行化技术,使大型语言模型的训练能够高效地分布在数千个GPU上。为了解决大模型推理问题,NVIDIA 创建了 Triton 推理服务器。黄仁勋表示,Triton 是世界上第一个分布式推理服务器,可以在多个 GPU 和多个节点之间进行分布式推理。有了 Triton,GPT-3 可以轻松运行在 8-GPU 服务器上;Megatron 530B 可以分布部署在两个 DGX 系统中,推理时间从 1 分钟缩短至半秒。
人工智能驱动软件技术
英伟达还宣布了2项新人工智能驱动软件技术——Nvidia Drive Concierge 和 Drive Chauffeur。机器人能够在和驾驶员沟通后,调整车辆的行驶模式。最有趣的是 Nvidia Drive Concierge 这个AI助理与 Nvidia Drive AV 自动驾驶技术的集成,可以根据需求提供泊车。当你说寻找停车位时,可以为你自动停车。本次GTC大会给大家展示了很多重要的点,你怎么看呢?参考链接:https://nvidianews.nvidia.com/news/nvidia-announces-platform-for-creating-ai-avatarshttps://www.nvidia.cn/gtc-global/keynote/