扫描二维码
随时随地手机看文章
编译 | 禾木木出品 | AI科技大本营(ID:rgznai100)看到下面这个老黄是不是觉得很Q~
11月9日,GTC 大会再次来了,英伟达创始人兼CEO黄仁勋再次从自己虚拟厨房走出来。本次 GTC 大会都有哪些亮点呢?
英伟达展示过如何使用 Omniverse 来模拟仓库、工厂、物理与生物系统、5G 通信、机器人、自动驾驶汽车,现在最新的技术可以直接生成全功能的虚拟形象了。这个 Q 版老黄叫 Toy-Me,可以和人进行自然语言交流。它使用了目前规模最大的预训练自然语言处理模型 Megatron 530B,通过自己的声音、形象和讲话姿势,整个人也带光追特效。one more thing !这一切都是实时生成的。黄仁勋表示,“你会看到这个虚拟形象是基于目前训练的最大语言模型的语言处理打造,包括声音也是用我自己的语音进行合成,还可以看到实时基于光线追踪的精美图像。”黄仁勋演示3个人分别让虚拟形象回答关于气候变化、天文学以及生物蛋白质等问题,都可以对答如流。可谓是上知天文,下知地理!
Omniverse Avatar 是一款基于语言、计算机视觉、自然语言理解、推荐引擎和模拟技术生成的交互式 AI 化身。它具有光线追踪 3D 图形的交互式角色,可以看到、说话、就广泛的主题进行交谈,并理解对话的意图。
Omniverse Avatar 为创建人工智能助手打开了大门,这些助手几乎可以为任何行业轻松定制。这些可以帮助处理数十亿的日常客户服务互动,像是餐厅订单、银行交易、个人约会和预订等等,从而带来更多商机并提高客户满意度。
这个小机器人可以通过语音识别、眼神追踪来推断顾客的意图,并能在2秒左右作出反应,回答顾客提出的问题或要求。“智能虚拟助手的曙光已经到来,”英伟达创始人兼首席执行官黄仁勋表示。“Omniverse Avatar 结合了英伟达的基础图形、模拟和 AI 技术,创造了一些有史以来最复杂的实时应用程序。协作机器人和虚拟助手的用例令人难以置信且影响深远。”
Avatar 的自然语言理解是基于 Megatron 530B 大型语言模型,能够识别、理解和生成人类语言。Megatron 530B 是一个预训练模型,它可以在很少或根本没有训练的情况下完成句子,例如:回答大量主题领域的问题,完形填空、阅读理解、常识推理,自然语言推理、翻译成其他语言等,除了这些训练完,还可以处理许多未经专门训练的领域。Avatar 的推荐引擎由 NVIDIA Merlin 提供,该框架允许企业构建能够处理大量数据的深度学习推荐系统,以提出更明智建议。 Avatar 的感知能力由NVIDIA Metropolis启用,这是一种用于视频分析的计算机视觉框架。头像动画由 NVIDIA Video2Face 和Audio2Face、2D 和 3D 人工智能驱动的面部动画和渲染技术提供支持。Omniverse Avatar 将这些技术被组合成一个应用程序,并使用 NVIDIA 统一计算框架进行实时处理。在 Keynote 中,英伟达还展示了 Omniverse 的一系列新功能,包括 Showroom,负责展示图形、物理、材质和 AI。Farm一个系统层,用于协调跨多系统,工作站、服务器、裸机或虚拟化的批处理作业。Omniverse AR 可以将图形串流到手机和 AR 眼镜上。Omniverse VR 是首款全帧率交互式光线追踪 VR。