对话式人工智能

使用 NVIDIA NeMo 框架和服务简化对大型语言模型的访问

大型语言模型( LLM )的最新进展为 NLP 应用程序(如医疗保健中的虚拟抄写员、交互式虚拟助理等)提供了最先进的性能。

为了简化对 LLM 的访问, NVIDIA 宣布了两项服务: NeMo LLM 用于定制和使用 LLM , BioNeMo 扩展 LLM 在制药和生物技术行业的科学应用。 NVIDIA NeMo Megatron 是一个用于培训和部署 LLM 的端到端框架,现在可以通过开放测试版向世界各地的开发人员提供。

NeMo LLM 服务

NVIDIA NeMo LLM 服务提供了定制基础 LLM 并利用 NVIDIA 托管云 API 或通过私有云和公共云大规模部署它们的最快路径。

NVIDIA 和社区构建的基础模型可以使用 提示训练能力 进行定制,这是一种计算效率高的技术,在用户查询中嵌入上下文以在特定用例中实现更高的准确性。这些技术只需要几百个样本即可实现高精度。现在, LLM 用一个模型服务多个用例的承诺实现了。

开发人员可以为特定领域和用例构建应用程序,包括文本摘要、释义、故事生成等。需要最少的计算和技术专业知识。

Megatron 530B 模型是世界上最大的 LLM 之一,基于 GPT-3 架构,具有 5300 亿个参数。它很快将通过 NVIDIA NeMo LLM 服务的早期访问程序提供给开发者。模型检查点将很快通过 HuggingFace 和 NGC 提供,或通过服务使用,包括:

  • T5 : 3B 型
  • 内华达州 GPT-3 : 5B / 20B / 530B

立即申请 use NeMo LLM in early access

加入 GTC 2022 会议 Enabling Fast-Path to Large Language Model Based AI Applications ,了解更多信息。

Bio NeMo 服务

Bio NeMo 服务建立在 NeMo 威震天之上,是基于人工智能的药物发现工作流的统一云环境。化学家、生物学家和人工智能药物发现研究人员可以开发新的疗法;了解它们的性质、结构和功能;并最终预测与药物靶点的结合。

如今, Bio NeMo 服务支持最先进的基于变压器的化学和蛋白质组学模型。不久将支持基于 DNA 的工作流。 ESM-1 架构为蛋白质提供了同等的功能, OpenFold 支持简化使用和缩放用于预测蛋白质结构的工作流。该平台支持端到端的模块化药物发现工作流,以加速研究并更好地理解蛋白质、基因和其他分子。

了解有关 NVIDIA BioNeMo 的更多信息。

NeMo Megatron

NVIDIA 宣布对 NVIDIA NeMo Megatron 进行新的更新,这是一个端到端的框架,用于训练和部署多达数万亿个参数的 LLM 。 NeMo Megatron 现已在多个云平台(包括 Microsoft Azure 、 Amazon Web Services 和 Oracle cloud Infrastructure )以及 NVIDIA DGX SuperPOD 和 NVIDIA DGX Foundry )上对开发人员开放测试版。

NeMo Megatron 作为 NGC 上的容器化框架提供,为构建和部署 LLM 提供了一种简单、有效和经济高效的途径。它由自动化分布式数据处理的端到端工作流组成;培训大规模定制 GPT-3 、 T5 和多语言 T5 ( mT5 )模型;以及部署模型进行大规模推理。

它的超参数工具支持定制模型开发,在任何给定的分布式 GPU 集群配置上,自动搜索用于训练和推理的最佳超参数配置。

使用张量、数据、流水线并行和序列并行等技术,以及选择性激活重新计算,大规模模型变得实用,提供了高训练效率。它还配备了快速学习技术,可以用最少的数据定制不同的数据集,极大地提高性能,完成较少的任务。

立即申请 use NeMo Megatron in open beta

加入 GTC 2022 会议 Efficient At-Scale Training and Deployment of Large Language Models (GPT-3 and T5) ,了解更多最新进展。

 

Tags