NVIDIA MERLIN (PT-BR)
NVIDIA MERLIN
NVIDIA Merlin é um framework beta aberto para a criação de sistemas de recomendação de deep learning em grande escala.
O Merlin capacita cientistas de dados, engenheiros de machine learning e pesquisadores para criar recomendações de alto desempenho em escala. Além disso, inclui ferramentas que democratizaram a geração de recomendações por deep learning, abordando desafios comuns de ETL, treinamento e inferência. Cada estágio do pipeline do Merlin é otimizado para suportar centenas de terabytes de dados, todos acessíveis por meio de APIs fáceis de usar. Com o Merlin, previsões melhores do que os métodos tradicionais e taxas de cliques aumentadas estão ao nosso alcance.
Merlin ETL
NVTabular
Merlin NVTabular é uma biblioteca de pré-processamento e engenharia de recursos projetada para manipular terabytes de conjuntos de dados do sistema de recomendação e reduzir significativamente o tempo de preparação dos dados. Ela fornece transformações de recursos eficientes, pré-processamento e abstração de alto nível que acelera a computação em GPUs usando a biblioteca RAPIDS cuDF.
Treinamento Merlin
HugeCTR
Merlin HugeCTR é um framework de treinamento de rede neural profunda projetado para sistemas de recomendação. Ele fornece treinamento distribuído com tabelas de incorporação de modelos paralelos e redes neurais paralelas de dados em várias GPUs e nós para desempenho máximo. O HugeCTR cobre arquiteturas comuns e recentes, como Deep Learning Recommendation Model (DLRM), Wide e Deep, Deep Cross Network e DeepFM.
Inferência Merlin
TensorRT e Triton
A Inferência Merlin acelera a inferência de produção em GPUs para transformações de recursos e execução de rede neural. Execute a inferência com eficiência em GPUs, maximizando a taxa de transferência com a combinação certa de latência e utilização de GPU. Aproveite as vantagens da Inferência Merlin com o Servidor de Inferência NVIDIA Triton™ e o NVIDIA® TensorRT™.
Referência Merlin
Aplicações
Comece com implementações de referência de código aberto e obtenha precisão de última geração em conjuntos de dados públicos com aceleração até 10 vezes maior.
Uma Arquitetura de Sistemas de Ponta a Ponta
NVIDIA Merlin acelera todo o pipeline com a inclusão e o treinamento para a implantação de sistemas de recomendação acelerados por GPU. Os modelos e as ferramentas simplificam a construção e a implementação de um pipeline com qualidade de produção. Convidamos você a compartilhar algumas informações sobre seu pipeline de recomendação nesta pesquisa para auxiliar no planejamento do Merlin.
Figura 1: Framework do sistema de recomendação do NVIDIA Merlin Open Beta
O NVTabular reduz o tempo de preparação de dados por meio de transformações e pré-processamento de recursos de aceleração de GPU.
O HugeCTR é um framework de treinamento de rede neural profunda que é capaz de treinamento distribuído em várias GPUs e nós para desempenho máximo.
O Servidor de Inferência NVIDIA Triton™ e o NVIDIA® TensorRT™ aceleram a inferência de produção em GPUs para transformações de recursos e execução de rede neural.
APIs Específicas de Recomendação
Apresenta APIs construídas especificamente para gerenciar os conjuntos de dados tabulares massivos e arquiteturas de modelo usados em sistemas de recomendação.
Desempenho Escalonável Robusto
Projetado especificamente para conjuntos de dados de recomendação de mais de 100 terabytes e tabelas de incorporação de terabytes com 10 vezes o desempenho de inferência de outras abordagens.
Modelos de Última Geração
Suporta modelos híbridos de última geração, como Wide e Deep, Neural Collaborative Filtering (NCF), Variational Autoencoder (VAE), Deep Cross Network, DeepFM e xDeepFM.
Recursos
- Introdução ao NVIDIA Merlin (Blog)
- Introdução ao HugeCTR (Palestra Gravada)
- Pipeline Acelerado do Wide and Deep (Blog)
- Construindo Sistemas Inteligentes de Recomendação (Workshop sobre Deep Learning)
- Link da Apresentação do GTC 2020