NVIDIA MERLIN

NVIDIA Merlin é um framework beta aberto para a criação de sistemas de recomendação de deep learning em grande escala.


Começar


O Merlin capacita cientistas de dados, engenheiros de machine learning e pesquisadores para criar recomendações de alto desempenho em escala. Além disso, inclui ferramentas que democratizaram a geração de recomendações por deep learning, abordando desafios comuns de ETL, treinamento e inferência. Cada estágio do pipeline do Merlin é otimizado para suportar centenas de terabytes de dados, todos acessíveis por meio de APIs fáceis de usar. Com o Merlin, previsões melhores do que os métodos tradicionais e taxas de cliques aumentadas estão ao nosso alcance.


Merlin ETL
NVTabular

Merlin NVTabular é uma biblioteca de pré-processamento e engenharia de recursos projetada para manipular terabytes de conjuntos de dados do sistema de recomendação e reduzir significativamente o tempo de preparação dos dados. Ela fornece transformações de recursos eficientes, pré-processamento e abstração de alto nível que acelera a computação em GPUs usando a biblioteca RAPIDS cuDF.

Treinamento Merlin
HugeCTR

Merlin HugeCTR é um framework de treinamento de rede neural profunda projetado para sistemas de recomendação. Ele fornece treinamento distribuído com tabelas de incorporação de modelos paralelos e redes neurais paralelas de dados em várias GPUs e nós para desempenho máximo. O HugeCTR cobre arquiteturas comuns e recentes, como Deep Learning Recommendation Model (DLRM), Wide e Deep, Deep Cross Network e DeepFM.

Inferência Merlin
TensorRT e Triton

A Inferência Merlin acelera a inferência de produção em GPUs para transformações de recursos e execução de rede neural. Execute a inferência com eficiência em GPUs, maximizando a taxa de transferência com a combinação certa de latência e utilização de GPU. Aproveite as vantagens da Inferência Merlin com o Servidor de Inferência NVIDIA Triton™ e o NVIDIA® TensorRT™.

Referência Merlin
Aplicações

Comece com implementações de referência de código aberto e obtenha precisão de última geração em conjuntos de dados públicos com aceleração até 10 vezes maior.


Uma Arquitetura de Sistemas de Ponta a Ponta


NVIDIA Merlin acelera todo o pipeline com a inclusão e o treinamento para a implantação de sistemas de recomendação acelerados por GPU. Os modelos e as ferramentas simplificam a construção e a implementação de um pipeline com qualidade de produção. Convidamos você a compartilhar algumas informações sobre seu pipeline de recomendação nesta pesquisa para auxiliar no planejamento do Merlin.


NVIDIA Merlin Open Beta Recommender System Framework

Figura 1: Framework do sistema de recomendação do NVIDIA Merlin Open Beta


O NVTabular reduz o tempo de preparação de dados por meio de transformações e pré-processamento de recursos de aceleração de GPU.

O HugeCTR é um framework de treinamento de rede neural profunda que é capaz de treinamento distribuído em várias GPUs e nós para desempenho máximo.

O Servidor de Inferência NVIDIA Triton™ e o NVIDIA® TensorRT™ aceleram a inferência de produção em GPUs para transformações de recursos e execução de rede neural.



APIs Específicas de Recomendação

Apresenta APIs construídas especificamente para gerenciar os conjuntos de dados tabulares massivos e arquiteturas de modelo usados em sistemas de recomendação.

Desempenho Escalonável Robusto

Projetado especificamente para conjuntos de dados de recomendação de mais de 100 terabytes e tabelas de incorporação de terabytes com 10 vezes o desempenho de inferência de outras abordagens.

Modelos de Última Geração

Suporta modelos híbridos de última geração, como Wide e Deep, Neural Collaborative Filtering (NCF), Variational Autoencoder (VAE), Deep Cross Network, DeepFM e xDeepFM.