NVIDIA MERLIN

NVIDIA Merlin es un framework en versión beta abierta para crear sistemas de recomendación de alto rendimiento basados en deep learning.


Comenzar


Merlin permite a los científicos de datos, a los ingenieros de machine learning ya los investigadores crear recomendaciones de alto rendimiento a escala. Merlin incluye herramientas que democratizan la creación de recomendadores de deep learning al abordar desafíos comunes de ETL, capacitación e inferencia. Cada etapa de la canalización de Merlin está optimizada para admitir cientos de terabytes de datos, todos accesibles a través de API fáciles de usar. Con Merlin, se encuentran al alcance mejores predicciones que los métodos tradicionales y mayores tasas de clics.


Merlin ETL
NVTabular

Merlin NVTabular es una biblioteca de preprocesamiento e ingeniería de funciones diseñada para manipular de manera efectiva terabytes de conjuntos de datos del sistema de recomendación y reducir significativamente el tiempo de preparación de datos. Proporciona transformaciones de características eficientes, preprocesamiento y abstracción de alto nivel que acelera el cálculo en las GPU mediante la biblioteca cuDF de RAPIDS.

Entrenamiento Merlin
HugeCTR

Merlin HugeCTR es un framework de entrenamiento de redes neuronales profundas diseñado para sistemas de recomendación. Proporciona entrenamiento distribuido con tablas de incrustación paralelas de modelos y redes neuronales paralelas de datos en múltiples GPU y nodos para un rendimiento máximo. HugeCTR cubre arquitecturas comunes y recientes como el Modelo de Recomendación de Deep Learning (DLRM), Wide and Deep, Deep Cross Network y DeepFM.

Inferencia de Merlín
TensorRT y Triton

La Inferencia de Merlín acelera la inferencia de producción en GPU para la transformación de funciones y la ejecución de redes neuronales. Ejecute inferencias de manera eficiente en GPU maximizando el rendimiento con la combinación correcta de latencia y utilización de GPU. Aproveche la Inferencia de Merlín con el Servidor de Inferencia NVIDIA Triton™ y NVIDIA® TensorRT™.

Referencia de Merlin
Aplicaciones

Comienza ahora mismo con implementaciones de referencia de código abierto y logra una precisión de vanguardia en conjuntos de datos públicos con una aceleración hasta 10 veces más alta.


Una Arquitectura Integral para los Sistemas


NVIDIA Merlin acelera todos los procesos: desde la incorporación de datos hasta el entrenamiento y la implementación de los sistemas de recomendación acelerados por GPU. Los modelos y las herramientas simplifican el desarrollo y la implementación de un proceso de calidad de producción. Te invitamos a compartir información sobre tu proceso de recomendación en esta encuesta para aportar al mapa de desarrollo de Merlin.


NVIDIA Merlin Open Beta Recommender System Framework

Figura 1: Framework NVIDIA Merlin en Versión Beta Abierta para Sistemas de Recomendación


NVTabular reduce el tiempo de preparación de datos al acelerar con la GPU las transformaciones de funciones y el preprocesamiento.

HugeCTR es un framework de entrenamiento de redes neuronales profundas que es capaz de distribuir el entrenamiento en múltiples GPUs y nodos para obtener el máximo rendimiento.

El Servidor de Inferencia NVIDIA Triton y el NVIDIA® TensorRT™ aceleran la inferencia de producción en GPUs para la transformación de funciones y la ejecución de redes neuronales.



API Específicas de Recomendación

Cuenta con API creadas específicamente para administrar conjuntos de datos tabulares masivos y arquitecturas de modelos que se utilizan en los sistemas de recomendación.

Rendimiento Escalable Robusto

Diseñado específicamente para más de 100 conjuntos de datos de recomendadores y tablas incorporadas con terabytes, gracias a un rendimiento de inferencia 10 veces mejor que otros enfoques.

Modelos de Vanguardia

Compatible con modelos híbridos de vanguardia, como Wide and Deep, Neural Collaborative Filtering (NCF), Variational Autoencoder (VAE), Deep Cross Network, DeepFM y xDeepFM.