Posts by Ashraf Eassa
Data Center / Cloud
2024년 11월 22일
MLPerf Training v4.1에서 LLM 트레이닝 성능을 두 배로 향상시킨 NVIDIA Blackwell
모델이 커지고 더 많은 데이터로 학습되면서 기능이 늘어나고 활용도도 높아지고 있습니다. 이런 모델을 빠르게 훈련하려면 데이터센터 수준의 높은 성능이…
5 MIN READ
Generative AI
2024년 11월 15일
NVSwitch와 TensorRT-LLM 멀티샷으로 3배 빠른 AllReduce 구현
사용자 수가 수백 명에서 수십만 명까지 변동하고 각 요청의 입력 시퀀스 길이가 다른 프로덕션 환경에서 생성형 AI 워크로드를 배포하는 데는 여러…
3 MIN READ
Data Center / Cloud
2024년 10월 30일
추론 속도를 2배 높인 NVIDIA GH200 슈퍼칩, Llama 모델과의 멀티턴 상호작용에서 추론 가속화
프로덕션 환경에 거대 언어 모델(LLM)을 배포하려면 사용자 상호 작용을 향상시키는 것과 시스템 처리량을 늘리는 것 사이에서 어려운 절충점을 찾아야…
4 MIN READ
Data Center / Cloud
2024년 8월 30일
NVLink Switch가 탑재된 NVIDIA HGX H200의 Medusa로 최대 1.9배 향상된 Llama 3.1 성능
거대 언어 모델(LLM)의 크기와 복잡성이 계속 증가함에 따라, 실시간 생성형 AI 애플리케이션이 요구하는 짧은 지연 시간과 높은 처리량을 제공하기…
3 MIN READ
Conversational AI / NLP
2024년 7월 24일
하이브리드 상태 공간 모델 지원을 통해 LLM 혁신을 가속화하는 NVIDIA NeMo
오늘날의 거대 언어 모델(LLM)은 2017년에 도입된 트랜스포머 모델 아키텍처를 기반으로 합니다. 2017년 이후로 AI 컴퓨팅 성능이 빠르게…
4 MIN READ
Generative AI
2024년 5월 17일
NVIDIA TensorRT Model Optimizer로 생성형 AI 추론 성능 가속화
빠르게 진화하는 생성형 AI 환경에서 가속화된 추론 속도에 대한 요구는 여전히 시급한 문제입니다. 모델 크기와 복잡성이 기하급수적으로 증가함에 따라…
6 MIN READ