TensorRT-LLM

2025년 8월 8일
Ditto in Action: Torch-TensorRT로 손쉽게 LLM 추론 가속하기
Direct Torch to TensorRT-LLM Optimizer, 줄여서 Ditto는 Transformer 모델을 TensorRT 엔진으로…
5 MIN READ

2025년 8월 8일
LLM 추론 벤치마크: TensorRT-LLM을 활용한 성능 튜닝
이 글은 TensorRT-LLM으로 LLM 추론 성능을 벤치마킹하고 최적화하는 방법을 소개하는 시리즈의 세 번째 편입니다.
6 MIN READ

2025년 8월 6일
NVIDIA, GB200 NVL72로 OpenAI gpt-oss 모델을 클라우드부터 엣지까지 초당 150만 토큰 속도로 가속
NVIDIA와 OpenAI는 2016년 NVIDIA DGX 출시를 시작으로 AI의 한계를 넓혀왔습니다. 이번에는 OpenAI의 gpt-oss…
4 MIN READ

2025년 5월 28일
NVIDIA Blackwell 플랫폼 DeepSeek-R1 추론 성능에서 세계 기록 달성
NVIDIA는 NVIDIA GTC 2025에서 DeepSeek-R1 추론 성능 세계 기록을 발표했습니다.
9 MIN READ

2025년 5월 28일
Blackwell, Meta의 Llama 4 Maverick을 활용해 사용자당 1,000 TPS 장벽 돌파
NVIDIA가 세계 최고 속도의 거대 언어 모델(LLM) 추론 성능을 달성했습니다. NVIDIA Blackwell GPU 8개를 탑재한 단일…
6 MIN READ

2025년 5월 15일
NVIDIA 풀스택 솔루션을 통한 AI 추론 성능 최적화
2025년 3월 18일부로 NVIDIA Triton Inference Server는 이제 NVIDIA Dynamo로 명칭이 변경되었습니다.
5 MIN READ

2025년 3월 12일
Spotlight: NVIDIA TensorRT-LLM을 활용한 NAVER Place의 SLM Vertical Service 운영 최적화
NAVER Place에서는 Place 영역에 특화된 SLM Vertical Service를 운영하여 플레이스 프로덕트 전반(플레이스, 지도…
7 MIN READ

2024년 12월 13일
NVIDIA TensorRT-LLM, 인플라이트 배치로 인코더-디코더 모델 가속화
NVIDIA는 최근 NVIDIA TensorRT-LLM이 인코더-디코더 모델 아키텍처를 가속화한다고 발표했습니다.
3 MIN READ

2024년 9월 25일
엣지에서 클라우드로 가속화된 Llama 3.2 배포하기
오픈 소스 Meta Llama 모델 컬렉션을 확장한 Llama 3.2 컬렉션에는 비전 언어 모델(VLM), 소규모 언어 모델(SLM)…
4 MIN READ

2024년 8월 14일
Writer, 의료 및 금융을 위한 도메인별 LLM 출시
Writer는 두 가지 새로운 도메인 전용 AI 모델인 Palmyra-Med 70B와 Palmyra-Fin 70B를 출시하여 NVIDIA NIM의…
4 MIN READ

2024년 5월 17일
NVIDIA TensorRT Model Optimizer로 생성형 AI 추론 성능 가속화
빠르게 진화하는 생성형 AI 환경에서 가속화된 추론 속도에 대한 요구는 여전히 시급한 문제입니다. 모델 크기와 복잡성이 기하급수적으로 증가함에 따라…
6 MIN READ