Data Center / Cloud
2025년 12월 17일
AI-Physics 기반 TCAD 시뮬레이션 가속화
TCAD(Technology Computer-Aided Design) 시뮬레이션은 반도체 공정 시뮬레이션과 소자 시뮬레이션을 모두 포괄하며…
4 MIN READ
2025년 12월 12일
NVIDIA MGX로 미래형 데이터 센터에 유연한 성능 제공
AI 열풍은 컴퓨팅 환경을 빠르게 바꾸고 있으며, 2026년에는 그 속도가 더욱 빨라질 전망입니다. 모델 성능과 연산 능력의 발전으로 성장은…
4 MIN READ
2025년 12월 12일
AI 모델 추론을 가속화하는 핵심 최적화 기법 5가지
AI 모델이 점점 더 대형화되고 아키텍처가 복잡해지면서, 연구자들과 엔지니어들은 AI 시스템을 실제 환경에 적용하기 위한 성능 최적화 및 비용 절감…
5 MIN READ
2025년 12월 10일
NCCL Inspector로 AI 워크로드의 통신 성능 가시성 향상하기
딥러닝 훈련이나 추론 워크로드에서 AllReduce, AllGather, ReduceScatter 같은 집합 연산(collective…
4 MIN READ
2025년 11월 28일
AWS, Trainium4 배포에 NVIDIA NVLink Fusion 통합
AI 수요가 지속적으로 증가함에 따라, 하이퍼스케일 기업들은 고성능 AI 인프라를 더 빠르게 구축할 수 있는 방법을 모색하고 있습니다.
3 MIN READ
2025년 11월 26일
NVIDIA 데이터센터 모니터링 도구로 GPU 클러스터 효율 극대화
고성능 컴퓨팅(HPC) 고객들의 워크로드는 빠르게 확장되고 있으며, 생성형 AI, 거대 언어 모델(LLM), 컴퓨터 비전 등 다양한 활용 사례가…
5 MIN READ
2025년 11월 21일
NVIDIA NVQLink 아키텍처, 가속 컴퓨팅과 양자 프로세서 통합
양자 컴퓨팅은 이제 가속 컴퓨팅과 양자 프로세서의 긴밀한 통합을 통해 진정한 발전을 이루는 새로운 국면에 접어들고 있습니다.
5 MIN READ
2025년 11월 5일
쿠버네티스에서 복잡한 AI 추론을 NVIDIA Grove로 간소화하기
최근 몇 년간 AI 추론은 단일 모델, 단일 파드 형태의 단순한 배포 방식에서 벗어나, 여러 구성 요소로 이뤄진 복잡한 시스템으로 진화하고 있습니다.
6 MIN READ
2025년 10월 29일
NVIDIA Blackwell에서 Unsloth를 사용해 LLM을 학습하고, 프로덕션 환경으로 확장하기
거대 언어 모델(LLM)의 파인튜닝과 강화 학습(RL)은 고도의 전문성과 복잡한 워크플로우를 요구하기 때문에, 개발 진입 장벽이 높습니다.
3 MIN READ
2025년 9월 25일
NVIDIA Rubin CPX, 100만 토큰 이상 컨텍스트 워크로드의 추론 성능과 효율을 가속하다
AI에서 추론은 이제 가장 복잡한 과제에 당면한 영역이 되었습니다. 최신 모델은 에이전틱 AI로 진화하며, 다단계 추론과 지속적인 메모리…
3 MIN READ
2025년 9월 25일
NVFP4, 16비트 정밀도와 4비트 성능으로 학습 가속
최근 몇 년간 AI 워크로드는 폭발적으로 증가했습니다. 이는 거대 언어 모델(LLM)의 배포는 물론, 사전 학습과 후속 학습 과정에서 점점 더 많은…
6 MIN READ
2025년 9월 24일
Dynamo 0.4, 4배 더 빠른 성능과 SLO 기반 오토스케일링, 실시간 가시성 제공
최근 몇 주간 OpenAI의 gpt-oss와 Moonshot AI의 Kimi K2를 비롯한 새로운 오픈소스 모델들이 등장하면서 거대 언어…
6 MIN READ
2025년 9월 19일
AI 추론 지연 시간을 줄이기 위한 Speculative Decoding 소개
거대 언어 모델(LLM)로 텍스트를 생성할 때는 구조적인 한계로 인해 성능을 제대로 끌어내기 어려운 경우가 많습니다. GPU는 뛰어난 연산 성능을…
7 MIN READ
2025년 9월 10일
NVIDIA RTX PRO 6000 Blackwell Server Edition으로 단백질 구조 추론 100배 이상 가속
단백질 구조를 이해하기 위한 경쟁은 그 어느 때보다 중요해졌습니다. 신약 개발을 앞당기고 미래 팬데믹에 대비하기 위해서는…
4 MIN READ
2025년 9월 5일
GPU 메모리 스왑으로 성능은 유지하면서 모델 배포 비용 절감하기
거대 언어 모델(LLM)을 배포할 때는 두 가지 과제가 동시에 발생합니다. 높은 수요 속에서도 빠른 응답성을 보장해야 하고…
4 MIN READ
2025년 8월 22일
AI 팩토리의 확장성을 높이는 공동 패키징 광학 기술로 전력 효율성 향상
인공지능이 컴퓨팅 환경을 재편하면서 네트워크는 이제 미래 데이터센터를 형성하는 핵심적 기반으로 자리 잡았습니다. 거대 언어 모델(LLM)의 학습…
5 MIN READ