A100
2024년 3월 15일
LLM 아키텍처에 Mixture of Experts(MoE)를 활용하기
Mixture of Experts(MoE) 거대 언어 모델(LLM) 아키텍처는 최근 GPT-4와 같은 독점 LLM은 물론 Mixtral 8x7B의…
7 MIN READ
2023년 7월 12일
맞춤형 언어 모델을 생성하는 방법
대규모 언어 모델은 강력하고 다재다능하지만 제로 샷 및 소수 샷 프롬프트 기법으로는 그 힘을 충분히 활용하지 못할 수 있습니다. 매개변수 효율적인 사용자 지정 기법이 해결책을 제시합니다.
8 MIN READ
2023년 6월 7일
NVIDIA DGX GH200 발표: 최초의 100테라바이트 GPU 메모리 시스템
COMPUTEX 2023에서 NVIDIA는 가장 까다로운 대규모 AI 워크로드를 지원하는 GPU 가속 컴퓨팅 분야의 또 다른 혁신인 NVIDIA…
4 MIN READ
2022년 6월 24일
풀 스택 혁신으로 고성능 컴퓨팅 지원
고성능 컴퓨팅(HPC)은 과학적 발견의 필수적인 수단이 되었습니다. 신약을 발견하든, 기후 변화에 맞서 싸우든, 정확한 세계 시뮬레이션을 만들든…
5 MIN READ