산업 기업들은 운영 혁신을 위해 물리 AI와 자율 시스템을 적극 도입하고 있습니다. 모바일 로봇, 휴머노이드 어시스턴트, 지능형 카메라, AI 에이전트 등 이기종 로봇을 공장 및 물류창고에 배치해 운영 효율성과 자동화를 동시에 추구하고 있습니다.
이러한 물리 AI 기반 시스템의 잠재력을 극대화하기 위해, 기업들은 자율 시스템의 동작 방식을 시뮬레이션하고 최적화할 수 있는 디지털 트윈 기반의 가상 환경을 활용하고 있습니다. 이 시뮬레이션 중심 접근법을 통해, 실제 배포에 앞서 복잡하고 변화무쌍한 환경 속에서 로봇이 어떻게 조정하고 적응하는지를 검증할 수 있으며, 이는 진정한 자율 산업 운영으로의 전환을 가속화하는 데 핵심적인 역할을 합니다.
산업용 디지털 트윈 기반 로봇 플릿 시뮬레이션
Mega NVIDIA Omniverse Blueprint를 통해 기업은 공장, 창고 및 산업 시설에서 물리 AI의 개발 및 배포를 가속화할 수 있습니다.
개발자는 워크플로우를 통해 센서 시뮬레이션 및 합성 데이터 생성을 활용하여 복잡한 자율 운영을 시뮬레이션하고 실제 배포 전에 산업용 디지털 트윈에서 물리 AI 시스템의 성능을 검증할 수 있습니다.
이번 포스팅에서는 기업이 자체 로봇 플릿 시뮬레이션 및 검증 파이프라인을 구축할 수 있도록, NVIDIA Omniverse Blueprint의 주요 구성 요소를 소개합니다.

시설 또는 플릿 매니지먼트 시스템
플릿 매니지먼트 시스템은 기업이 로봇 차량을 활용해 상품 운송, 물품 분류, 재고 관리 등 특정 작업이나 목표를 효율적으로 수행할 수 있도록 로봇 플릿을 관리, 조정, 최적화하는 역할을 합니다. 이러한 시스템은 워크플로우에 통합함으로써 의사 결정 역량을 크게 향상시킬 수 있습니다. 또한, 엔터프라이즈 데이터 레이크와 연결하면 차량 관리자는 방대한 운영 데이터를 기반으로 보다 정밀한 조정과 최적화된 임무 계획이 가능해집니다. 이를 통해 실시간 대응력은 물론, 전체 로봇 플릿의 효율성과 생산성이 크게 향상됩니다.

Blueprint에 통합된 플릿 매니저 소프트웨어는 업계 표준 인터페이스인 VDA5050을 활용해 다양한 로봇 두뇌와 연동됩니다. VDA5050은 로봇 플릿과 중앙 마스터 컨트롤러 간의 통신을 위한 개방형 표준 프로토콜로, 플릿 관리자가 이기종 로봇과 효과적으로 통신하고 제어할 수 있도록 지원합니다.
로봇 두뇌(Robot brains) 및 로봇 정책(robot policies)
로봇 두뇌는 실제 로봇 작동을 위한 의사결정 시스템으로, 설계 목적에 따라 단순하거나 매우 정교할 수 있습니다.
로봇 두뇌 또는 정책은 입력된 데이터를 기반으로 로봇이 수행할 동작을 판단하며, 입력-처리-출력의 구조를 통해 동작을 정의합니다. 예를 들어, 카메라나 LiDAR 등 센서를 통해 수집된 데이터는 학습된 정책에 따라 처리되며,
이후 정책은 해당 상황에 맞는 동작을 출력하고, 해당 명령은 액추에이터로 전달되어 실제 움직임으로 이어집니다. Blueprint 내에서는 이러한 로봇 두뇌가 컨테이너화된 형태로 통합되어 제공되며, 실제 로봇과 동일한 작동 방식 및 센서 인터페이스를 그대로 노출합니다. 이를 통해 개발자는 디지털 트윈 환경에서도 현실과 동일한 조건 하에서 로봇 행동을 시뮬레이션 및 검증할 수 있습니다.

액추에이션 인터페이스는 로봇 두뇌가 로봇 본체에 제어 신호(액추에이션)를 전달할 수 있도록 하는 핵심 구성 요소입니다. Blueprint는 이러한 제어 명령을 유니버셜 씬 디스크립션(OpenUSD)의 올바른 스키마로 변환하는 액추에이션 인터페이스의 참조 구현을 제공합니다. 이를 통해 제어 신호가 가상 환경의 로봇 본체에 정확히 적용되도록 보장합니다.
이 인터페이스는 로봇의 움직임 및 동작을 직접적으로 제어하므로, 정확성과 실시간성이 매우 중요합니다.
개발자는 이를 기반으로 각 로봇 두뇌의 요구에 맞게 변환 방식을 수정하거나 대체할 수 있으며,
이로써 제어 신호가 각 로봇의 고유한 아키텍처 및 동작 방식에 정확히 대응하도록 조정할 수 있습니다.
센서 인터페이스는 로봇 두뇌가 다양한 센서로부터 데이터를 수신할 수 있도록 지원합니다. Blueprint는 센서 RTX로부터 gRPC 스트리밍 방식으로 수신한 데이터를 ROS2 주제로 변환하는 센서 인터페이스의 참조 구현을 제공합니다. 이를 통해 로봇 두뇌는 정확하고 시의적절한 센서 데이터를 수신하여, 정보에 기반한 의사 결정을 내리고 복잡한 작업을 효과적으로 수행할 수 있습니다.
또한 개발자는 NVIDIA Metropolis와 NVIDIA AI Blueprint를 활용하여 고급 시각 AI 에이전트를 워크플로우에 통합할 수 있습니다. 이를 통해 비디오 검색 및 요약, 이상 탐지 등 고차원 인사이트 확보가 가능해지며, 산업 운영 전반의 의사 결정 품질 향상에 기여합니다.
World Simulator
NVIDIA Omniverse를 기반으로 개발된 World Simulator는 시뮬레이션 런타임 환경으로 작동하며, 유니버셜 씬 디스크립션(OpenUSD) 스테이지 형식으로 전체 시뮬레이션 환경을 표현합니다. 이 구성 요소는 시뮬레이션의 상태를 지속적으로 유지하며, 모든 요소가 동기화되고 정확히 동작하는지 확인하는 역할을 수행합니다.

센서 RTX
개발자는 NVIDIA Omniverse 클라우드 Sensor RTX API를 사용하여 로봇이 실제 세계에서 마주치는 상황을 정확하게 시뮬레이션할 수 있습니다. 이 API를 사용하면 카메라, 레이더 및 LiDAR 센서의 출력을 렌더링할 수 있습니다. 이를 World Simulator에서 생성된 OpenUSD 데이터와 결합하면 산업 시설의 포괄적이고 물리적으로 정확한 디지털 트윈을 구현할 수 있습니다. API는 확장 가능한 함수를 호스팅할 수 있는 NVIDIA의 클라우드 프레임워크인 NVIDIA Cloud Functions를 기반으로 구축되었습니다.

Scheduler
마지막으로 Scheduler는 시간과 전체 실행을 관리합니다. Scheduler는 지연 시간을 모델링하고, 다중 속도 실행을 관리하며, 복잡한 생산자-소비자 그래프를 실행할 때 데이터 종속성을 고려하는 역할을 담당합니다. 이를 통해 시뮬레이션이 원활하고 정확하게 실행되도록 하여 테스트 및 검증을 위한 안정적인 환경을 제공합니다.

시작하기
이 강력한 레퍼런스 워크플로우를 활용하면 복잡한 시나리오를 테스트하고, 제품군 테스트 비용을 최적화하고, 시운전을 가속화하고, 보다 효율적이고 효과적인 실제 운영을 제공할 수 있습니다. Blueprint가 실제로 작동하는 모습을 보려면 build.nvidia.com의 인터랙티브 데모를 방문하세요.
- 시작하는 데 필요한 모든 필수 사항을 알아보려면 Omniverse 개발자 페이지를 방문하세요.
- 새로운 자기 주도형 학습 OpenUSD 교육 커리큘럼을 비롯한 다양한 OpenUSD 리소스에 액세스하세요.
- Omniverse 개발자 커뮤니티와 연결하세요.
개발자 스타터 키트로 시작하여 나만의 애플리케이션과 서비스를 빠르게 개발하고 개선하세요.
NVIDIA 뉴스를 구독하고 Discord, YouTube, Medium에서 NVIDIA Omniverse를 팔로우하여 최신 소식을 받아보세요.
관련 리소스
- DLI 과정: 산업 검사를 위한 딥러닝
- GTC 세션: 로봇을 위한 소프트웨어 인더루프 테스트(OpenUSD, Isaac Sim 및 ROS)
- GTC 세션: 디지털 트윈으로 로봇 개발 가속화하기: 혁신을 위한 전략적 인사이트
- GTC 세션: 공장 규모의 디지털 트윈 시뮬레이션 살펴보기
- SDK: Isaac Lab
- SDK: Isaac Sim