Robotics

NVIDIA Isaac Lab 2.3: 전신 제어와 향상된 원격 조작으로 로봇 학습 가속화

Reading Time: 7 minutes

실제 로봇 시연을 통해 로봇 정책을 훈련시키는 방식은 비용이 많이 들고 속도가 느리며, 과적합(overfitting)되기 쉬워 여러 작업과 환경에 대한 일반화 성능을 제한합니다. **시뮬레이션 우선 접근 방식(A sim-first approach)**은 개발 과정을 효율화하고, 위험과 비용을 낮추며, 더 안전하고 적응력 높은 배포를 가능하게 합니다.

현재 얼리 개발자 프리뷰로 제공되는 Isaac Lab 2.3 최신 버전은, 진보된 전신 제어(whole-body control), 향상된 모방 학습(imitation learning), 그리고 더 나은 보행(locomotion) 기능으로 휴머노이드 로봇의 역량을 개선합니다. 또한 이번 업데이트는 Meta Quest VR이나 Manus 글러브와 같은 더 많은 기기를 지원하여 데이터 수집을 위한 원격 조작(teleoperation) 기능을 확장하고, 시연 데이터셋 생성을 가속화합니다. 추가적으로, 조작(manipulation) 작업에서의 데이터 생성을 위한 모션 플래너 기반 워크플로우도 포함합니다.

강화 학습과 모방 학습을 위한 새로운 샘플 및 예제

Isaac Lab 2.3은 정교한 조작(dexterous manipulation) 작업을 지원하는 새로운 기능들을 제공합니다. 여기에는 인식(perception) 및 고유수용감각(proprioception)을 위한 딕셔너리 관측 공간(dictionary observation space), 그리고 강화 학습(RL) 훈련의 **확장성(scaling)**을 개선하기 위한 자동 영역 랜덤화(ADR) 및 모집단 기반 훈련(PBT) 기술이 포함됩니다.

이러한 새로운 기능들은 DexPBT: 모집단 기반 훈련을 통한 핸드-암 시스템의 정교한 조작 능력 확장과 정교한 손으로 무엇이든 잡기 위한 시각-운동 정책 논문에서 구현된 환경을 기반으로 확장되었습니다.

정교한 조작 환경의 훈련을 시작하려면, 아래 스크립트를 사용하세요:

./isaaclab.sh -p -m torch.distributed.run --nnodes=1 --nproc_per_node=4
scripts/reinforcement_learning/rsl_rl/train.py --task Isaac-Dexsuite-Kuka-Allegro-Reorient-v0 
--num_envs 40960 --headless --distributed

이전 릴리스를 기반으로 확장된 Isaac Lab 2.3은 흡입 그리퍼(suction gripper)를 사용하는 새로운 벤치마킹 환경을 도입하여, 흡입 방식과 기존의 그리퍼 방식 모두에서 조작(manipulation)을 가능하게 합니다.

이전 버전에는 다이렉트 워크플로우(direct workflow)에 표면 그리퍼(surface gripper) 샘플이 포함되어 있었습니다. 이번 업데이트에서는 모방 학습(imitation learning)을 위한 관리자 기반 워크플로우(manager-based workflow)에 CPU 기반 표면 그리퍼 지원이 추가됩니다.

이 샘플을 사용하여 시연을 녹화하려면, 다음 명령어를 사용하세요:

./isaaclab.sh -p scripts/tools/record_demos.py --task Isaac-Stack-Cube-UR10-Long-Suction-IK-Rel-v0 
--teleop_device keyboard --device cpu

더 자세한 내용은 표면 그리퍼(surface gripper) 사용법에 대한 튜토리얼을 참고하세요.

정교한 조작을 위한 향상된 원격 조작

로보틱스에서의 원격 조작(Teleoperation)이란, 인간 조작자가 통신 링크를 통해 입력 장치로 실제 또는 가상의 로봇을 원격으로 제어하여, 원격 조작(manipulation) 및 이동(locomotion) 제어를 가능하게 하는 기술입니다.

Isaac Lab 2.3에는 Unitree G1 로봇을 위한 원격 조작 지원이 포함되어 있으며, Unitree 3 핑거 핸드Inspire 5 핑거 핸드 모두를 위한 정교한 리타겟팅(dexterous retargeting) 기능을 제공합니다.

정교한 리타겟팅이란, 조작 작업을 위해 인간의 손 모양을 로봇 손의 관절 위치로 변환하는 과정입니다. 이는 효율적인 인간-로봇 간 기술 이전을 가능하게 하고, 접촉이 많은 인핸드(in-hand) 작업의 성능을 향상시키며, 강건한 조작 정책을 훈련시키기 위한 풍부한 시연 데이터를 만들어냅니다.

이 정교한 리타겟팅 워크플로우는 Isaac Lab에 내장된 리타겟터 원격 조작 프레임워크(retargeter teleoperation framework)를 활용하며, 이 프레임워크는 작업별 원격 조작 장치 구성을 가능하게 합니다.

또한 Fourier GR1T2 및 Unitree G1과 같은 모든 양팔 로봇의 상체 제어에 대한 추가적인 개선이 이루어졌습니다. 이는 Pink IK(역운동학) 컨트롤러를 개선하여 양팔 로봇의 팔을 더 자연스러운 자세로 유지하고, 불필요하게 팔꿈치가 벌어지는 현상을 줄이는 방식으로 진행되었습니다. 이번 릴리스에는 로봇이 몸통을 회전시켜 도달 가능한 공간을 넓힐 수 있도록 하는 새로운 환경들도 포함되었습니다. 추가적인 튜닝을 통해 **말단 장치(end effector)**와 목표 지점 간의 속도를 높이고 오차를 줄였습니다.

영상 1. Isaac Lab: G1 로봇의 스탠딩 조작 과제
그림 1. IK 컨트롤러 개선 전의 도달 가능 공간
그림 2. IK 컨트롤러 개선과 허리 잠금 해제 환경으로 인한 도달 가능 공간의 확장

관절 가동 범위 한계(at-limit joints)나 해결 불가능 상태(no-solve states)와 같은 IK(역운동학) 컨트롤러의 오류를 원격 조작자에게 알려주는 UI 요소들이 추가되었습니다. 또한 시연 데이터 수집이 완료되었을 때 원격 조작자에게 알려주는 팝업도 추가되었습니다.

조작 데이터 생성을 위한 충돌 회피 동작 계획 기능 도입

SkillGen은 적응형 충돌 회피 조작(collision-free manipulation) 시연을 생성하기 위한 워크플로우입니다. 이 워크플로우는 인간이 제공하는 하위 작업 구간(subtask segments)과 GPU 가속 동작 계획(motion planning)을 결합하여, 소수의 인간 시연만으로 실제와 같은 접촉이 많은(contact-rich) 조작 작업을 학습할 수 있게 합니다.

개발자들은 이번 최신 버전의 Isaac Lab에서 Isaac Lab Mimic 내의 SkillGen을 사용하여 시연 데이터를 생성할 수 있습니다. SkillGen은 다단계 계획(접근, 접촉, 후퇴)을 가능하게 하고, 적절한 충돌 구체 관리를 통해 동적인 물체 부착 및 분리를 지원하며, 기술 연결(skill stitching) 과정에서 운동학 및 장애물을 반영하도록 월드 상태를 동기화합니다. 수동으로 ‘시작’과 ‘끝’을 지정하는 하위 작업 주석(annotation)은 접촉이 많은 기술 구간을 동작 계획 구간과 분리하여, 후속 사용자들을 위한 일관된 궤적 합성과 재현 가능한 결과를 보장합니다.

이전 릴리스에서 Isaac Lab Mimic은 데이터 생성을 위해 MimicGen 구현을 사용했습니다. SkillGen은 MimicGen의 한계를 개선했으며, Isaac Lab 2.3 릴리스에서는 이제 Isaac Lab Mimic 내에서 SkillGen 또는 MimicGen 중 하나를 선택하여 사용할 수 있습니다.

두 개의 쌓기(stacking) 작업에 대한 사전 주석 데이터셋(pre-annotated dataset)을 사용하여 이 파이프라인을 실행하려면, 다음 명령어를 사용하세요. 데이터셋은 다운로드할 수도 있습니다.

./isaaclab.sh -p scripts/imitation_learning/isaaclab_mimic/generate_dataset.py \
--device cpu \
--num_envs 1 \
--generation_num_trials 10 \
--input_file ./datasets/annotated_dataset_skillgen.hdf5 \
--output_file ./datasets/generated_dataset_small_skillgen_cube_stack.hdf5 \
--task Isaac-Stack-Cube-Franka-IK-Rel-Skillgen-v0 \
--use_skillgen

상자(bin) 안에 큐브를 쌓는(stacking) 작업을 실행하려면 다음 명령어를 사용하세요:

./isaaclab.sh -p scripts/imitation_learning/isaaclab_mimic/generate_dataset.py \
--device cpu \
--num_envs 1 \
--generation_num_trials 10 \
--input_file ./datasets/annotated_dataset_skillgen.hdf5 \
--output_file ./datasets/generated_dataset_small_skillgen_bin_cube_stack.hdf5 \
--task Isaac-Stack-Cube-Bin-Franka-IK-Rel-Mimic-v0 \
--use_skillgen
그림 3. Isaac Lab에서 SkillGen을 이용한 적응형 상자 쌓기 과제를 위한 섭동(perturbation) 데이터 생성

사전 요구 사항 및 설치에 대한 정보는 자동화된 시연 생성을 위한 SkillGen 문서를 참고하세요. 정책 훈련 및 추론에 대해서는 Isaac Lab의 모방 학습 워크플로우를 참고하세요. 명령어에 대한 자세한 내용은 SkillGen 공식 문서를 참고하세요.

모바일 로봇을 위한 엔드투엔드 내비게이션

조작(manipulation) 기술을 넘어, 휴머노이드와 모바일 로봇은 복잡하고 동적인 공간을 안전하게 주행해야 합니다. 이제 개발자들은 Isaac Lab의 모빌리티 워크플로우를 사용하여, 다양한 종류의 로봇과 환경에서 주행을 가능하게 하는 비전 기반 모빌리티 파이프라인인 NVIDIA COMPASS를 사후 훈련(post-train)시킬 수 있습니다.

이 워크플로우는 Isaac Sim에서의 합성 데이터 생성(SDG), 모빌리티 모델 훈련, 그리고 NVIDIA Jetson Orin 또는 NVIDIA Thor를 통한 배포 과정을 포함합니다. 또한 Cosmos Transfer 기술은 시뮬레이션과 현실 간의 격차(sim-to-real gap)를 줄여 합성 데이터의 품질을 향상시킵니다.

로봇은 NVIDIA Isaac CUDA 가속 라이브러리들을 결합하여, cuVSLAM으로 자신의 위치를 파악하고, cuVGL로 지도를 구축하는 법을 배우며, COMPASS로 장면을 이해하여 행동을 생성함으로써, 변화하는 환경과 장애물을 실시간으로 주행할 수 있게 됩니다. COMPASS는 또한 개발자들이 GR00T N과 같은 진보된 시각 언어 행동(VLA) 파운데이션 모델을 훈련시키기 위한 합성 데이터를 생성하는 수단을 제공합니다. 현재 ADATA, UCR, 그리고 Foxlink가 COMPASS를 자사의 워크플로우에 통합하고 있습니다.

휴머노이드 로봇을 위한 로코-매니퓰레이션 합성 데이터 생성

로코-매니퓰레이션(Loco-manipulation)이란 이동(locomotion)과 조작(manipulation)을 조화롭게 수행하는 것을 의미합니다. 즉, 로봇이 몸을 움직이면서(걷거나 구르면서) 동시에 물체를 다루는(잡고, 밀고, 당기는 등) 행동을 하나의 연결된 전신(whole-body) 과제로 처리하는 것입니다.

이 워크플로우는 내비게이션(navigation)을 전신 컨트롤러(WBC)와 통합하여, 조작과 이동이 결합된 로봇 과제 시연을 합성(synthesize)합니다. 이를 통해 로봇은 테이블에서 물체를 집어, 특정 공간을 가로질러 이동한 뒤, 다른 곳에 물체를 내려놓는 것과 같은 복잡한 연속 동작을 수행할 수 있습니다.

이 시스템은 테이블 위의 물건을 집고 놓는 위치, 목적지, 그리고 바닥의 장애물을 무작위로 변경하여 시연 데이터를 증강(augment)합니다. 이 과정은 데이터 수집 구조를 이동(locomotion)에 의해 분리된 ‘집기 및 놓기’ 구간으로 재구성하며, 이를 통해 인간의 ‘조작 전용’ 시연 데이터만으로도 휴머노이드 로봇이 복합 과제를 수행하도록 훈련시킬 수 있는 대규모 로코-매니퓰레이션 데이터셋을 만들 수 있습니다.

이 증강을 실행하는 예시는 아래와 같습니다. 샘플 입력 데이터셋을 다운로드하세요.

./isaaclab.sh -p \\
scripts/imitation_learning/disjoint_navigation/generate_navigation.py \\
--device cpu \\
--kit_args="--enable isaacsim.replicator.mobility_gen" \\
--task="Isaac-G1-Disjoint-Navigation" \\
--dataset ./datasets/generated_dataset_g1_locomanip.hdf5 \\
--num_runs 1 \\
--lift_step 70 \\
--navigate_step 120 \\
--enable_pinocchio \\
--output_file ./datasets/generated_dataset_g1_navigation.hdf5

이 인터페이스는 유연하여, 사용자가 원하는 컨트롤러를 선택하고 휴머노이드나 모바일 매니퓰레이터와 같은 다양한 로봇 형태(embodiment)로 쉽게 전환할 수 있습니다.

그림 4. 내비게이션 및 조작 궤적 증강을 위한 로코-매니퓰레이션 합성 데이터 생성(SDG)

정책 평가 프레임워크

물체 조작이나 공간 주행과 같이 학습된 로봇 기술을 실제 하드웨어만으로 평가하는 것은 확장성(scalability)이 떨어집니다. 시뮬레이션은 수많은 시나리오, 과제, 환경에 대해 이러한 기술을 확장 가능한 방식으로 평가할 수 있는 방법을 제공합니다.

하지만 시뮬레이션에 적합한 애셋을 샘플링하는 것부터 환경을 설정하고 다양화하는 것, 그리고 대규모 평가를 조율하고 분석하는 것에 이르기까지, 사용자는 원하는 결과를 얻기 위해 Isaac Lab 기반 위에 여러 구성 요소를 직접 수동으로 구성해야 합니다. 이는 파편화된 설정, 제한된 확장성, 높은 오버헤드, 그리 높은 진입 장벽으로 이어집니다.

이 문제를 해결하기 위해 NVIDIA와 Lightwheel은 확장 가능한 시뮬레이션 기반 실험을 위한 오픈 소스 정책 평가 프레임워크인 NVIDIA Isaac Lab – Arena를 공동 개발하고 있습니다. 개발자는 이 프레임워크 API를 사용하여 복잡한 대규모 평가를 별도의 시스템 구축 없이 효율적으로 실행할 수 있습니다. 이는 개발자들이 평가 방법을 커뮤니티에 기여하면서 정책 개선(policy iteration) 자체에 집중할 수 있게 하여, 로보틱스 연구 개발을 가속화하는 것을 의미합니다.

이 프레임워크는 간소화되고 맞춤 설정 가능한 과제 정의와 지표, 평가, 다양화를 위한 확장 가능한 라이브러리를 제공합니다. Isaac Lab을 사용한 병렬 처리 및 GPU 가속 평가를 특징으로 하며, 원활한 워크플로우를 위해 데이터 생성, 훈련, 배포 프레임워크와 상호 운용됩니다.

이 파운데이션 위에는 조작, 이동, 로코-매니퓰레이션을 위한 샘플 과제 라이브러리가 구축되어 있습니다. 또한 NVIDIA는 정책 개발자, 벤치마크 저자, 그리고 Lightwheel과 같은 시뮬레이션 솔루션 제공업체와 협력하여 이 프레임워크에서 그들의 평가를 지원하는 동시에, 평가 방법들을 다시 커뮤니티에 기여하고 있습니다.

그림 5. Isaac Lab – Arena, 정책 평가 프레임워크, 샘플 과제: 확장 가능하고 접근성 높은 평가를 실현

대규모 평가의 경우, NVIDIA OSMO를 통해 워크로드(workload)를 조율할 수 있습니다. NVIDIA OSMO는 온프레미스(on-prem) 및 클라우드 컴퓨팅 환경 전반에 걸쳐 로보틱스와 자율주행 머신 파이프라인을 스케줄링하고 확장하는 클라우드 네이티브 플랫폼입니다.

인프라 지원

Isaac Lab 2.3은 NVIDIA RTX PRO Blackwell 서버와 NVIDIA GB10 Grace Blackwell 슈퍼칩으로 구동되는 NVIDIA DGX Spark에서 지원됩니다. RTX PRO와 DGX Spark는 모두 연구자들이 훈련, SDG(합성 데이터 생성), 로봇 학습, 시뮬레이션 전반에 걸친 모든 로봇 개발 워크로드를 실험하고, 프로토타입을 제작하며, 실행하기 위한 탁월한 플랫폼을 제공합니다.

DGX Spark에서 실행되는 Isaac Lab 2.3의 경우, XR/AVP를 이용한 원격 조작(teleoperation)과 Isaac Lab Mimic에서의 모방 학습은 지원되지 않습니다. 따라서 개발자들은 휴머노이드 환경을 위해서는 사전에 수집된 데이터를 사용해야 하며, Franka 환경의 경우에는 키보드나 스페이스마우스와 같은 표준 장치를 지원합니다.

생태계 확산

Agility Robotics, Boston Dynamics, Booster Robotics, Dexmate, Figure AI, Hexagon, Lightwheel, General Robotics, maxon, Skild AI와 같은 선도적인 로봇 개발사들이 로봇 개발을 고도화하기 위해 NVIDIA 라이브러리와 오픈 모델을 활발히 활용하고 있습니다.

Isaac Lab 2.3 시작하기

Isaac Lab 2.3은 휴머노이드 제어를 향상시키고, 더 쉬운 데이터 수집을 위해 원격 조작 기능을 확장하며, 복잡한 조작 및 이동 데이터 생성을 자동화하여 로봇 학습을 가속화합니다.

NVIDIA Isaac 라이브러리 및 AI 모델을 사용하여 피지컬 AI 시스템 개발을 시작하세요.

Discuss (0)

Tags