엔비디아가 더 강력한 자율 머신 구축을 위한 옴니버스 센서 RTX 얼리 액세스를 발표했다.
엔비디아(www.nvidia.co.kr)가 엔비디아옴니버스클라우드센서 RTXAPI (NVIDIA Omniverse Cloud Sensor RTX API)의 얼리 엑세스 버전을 발표했다. 이는 물리적으로 정확한 센서 시뮬레이션을 지원해 더욱 강력한 자율 머신 구축을 가속화한다.
생성형 AI와 파운데이션 모델은 자율 머신이 훈련된 운영 설계 도메인을 넘어 일반화될 수 있도록 지원한다. 이제 개발자와 연구자들은 토큰화, 거대 언어 모델(Large Language Model, LLM), 확산 모델과 같은 새로운 AI 기술을 사용해 그들의 자율성을 가로막는 오랜 장애물을 해결할 수 있게 됐다.
이러한 대형 모델에는 훈련, 미세 조정, 검증을 위해 방대한 양의 다양한 데이터가 필요하다. 하지만 야간에 자율주행 차량(AV) 앞을 지나가는 보행자나 용접 로봇 작업 셀에 사람이 들어가는 드문 상황과 잠재적으로 위험한 시나리오에서 이러한 데이터를 수집하는 것은 매우 어렵고 리소스 집약적일 수 있다..
이러한 격차를 해소하기 위해 엔비디아 옴니버스 클라우드 센서 RTX API는 대규모 데이터 세트 생성을 위한 물리적으로 정확한 센서시뮬레이션 을 지원한다. 이 API는 카메라, 레이더, 라이더 등 자율 주행에 일반적으로 사용되는 센서를 지원하도록 설계됐다. 또한, 기존 워크플로우에 원활하게 통합돼 모든 종류의 AV와 로봇 개발을 가속화할 수 있다.
현재 옴니버스 센서 RTX API는 얼리 액세스로 일부 개발자에게 제공되고 있다. 액센츄어(Accenture), 포어텔릭스(Foretellix), 마이터(MITRE), 엠시티(Mcity)와 같은 조직들은 도메인별 블루프린트(Blueprint)를 통해 이러한 API를 통합한다. 이를 통해 최종 고객에게 차세대 산업용 제조 로봇과 AV를 배포하는 데 필요한 도구를 제공하고 있다.
산업용 AI를 강화하는 옴니버스 블루프린트
공장이나 창고와 같은 복잡한 환경에서 로봇은 기계와 인간 작업자와 안전하고 효율적으로 협력해야 한다. 모든 움직이는 부품을 설계, 테스트, 검증할 때 중단을 피하면서 작업하는 것은 큰 도전 과제이다.
메가(Mega)는 기업에게 엔비디아 가속 컴퓨팅, AI, 엔비디아 아이작(Isaac), 엔비디아 옴니버스(Omniverse) 기술의 레퍼런스 아키텍처를 제공하는 옴니버스 블루프린트(Blueprint)이다. 기업은 이를 사용해 디지털 트윈을 개발하고 로봇, 카메라, 장비 등을 구동하는 AI 기반 로봇 두뇌를 테스트해 엄청난 복잡성과 규모를 처리할 수 있다.
로봇 개발자는 이 블루프린트를 통해 옴니버스 센서 RTX를 통합한다. 이를 통해 공장에 있는 모든 유형의 지능형 기계에서 센서 데이터를 동시에 렌더링해 충실도 높은 대규모 센서 시뮬레이션을 수행할 수 있다.
시뮬레이션에서 운영과 워크플로우를 테스트할 수 있는 기능을 통해 제조업체는 상당한 시간과 비용을 절감하고, 완전히 새로운 방식으로 효율성을 개선할 수 있다.
세계적인 공급망 솔루션 기업인 키온 그룹(KION Group)과 액센츄어는 메가 블루프린트를 사용해 산업용 AI의 로봇 두뇌를 위한 가상 훈련과 테스트 환경으로 활용되는 옴니버스 디지털 트윈을 구축하고 있다. 이들은 스마트 카메라, 지게차, 로봇 장비, 디지털 휴먼의 데이터를 활용하고 있다.
로봇의 두뇌는 옴니버스 센서 RTX API로 렌더링된 물리적으로 정확한 센서 데이터로 시뮬레이션된 환경을 인식한다. 로봇은 이 데이터를 사용해 계획하고 행동하며, 각 동작은 디지털 트윈의 모든 에셋의 상태, 위치와 함께 메가로 정밀하게 추적된다. 이러한 기능을 통해 개발자는 새로운 레이아웃을 실제 세계에 구현하기 전에 지속적으로 구축하고 테스트할 수 있다.
자율주행 차량 개발과 검증
AV는 10년 이상 개발돼 왔지만, 적절한 훈련과 검증 데이터를 확보하는 데 있어 어려움이 있고 반복 주기가 느려 대규모 배포에 걸림돌이 있었다.
이러한 센서 데이터의 필요성을 해결하기 위해 기업들은 물리적으로 정확한 센서 시뮬레이션을 가능하게 하는 레퍼런스 워크플로우인 AV 시뮬레이션용 엔비디아 옴니버스 블루프린트를 활용하고 있다. 이 워크플로우에서는 옴니버스 센서 RTX API를 사용해 AV 개발과 검증에 필요한 카메라, 레이더, 라이더 데이터를 렌더링한다.
AV 툴체인 제공업체인 포어텔릭스는 이 블루프린트를 포어티파이(Foretify) AV 개발 툴체인에 통합해 객체 수준의 시뮬레이션을 물리적으로 정확한 센서 시뮬레이션으로 변환했다.
포어티파이 툴체인은 여러 테스트 시나리오를 동시에 생성할 수 있다. 이러한 시나리오에 센서 시뮬레이션 기능을 추가함으로써 개발자는 AV 개발의 완성도를 평가하고, 대규모의 안전한 배포를 달성하기 위해 필요한 수준의 충실도와 규모로 훈련과 테스트를 수행할 수 있다. 또한, 포어텔릭스는 새로 발표된 엔비디아 코스모스(Cosmos) 플랫폼을 사용해 검증과 검토를 위한 더 다양한 시나리오를 생성할 계획이다.
뉴로(Nuro)는 미국에서 레벨 4를 가장 많이 배포한 자율주행 기술 제공업체로, 포어티파이 툴체인을 사용해 AV를 훈련하고 테스트하며 검증하고 있다.
또한, 연구 기관인 마이터는 미시간 대학교(The University of Michigan)의 엠시티 테스트 시설과 협력해 규제 용도의 디지털 AV 검증 프레임워크를 구축하고 있다. 여기에는 32에이커 규모의 AV 시험장 엠시티의 디지털 트윈이 포함된다. 이 프로젝트는 AV 시뮬레이션 블루프린트를 사용해 가상 환경에서 물리적으로 정확한 센서 데이터를 대규모로 렌더링하며 훈련 효과를 높이고 있다.
로보틱스와 자율주행의 미래는 고충실도 센서 시뮬레이션의 힘 덕분에 더욱 주목받고 있다. 이번 CES에서 액센츄어와 포레텔릭스도 전용 부스에서 이러한 솔루션에 대해 자세히 알아볼 수 있는 자리를 마련했다.
관련 링크
포어텔릭스 포어티파이를 사용한 센서 시뮬레이션으로 AV 개발 향상:
https://youtu.be/X_V2mxF5Rpw