일상적인 사진에서 3D 공간 정보를 읽어내는 오픈 모델 공개
- •WildDet3D는 모델 재학습 없이 일반적인 2D 이미지에서 3D 공간 인식을 가능하게 한다.
- •100만 장 이상의 이미지와 1만 3,000개 이상의 객체 카테고리를 포함한 새로운 오픈소스 데이터셋이 공개되었다.
- •텍스트, 포인트, 바운딩 박스 등 유연한 프롬프트를 지원하여 객체를 효과적으로 식별한다.
수십 년 동안 컴퓨터 비전 분야의 핵심 난제 중 하나는 '평면성' 문제였다. 기계는 2D 사진 속 객체를 식별하는 데는 탁월하지만, 해당 객체가 실제 물리적 공간의 어디에 위치하는지 파악하는 데는 어려움을 겪어왔다. 이는 이미지에 커피 잔이 있다는 사실을 아는 것과, 그 잔이 테이블 위 정확히 어느 거리만큼 떨어져 있는지 이해하는 것의 차이와 같다.
이러한 맥락에서 등장한 WildDet3D는 단일 2D 입력값에서 깊이, 크기, 방향을 추론하는 Monocular 3D Detection 분야의 중요한 진전을 보여준다. 이 아키텍처는 디지털 픽셀과 물리적 환경 사이의 간극을 효과적으로 메운다. 예를 들어 스마트 글래스가 실세계 거리에 디지털 경로를 겹쳐 표시하거나, 로봇 팔이 미지의 크기를 가진 물체를 집어 올리는 상황에서 필수적인 공간 정보를 제공한다.
특히 이 시스템이 주목받는 이유는 '프롬프트' 기반의 인터페이스를 통한 높은 활용성이다. 기존의 경직된 사전 프로그래밍 방식에서 벗어나, 사용자가 텍스트 설명이나 간단한 클릭, 혹은 기존의 2D 바운딩 박스를 사용하여 시스템과 상호작용할 수 있다. 이에 따라 개발자는 복잡하고 비용이 많이 드는 신경망 재학습 과정 없이도 고도화된 공간 지능을 기존 비전 시스템에 통합할 수 있다.
이 모델의 강력한 성능은 사상 최대 규모의 데이터셋인 WildDet3D-Data에 기반을 두고 있다. 100만 장 이상의 이미지와 370만 개의 검증된 3D 어노테이션(주석)을 포함하며, 1만 3,000개가 넘는 다양한 객체 카테고리를 포괄한다. 이러한 광범위한 데이터는 실세계 환경에서의 신뢰성을 보장하며, 제한된 훈련 환경에서는 식별하기 어려웠던 장면이나 사물에서도 모델이 실패하지 않도록 돕는다.
공간 지능의 발전은 자율주행 로봇과 증강현실이 주도하는 미래 사회에서 더 이상 선택이 아닌 필수 요소가 되고 있다. 이번 프로젝트는 오픈소스 라이선스를 통해 이전까지 폐쇄적이고 값비싼 연구 분야에 갇혀 있던 기술을 대중화하는 데 기여했다. 이는 대학생과 독립 개발자들이 기존에는 기술적 한계로 시도할 수 없었던 다양한 애플리케이션을 개발할 수 있는 새로운 가능성을 열어준다.