
현실을 찍으면 곧바로 가상 환경이 구현되는 새로운 세상이 열린다.
기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀 측정하고, 수천 장 사진을 카메라 위치 정보와 함께 보정하는 번거로운 과정을 거쳐야 했다. 이런 가운데, 한국과학기술원(KAIST·총장 이광형) 연구진이 단 2~3장 일반 사진만으로도 고정밀 3D 공간을 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다.
KAIST는 윤성의 전산학부 교수팀이 정밀한 카메라 위치 정보 없이 일반 영상만으로 고품질 3차원 장면을 복원할 수 있는 'SHARE(Shape-Ray Estimation)'를 개발했다고 6일 밝혔다.
별도 추가 학습이나 보정 없이도 실환경에서 신속·정밀한 복원이 가능해 효율성·범용성이 매우 높다. 영상 속에서 사물 형태(Shape)와 카메라 시선 방향(Ray)을 동시 추정하는 새로운 방식을 도입한 결과다.
기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면, SHARE는 영상 자체에서 공간 정보를 스스로 찾아내 카메라와 구조를 추론한다. 서로 다른 위치에서 촬영된 다중 영상을 하나의 공간으로 정렬하고, 형상 왜곡 없이 안정적인 3D 복원을 실현했다.

이번 연구는 나영주 박사과정, 김태연 석사과정 학생이 공동 제1저자로 참여했으며, 연구 결과는 국제 이미지 처리 학회(ICIP 2025)에서 9월 17일 발표돼 '최고 학생논문상'을 수상했다. 이 상은 올해 채택된 643편 논문 중 단 한 편에게만 수여된다.
윤성의 교수는 “SHARE 기술은 3D 복원 진입 장벽을 획기적으로 낮춘 기술로, 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 밝혔다.
이번 성과는 과학기술정보통신부 SW스타랩 사업 '오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발' 과제지원으로 수행됐다.
김영준 기자 kyj85@etnews.com