
한국과학기술원(KAIST·총장 이광형)이 불완전한 시각 정보만으로도 변형 물체 상태를 정밀하게 파악하고 능숙하게 다룰 수 있는 로봇 기술을 개발했다. 케이블 및 전선 조립, 부드러운 부품을 다루는 제조업, 의류 정리와 포장 등 다양한 산업·서비스 분야 지능형 자동화에 기여할 것으로 기대된다.
KAIST는 박대형 전산학부 교수팀이 이와 같은 인공지능(AI) 'INR-DOM'을 개발했다고 21일 밝혔다.
연구팀은 '잠재 신경 표현'을 활용했다. 이 기술은 로봇이 관측한 부분적인 3차원 정보(점 구름)를 입력받아, 보이지 않는 부분을 포함한 물체의 전체 형상을 연속적인 곡면(SDF)으로 재구성한다. 로봇은 마치 사람처럼 전체 물체 모습을 상상하고 이해할 수 있다.
나아가 연구팀은 2단계 학습 프레임워크를 도입했다. 1단계 사전학습에서는 불완전한 점 구름으로부터 완전한 형상을 복원하는 모델을 학습시켜, 늘어나는 물체 표면을 잘 나타내는 상태 표현 모듈을 확보한다. 2단계 미세조정에서는 강화학습과 대조학습을 이용해, 로봇이 현재 상태와 목표 상태 간 미묘한 차이를 구분하고 최적의 행동을 찾아내도록 제어 정책과 상태 표현 모듈을 최적화한다.

INR-DOM 기술을 로봇에 탑재해 시뮬레이션한 결과 고무링을 홈에 끼우거나, O링을 부품에 설치하거나, 꼬인 고무줄을 푸는 세 가지 복잡한 과제에서 모두 기존 최고 성능 기술들보다 월등한 성공률을 보였다. 특히 가장 어려운 풀기 작업에서는 성공률이 75%에 달해 기존 최고 기술보다 약 49% 높은 성과를 거뒀다.
실환경 강화학습 수행 결과에서도 끼우기, 설치, 풀기 작업을 90% 이상 성공률을 보였고, 특히 시각적으로 구별이 어려운 양방향 꼬임 풀기 작업에서 기존 이미지 기반 강화학습 기법 대비 25% 더 높은 성공률을 기록했다.
송민석 연구원은 “이번 연구는 로봇이 불완전한 정보만으로 변형 물체 전체 모습을 이해하고, 이를 바탕으로 복잡한 조작을 수행할 수 있다는 가능성을 보여줬다”며 ”제조, 물류, 의료 등 다양한 분야에서 인간과 협력하거나 인간을 대신해 정교한 작업을 수행하는 로봇 기술 발전에 크게 기여할 것”이라고 말했다.
KAIST 전산학부의 송민석 석사과정이 제1 저자로 참여한 이번 연구는 지난 6월 21~25일 LA USC에서 개최된 로봇 공학 분야 최상위 국제 학술대회인 '로보틱스: 사이언스 앤 시스템즈 2025'에서 발표됐다.
김영준 기자 kyj85@etnews.com