[테크서밋] LG이노텍 “통합 센싱으로 모빌리티 공략”

강석현 LG이노텍 모듈/시스템 연구소 리더
강석현 LG이노텍 모듈/시스템 연구소 리더

자율주행, 로봇, 도심항공교통(UAM) 등 차세대 이동수단의 핵심은 센서다. 사람의 눈이나 귀와 같은 '감각기관' 역할을 하는 센서가 있어야 이동이 가능하기 때문이다.

강석현 LG이노텍 모듈·시스템 연구소 리더는 21일 양재 엘타워에서 열린 테크서밋에서 “단일 센서로는 모빌리티 분야에서 요구하는 다양한 요구사항을 모두 충족시킬 수 없기 때문에 다양한 센서 조합이 필요하다”며 “라이다(LiDAR)·레이더·카메라를 아우르는 통합 센싱 기술로 미래 모빌리티 시장을 준비하고 있다”고 밝혔다.

자율주행, 로봇, 자율비행 등 미래 모빌리티 플랫폼은 각각 다양한 센서 아키텍처를 기반으로 구동된다. LG이노텍 같은 부품회사에는 다양한 요구사항을 충족시킬 수 있는 센서 조합과 개발 역량이 요구된다.

자율주행차의 경우 카메라, 라이다, 레이더 등 센서를 배치해 도로 상황을 실시간 판단하고 장애물을 회피한다. 센서에서 발생한 대용량 데이터를 처리하는 AI 기술과 이를 전송하는 통신 기술도 중요해졌다.

LG이노텍은 미국 차세대 라이다 기업 아에바(Aeva) 지분투자를 통해 주파수 변조 연속파(FMCW) 방식 라이다 개발 협력을 진행하고 있다. '4D 라이다'로 불리는 FMCW 라이다는 움직이는 물체의 거리 뿐만 아니라 속도 정보까지 측정할 수 있는 기술이다.

강 리더는 “자율주행차가 자동차를 넘어 소프트웨어 서비스로 진화하면서 기존보다 훨씬 많은 센서가 필요해졌고 데이터 양과 센서 간 시간적 동기화 등 고려해야 할 문제도 많아졌다”면서 “아직 표준이 정립되지 않은 고객들의 다양한 요구사항을 충족하기 위해 노력하고 있다”고 말했다.

로봇 센서는 신체 감각기관과 가까운 방식으로 설계된다고 소개했다. 사물을 인지하는 RGB 카메라에 거리를 추정하기 위한 추가 센서를 조합해 인간의 눈 역할을 대체한다.

LG이노텍은 미국 로봇 업체 보스턴다이내믹스와 협업해 차세대 휴머노이드 로봇의 눈 역할을 하는 '비전센싱 모듈' 개발을 협업 중이다. 스마트폰 카메라에서 축적한 광학 기술을 로봇 사업까지 확장하고 있다. 드론이나 UAM 같은 자율비행도 자율주행차와 마찬가지로 장애물 충돌을 회피하는 카메라, 라이다, 레이더 등 센서 기술이 중요하게 활용된다.

강 리더는 “항공기용 라이다·레이더·열화상 카메라와 함께 IMU가 이·착륙시 자세 제어와 방향 제어에 핵심 역할을 맡는다”면서 “최근 드론 기능이 확대되면서 RGB 카메라 뿐만 아니라 특수 목적용 열화상 카메라, 라이다, 레이다 등 센서도 많이 활용되고 있다”고 설명했다.

LG이노텍은 AI 기술을 적극 활용해 라이다, 카메라, 레이더 등 기존 센서가 가지는 한계를 극복하고 기술을 고도화하고 있다. 라이다의 경우 유리 반사로 허상의 이미지가 발생하는 '고스트 이펙트'를 막기 위해 AI 기반 노이즈 필터링 기술에 집중하고 있다고 소개했다. 카메라 분야에서는 강한 빛이 카메라 렌즈에 들어오면 난반사가 일어나면서 시야가 깜깜해지는 '블랙아웃' 현상을 막기 위한 신경망 구조를 내재화했다고 전했다.

정현정 기자 iam@etnews.com