사람들이 서로 소통할 때 비단 목소리 뿐만 아니라 표정이나 몸짓 등 다양한 비언어적인 요소들을 활용하는 것과 마찬가지로, 사람들은 이미 여러가지 방식으로 기계와 상호작용을 하고 있다. 그리고 음성인식기술과 사물인터넷(IoT), 자율주행기술 등의 발전으로 상호작용 방식이 훨씬 다양하게 분화하고 있는 것이다.

사람이 기계와 소통하는 방식 일체를 HMI(Human Machine Interface)라고 한다. 사람이 기계를 조작하는 방식부터 기계의 상태를 사람에게 보여주는 방식까지 사람과 기계 사이에 일어나는 상호작용의 모든 것을 HMI로 볼 수 있다.
기계를 사용자의 의도대로 움직이게 하는 가장 단순한 방법은 힘을 가하는 것이다. 핸들을 돌리거나 패달을 밟으면 유압 혹은 모터에 의해 그 힘이 증폭돼 차량이 방향을 틀거나 멈춰서게 되는 것이 이 방법에 속한다.
다음으로는 버튼을 누르거나 돌리는 등의 간단한 조작으로 기계에게 명령어를 전달하기도 한다. 원하는 라디오를 듣기 위해 주파수를 돌린다든지, 차의 창문을 열기위해 버튼을 누르는 것 등이다. 이후 터치패널이 널리 활용됨에 따라 차량 중앙의 AVN(오디오·비디오·내비게이션)을 간단히 터치하는 것만으로 다양한 기능들을 제어하는 것이 가능해졌다.
하지만 이들은 물리적인 접촉 및 조작을 필요로 한다는 점에서 안전하지 않았다. 자동차 내 부가적인 기능들이 많아지고 스마트 기기가 보급화 됨에 따라 운전자들이 이를 조작하다가 사고가 나는 경우가 빈번히 일어났기 때문이다.
이에 자동차 업체들은 물리적인 접촉을 하지 않고 차량 내 기능을 제어할 수 있는 방법을 생각하기 시작했다. 이 과정에서 등장한 것이 음성인식 기능과 제스처인식 기능으로, 음성인식기능은 이미 스마트폰을 통해 익숙한 방식 그대로 차량을 제어하는 것이다. 제스처 인식 기능은 직관적이고 일반적인 손 동작에 기능을 매칭시킨 후, 핸들이나 콘솔박스, 센터페시아 등의 위치에 장착된 카메라 센서가 탑승자의 특정 손동작을 인식하면, 해당하는 기능을 수행하는 방식이다.
이런 기능은 운전자 주의를 끌지 않아 안전하지만, 아직까지는 인식률이 떨어지기 때문에 기존 조작계를 보완하는 기초적인 수준에서 적용되고 있다. 또 제스처 인식 기능은 차량 내에 별도 카메라 센서를 장착해야 하는 등 추가 비용이 발생하기 때문에 일부 고급차에만 장착된 상황이다.
하지만 미국과 유럽 정부가 주행 규제를 강화하고 있는 만큼 해당 기술들의 적용은 점차 확대될 전망이다. 실제로 미국의 한 시장조사기관은 2020년까지 제스처 인식 기술의 적용이 10배 이상 늘어날 것이며, 시장 규모도 매년 55% 이상씩 커질 것으로 내다봤다.
사람이 자동차를 조작하는 방법 자체를 변경시키는 것도 중요하지만, 자동차의 메시지를 보다 직관적으로 나타내는 방식이나, UI(유저인터페이스)를 편하고 간결하게 구성하는 방식 등도 그에 못지 않게 중요하다.
즉 자동차 상태를 나타내는 클러스터나 AVN, HUD(헤드업디스플레이) 내에서 어떤 정보가 어디에 표시되어야 하는지, 원하는 기능을 실행하기 위해 몇 번의 클릭을 해야하는지 연구하는 것 모두 HMI의 영역에 해당하는 것이다.
현대모비스도 사람과 기계의 원활한 상호작용을 위해 표시 장치 개발, 기존 장치 UI 개선, 새로운 인식 기술 연구 등 다양한 노력을 기울이고 있다. 특히 올해 1월 라스베이거스에서 열린 CES에서 직관적 표시 장치인 증강현실 HUD 기술을 선보이며, 관람객들의 눈길을 사로잡은 바 있다. 증강현실 HUD는 다양한 주행환경에 대한 정보를 실시간으로 받아 현실에 덧입혀 투영해주기 때문에 운전자는 쉽게 운전에 집중할 수 있고, 갖가지 정보들에 대해서도 빠르게 인지할 수 있다.
류종은 자동차/항공 전문기자 rje312@etnews.com