[전문가 기고]AI의 트롤리 딜레마

정광복 자율주행기술개발혁신사업단 사무국장
정광복 자율주행기술개발혁신사업단 사무국장

구글 딥마인드의 바둑 인공지능(AI) 프로그램 알파고는 2016년 이세돌 9단을 이기며 우리나라를 떠들썩하게 만들었다.

현재 알파고는 2017년 알파고 제로라는 새로운 모델로 개발돼 인간의 도움 없이 스스로 학습해 바둑, 체스 등 다양한 게임을 할 수 있도록 발전되고 있다.

최근 미국 스타트업 오픈AI가 공개한 AI 챗봇 '챗GPT'가 세계적으로 주목받고 있다.

챗GPT는 지난해 11월 출시 일주일 만에 사용자 100만 명을 넘기고, 두 달 만인 올 1월에는 1억명을 돌파했다.

챗GTP는 만들어진 학습 결과를 보이는 기존 검색엔진과 다르게 사용자의 같은 요구에도 항상 새로운 결과를 제시한다. 이는 챗GPT가 기계 스스로 학습하는 알고리즘 '생성(Generative) AI' 기술을 적용하고 있기 때문이다.

자율주행도 다양한 환경과 상황에서 안전하고 신뢰할 수 있는 AI 기반의 인지-예측-판단 기술을 필요로 한다. 자율주행기술은 자신의 위치와 전방위의 모든 사물을 정확하게 인식해야 한다. 또한 주변 차량이나 보행자의 상태를 파악하고 움직임을 예측해야 한다.

이처럼 자율주행과 챗GPT 모두 AI를 통해 사람의 직접적 입력이나 개입 없이 독립적으로 작동하고 스스로 결정을 내리도록 설계됐다. 그러나 AI가 항상 올바른 결정을 내리지는 않는다. AI는 사용자의 요구 내용과 관련해 데이터가 부족하거나 데이터 품질이 떨어지는 경우 원하는 답변을 주지 않는다. 잘못되거나 편향적 정보를 제공할 수도 있고, 업데이트 시기에 따라 최신 정보 제공이 제한되는 한계도 있다. 따라서 AI 모델을 학습시키는 데이터의 질과 양은 매우 중요하다.

자율주행에서 AI의 잘못은 큰 사고로 이어질 수 있다. 아직 자율주행차 사고 발생은 그리 많지 않다. 그러나 한 번씩 발생하는 사고는 안전 문제에 대한 우려를 낳고 있다. 구글 웨이모는 2018년 자율주행차가 좌회전하면서 자전거를 인식하지 못해 사고를 냈다. 같은 해 우버는 자율주행차 테스트 도중 일반 자동차와 자전거를 발견하지 못하며 사망사고를 냈다. 테슬라 모델 S 차량은 지난달 정차돼 있던 소방차를 들이받고 사망사고를 냈다. 테슬라는 FSD(Full Self-Driving) 결함으로 충돌 위험이 커진다며 36만여대 대상 리콜 명령을 내렸다. 제너럴모터스(GM) 크루즈도 지난해 상용화 첫 사례인 로보택시를 교통혼잡이 발생하는 낮 시간대에는 운전자가 동승하고 야간에는 완전자율주행으로 샌프란시스코에서 운영했다. 그러나 노면전차 선로에 정차해서 전차 운행을 방해하거나 소방차 전용로를 막아 소방차 화재 현장 도착을 지연시키는 등 사회문제를 일으키고 있다.

AI는 윤리적 문제에도 답을 주지 못한다. 자율주행에서의 트롤리 딜레마(Trolley Dilemma)가 그렇다. 트롤리 딜레마는 제동장치 고장으로 정지할 수 없는 탄광 수레(Trolley)가 소수 또는 다수의 사람을 희생시킬 수밖에 없는 경우 어느 쪽을 택해야 하는가 하는 질문이다. 이 또한 사람이 AI에 어느 것을 선택하라고 지시해야 한다.

현재 자율주행은 실증 테스트가 진행되고 있다. 많은 기업이 상용화를 목표로 세계 곳곳에서 기술 개발에 박차를 가하고 있다. 우리나라도 2020년 5월 자율주행 시범운행지구를 도입한 이후 현재 전국 12개 시·도 16개 지구를 지정해 실증하고 있다. 올해는 도시 한 곳을 선정해서 정부 차원의 대규모 실증을 계획하고 있다.

지난해 자율주행 글로벌 3위 기업 아르고 AI가 폐업을 결정했다. 초부득삼(初不得三). 첫 번째는 실패했지만 세 번째는 성공한다는 뜻으로, 꾸준히 하면 성공할 수 있다는 말이다. 자율주행 기술에는 아직 한계가 있다. 우리도 자율주행 기술을 실증하며 수많은 오류를 발견하고, 사고도 발생할 것이다. 그러나 거기서 멈춘다면 실패가 될 것이고, 계속하면 성공의 한 과정이 될 것이다.

정광복 자율주행기술개발혁신사업단 사무국장 traffic1@naver.com