[대한민국 희망 프로젝트]<700>설명가능인공지능(XAI)

글자 작게 글자 크게 인쇄하기
게티이미지뱅크
<게티이미지뱅크>

인공지능(AI)의 성능은 날로 성장하고 있습니다. 과거와 달리 뛰어난 연산 능력을 바탕으로 우리를 뛰어넘고 있습니다.

AI 적용 영역도 넓어집니다. 지금은 우리 사회를 이루는 전 영역에서 AI 기술이 널리 쓰입니다. 이제는 AI가 쓰이지 않는 곳을 찾는 것이 어려울 정도입니다.

아직까지는 대다수 AI 기술이 사람에게 조언을 주고 결정을 보조하는 수준으로 활용됩니다. 그러나 머지않아 AI가 우리를 대신해 갖가지 중요한 결정을 직접 내리는 날이 올 전망입니다.

환자를 진단해 적절한 치료법을 제시하거나 기업 인사 과정에서 지원자 당락을 결정하거나 해고자를 꼽을 수도 있습니다. AI가 전쟁에서 사람의 목숨을 앗아가는 결정을 하는 미래도 상상 가능합니다. 그럴수록 우리는 AI가 내린 결정의 이유를 알아야 합니다. 이 때문에 나온 개념이 '설명가능AI(XAI)' 입니다. XAI에 대해 살펴보겠습니다.

Q:XAI는 무엇이고, 왜 필요한가요.

A:XAI는 '설명이 가능한' AI입니다. AI가 내린 결정을 신뢰하고 따를 수 있도록 그 근거와 타당성을 제시하는 개념입니다. 과거 1970년대부터 존재했던 개념이지만 AI 발전으로 중요도가 점점 커지고 있습니다.

AI는 머신러닝과 딥러닝 기술 개발로 복잡해지고 고도화되고 있습니다. 그 연산과정을 가늠하는 것에 어려움이 생깁니다. 기계학습에서는 헤아릴 수 없이 많은 '노드'가 결정에 관여하는데, 특정 노드가 어떤 데이터를 기반으로 결정에 어떤 영향을 끼쳤는지 추적하는 것은 불가능에 가까운 일입니다. 워낙 속을 알 수 없어 '블랙박스'라고까지 불립니다.

과거에는 AI의 과정보다는 결론이 중요했습니다. 그러나 AI의 결정이 사람의 인생, 나아가 목숨까지 좌우하게 될 수 있는 시점이 온다면 결론 도출 과정, 납득할 수 있는 이유가 필요하게 합니다. 결정이 적절한 연산의 결과인지, 오류는 없었는지 파악할 수 없다면 뜻하지 않은 피해자 발생을 막을 수 없습니다.

예를 들어 전쟁을 수행하는 AI가 적군을 공격해 사상자가 발생했는데 그 결정 이유를 알 수 없다면 얼마나 끔찍한 일일까요. XAI는 이런 불상사를 막고, 우리가 AI를 더욱 신뢰하는 기반이 됩니다. AI 자체 발전도 견인하게 됩니다. 결정 과정을 면밀하게 알게 되면 AI 모델 내 미진했던 부분을 알아 개선할 수도 있습니다.

XAI와 기존 기술의 차이. XAI는 기존과 달리 결과를 도출하는 과정에서 살핀 근거들을 함께 제시할 수 있다. 출처: DARPA
<XAI와 기존 기술의 차이. XAI는 기존과 달리 결과를 도출하는 과정에서 살핀 근거들을 함께 제시할 수 있다. 출처: DARPA>

Q:XAI 연구는 어떻게 이뤄지고 있나요.

A:근래 몇 년 사이 XAI 연구가 가속화되는 상황입니다. 미국 국방성 산하 고등연구계획국(DARPA) 활동이 두드러집니다. DARPA는 2017년부터 관련 연구에 매진하고 있습니다.

AI가 자체 설명 능력을 갖춰, 결론을 내게 된 이유 등을 설명하도록 하는 것이 목표입니다. 민간에서도 XAI 연구가 활발합니다. 구글이나 마이크로소프트, IBM, 아마존과 같은 글로벌 IT 기업도 XAI에 주목하고 있습니다.

우리나라에서는 과학기술정보통신부 산하 '설명가능인공지능 연구센터' 등이 관련 연구에 힘쓰고 있습니다.

여러 관련 연구가 이뤄지지만 핵심은 '과정'을 알 수 있게 하는 설명 모델과 관련 인터페이스를 개발하는 것입니다. 학습모델 내 노드를 설명하는 '라벨링' 작업을 하거나, 학습 모델 간 비교로 과정을 밝혀내거나, 결과에서 역으로 과정을 찾아내는 방법이 거론되고 있습니다. 아예 새롭게 설명 가능 모델을 만드는 방법도 있습니다.

Q:XAI 기술의 실제 사회 적용도 진행 중인가요.

A:XAI는 AI 분야에서 이미 피할 수 없는 기본 요건이 돼 가는 추세입니다. 각국 정부에서 XAI 필요성을 인식하고 있습니다. 유럽연합(EU) 경우 2018년 5월 발효한 일반정보보호규정(GDPR) 13~14조에 관련 조항을 담았습니다. 알고리즘 결정에 대해 질문하고, 관여 논리 설명을 요구할 권리를 여기에 명시했습니다.

XAI 관련 서비스도 이미 일부 제공되고 있습니다. 구글은 이미 자체 클라우드 플랫폼을 통해 XAI 서비스를 제공하고 있습니다. XAI 기술을 무기로 삼은 스타트업도 속속 등장하고 있습니다.

우리나라에서도 금융과 의료를 비롯한 다양한 영역에 XAI 기술 도입이 추진되고 있습니다. XAI가 적용되면 금융에서는 고객에게 상품을 추천할 때나 시장 전망을 분석하는 다양한 상황에 XAI가 도움이 될 수 있습니다. 이미 많은 국내 은행이 도입을 염두에 두고 있습니다. 의료 분야에서는 어떤 생체 지표에 근거해 질병을 진단했는지 등을 파악할 수 있습니다.

이밖에 포스코 포항제철소의 경우 AI를 활용한 고로 자동화에 XAI 기술을 적용했습니다.

주최:전자신문

후원:교육부 한국교육학술정보원

◆관련도서

[대한민국 희망 프로젝트]&lt;700&gt;설명가능인공지능(XAI)

◇'XAI 설명 가능한 인공지능, 인공지능을 해부하다' 안재현 지음, 위키북스 펴냄

전통적인 머신러닝 기법에 적용할 수 있는 XAI 기법부터 최신 딥러닝 모델에 사용할 수 있는 XAI 기법까지 수록돼 있다. 기존 XAI 서적에서 다루지 않았던 예제 코드를 함께 수록했다. 먼저 이론을 학습하고 해당 이론에 대응하는 코드를 따라 하면서 별도의 설치 과정 없이도 XAI 해석 결과를 직접 확인할 수 있다.

[대한민국 희망 프로젝트]&lt;700&gt;설명가능인공지능(XAI)

◇'인공 지능 기술 비평' 이재현 지음, 커뮤니케이션북스 펴냄

인공지능이란 무엇인가? 기술적 원리와 기제에 대한 이해만으로는 이 질문에 충분히 답을 할 수 없다. 인간과 기계의 동이점에서 출발하는 형이상학적 기계론은 공허하다. 기술 비평은 인공지능 기술적 원리에 주목하면서도 그것에 철학적 질문을 제기한다. 기술과 철학의 공명을 모색하는 기술 비평은 인간대체론과 기술낙관론으로 대표되는 테크놀로지 혁명 담론을 극복하며 인공지능의 실체를 통찰한다.

대전=김영준기자 kyj85@etnews.com