[AI스페셜 리포트]<8>윤리적 인공지능을 위하여

[AI스페셜 리포트]<8>윤리적 인공지능을 위하여

고학수 인공지능 법제도연구포럼 위원(서울대학교 교수, 한국인공지능법학회 회장)

고학수 인공지능 법제도연구포럼 위원은 "앞으로 AI 윤리에 대한 논의는 개별 영역에서의 특징을 고려한 구체적인 원칙을 만들어 가는 과정이 될 것"이라고 강조했다. 사진=김민수기자 mskim@etnews.com
고학수 인공지능 법제도연구포럼 위원은 "앞으로 AI 윤리에 대한 논의는 개별 영역에서의 특징을 고려한 구체적인 원칙을 만들어 가는 과정이 될 것"이라고 강조했다. 사진=김민수기자 mskim@etnews.com

인공지능(AI) 영역에서 윤리적 이슈에 관한 관심은 계속 늘어나고 있다. 연구자들 사이에서의 관심은 철학적 문제 제기에서 출발해 법학자나 공학자들 사이의 관심으로 확대되고 있다. 세계 유수의 AI 학술대회에 공학자들과 철학자 및 법학자들이 함께 참여해 논의하는 것은 이제 어색하지 않은 상황이다. 또 정부나 규제 당국은 물론 기업들이 AI 윤리에 적극적인 관심을 표명하는 사례도 많다. 국제기구나 표준화기구에서 진지한 논의가 이뤄지기도 하는 등 AI 윤리에 관해 이제는 매우 다양한 사회 영역에서 다양한 형태로 논의가 진행되고 있다.

AI 윤리와 관련해서 세계적으로 매우 다양한 문건이 쏟아져 나오고 있기 때문에 우선 이를 어느 정도 체계화해 파악할 필요가 있다. 외국의 한 시민단체가 수집한 것에 따르면 2020년 4월 기준으로 160개 이상의 AI 윤리 가이드라인이 있다고 한다. 누락된 것이 적지 않을 수 있어 이를 고려하면 세계적으로 200개가 넘는 가이드라인이 존재한다고 보는 것이 현실적이다.

여러 AI 윤리규범을 분석해 본 결과 몇몇 핵심 개념이 공통적으로 강조되는 것을 볼 수 있었다. 대다수 AI 윤리규범에 공통적으로 등장하는 핵심 개념으로 공정성(fairness), 투명성(transparency), 안전성(safety), 프라이버시(privacy), 책임성(accountability), 포용성(inclusiveness) 등을 들 수 있다. 그리고 이러한 개념과 관련성이 높은 다른 개념도 종종 함께 포함된다. 이에는 편향(bias)이나 차별(discrimination)의 극복, 강건성(robustness), 설명가능성(explainability), 인간중심(human-centered) 등의 개념이 있다. 이렇게 핵심개념을 모아 놓고 보면, AI 윤리에 관한 논의는 결국 AI가 인간을 위해 유용하게 활용될 수 있어야 한다는 이해에 전제하는 것으로 볼 수 있다. 그리고 최근의 다양한 논의는 인간의 신뢰를 얻을 수 있는 AI 개발을 유도하기 위한 원칙을 모색하고 이를 위한 지침을 마련하는 과정인 것으로 파악할 수 있다.

[AI스페셜 리포트]&lt;8&gt;윤리적 인공지능을 위하여

◇AI 윤리의 네 가지 유형

AI 윤리에 관한 논의의 흐름에 대해 좀 더 구체적으로 살펴보자. 최근 몇 년 사이에 AI 윤리라는 이름으로 많은 논의가 이뤄지지만 그 이전에는 빅데이터에 초점을 두고 연관된 논의가 있었다. 그리고 빅데이터 AI에 관한 사회적 관심이 크게 대두되기 전에는 로봇에 관해 논의가 이뤄지기도 했다. 지난 몇 년 사이에 AI 윤리에 대한 관심이 늘면서 다양한 가이드라인 유형의 문건이 발표됐는데, 구체성의 정도나 주요 관심 등 여러 가지 측면에서 다양한 형태가 나타난다.

논의의 형태나 깊이, 논의 주체 등 여러 가지 측면에서 매우 다양해 이를 체계화하고 유형화해 파악하기도 쉽지 않지만 편의상 네 가지 유형으로 구분할 수 있다.

첫 번째 유형은 기본원칙 중심의 논의 유형이라 할 수 있다. 대체로 한두 페이지 또는 몇 페이지 수준의 짧은 문서를 통해 대원칙을 제시하는 유형이 이에 속한다. 민간 기업이 발표하기도 하고, 전문가 그룹이나 더 나아가 국제기구를 통해 발표되기도 한다. 이 중 중요한 것으로 2017년에 나온 '아실로마 원칙'을 들 수 있다. 이 원칙은 어찌 보면 최근의 머신러닝 기반 AI 윤리에 관한 논의에 있어서 처음으로 방향 제시를 한 것으로 파악할 수 있다. '초지능'에 관한 내용이 담기는 등 지금에 와서는 주요 관심의 대상이 아닌 내용도 담겨 있다. 이 원칙이 발표된 이후로 많은 조직과 기관에서 다양한 AI 윤리 원칙을 발표했다. 이 중에서 2019년에 발표된 'OECD AI 가이드라인 권고'는 여러 나라 정부가 함께 참여해 합의를 마련한 결과물이라는 점에서 의의가 있다. OECD 권고를 마련하는 과정에는 우리나라도 적극 참여했는데, 이 권고의 특징 중 하나는 투자와 국제협력 등에 관한 내용이 상대적으로 강조됐다는 점이다.

두 번째 유형은 기본원칙과 함께 심화된 이슈를 함께 다루는 민간기업의 윤리원칙 유형이다. 기본원칙 제시에 그치면 원칙의 이행을 어떻게 보장할 것인가에 관한 문제 제기가 계속될 수 있는데, 이 유형은 지속적이고 깊이 있는 관심을 통해 진정성을 확보하는 유형이라 할 수 있다. AI 윤리 이슈에 주목해 논의를 이어가고 있는 몇몇 기업을 이 유형에 포함해 이해할 수 있다. 이 유형에 속하는 것으로 볼 수 있는 기업의 공통 특징은 AI 윤리에 관해 지속적인 관심을 갖고 주기적이고 반복적인 작업을 한다는 것이다. 예를 들어 AI 윤리에 관한 원칙을 발표하더라도 이를 주기적으로 업데이트하거나 더 상세한 내용을 담은 추가 자료를 마련해 발표하는 것이다. 또는 일반적인 원칙을 발표하고 나서 개별 기술영역 등에 주목해 각론 성격의 자료를 발표한다든가, 제시된 원칙의 구체적 평가나 실행을 위한 기준이나 방법론을 발표하는 등의 노력을 하는 것을 들 수 있다.

세 번째 유형은 심화된 이슈를 다루는 공공영역에서의 논의를 들 수 있다. 이 맥락의 논의는 개별 국가의 정부를 통해 볼 수도 있고, 국제기구 등을 통해 나타나기도 한다. 예를 들어 개별 국가의 정부가 지속적이고 반복적으로 심도 있는 지침이나 보고서를 내는 형태가 이에 속한다. 자율주행차 등 특정 영역에 초점을 맞춰 상세한 원칙과 지침을 제시하는 사례도 있다. 국제기구와 전문가협회가 협업해 AI 윤리 중에서도 프라이버시와 관련된 측면에 초점을 맞춰 상세한 논의가 이뤄진 사례도 있다. UNGP와 IAPP가 함께 발표한 이 문서에서는 데이터의 잘못된 활용으로 인해 프라이버시가 침해될 가능성에 관심을 가질 필요가 있지만 동시에 데이터를 활용하지 않음으로 인해 발생할 수 있는 부작용에도 관심을 가질 필요가 있음이 강조됐다.

네 번째 유형으로 분류할 수 있는 것은 AI 윤리와 관련된 규제 거버넌스의 정립 방안에 대한 구체적 논의를 담고 있는 유형이다. 넓게 국가적인 정책 지향성이나 AI 기술과 관련된 방향성을 염두에 두고, AI 윤리를 포함한 광의의 규범적이고 정책적인 의사결정에 관한 지침을 제시하는 내용이 담긴 것을 여기에 포함할 수 있다. 또 규범적 의사결정의 이행을 어떻게 담보할 것인지에 관한 깊이 있는 고민이 담긴 유형도 여기에 포함될 수 있다. 예를 들면 영국에서는 지난 몇 년 동안 정부 및 의회를 통해 여러 관련 가이드라인과 보고서들이 발표된 바 있다. 아시아권에서는 싱가포르 정부의 움직임이 두드러진다. AI 거버넌스에 관한 보고서나 가이드라인을 내고 이를 업데이트하는 작업이 몇 년째 이어지고 있다. 다른 한편, 전문가 협회가 중요한 역할을 하기도 한다. IEEE(전기전자공학자협회)는 몇 년에 걸친 작업 끝에 300페이지 수준에 이르는 AI 윤리 보고서를 마련했다. IEEE는 국제표준기구의 역할을 수행하기도 하는데, 'P7000 시리즈'라는 이름으로 AI 윤리 영역에 관한 표준을 만들어가는 작업을 하고 있다.

유럽연합은 2018년에 유럽연합 차원의 AI 전문가 그룹(High-Level Expert Group on AI)을 형성해 논의를 이끌어오고 있다. 이 전문가 그룹은 많은 논의 끝에 2019년에 '신뢰할 수 있는 인공지능을 위한 윤리 가이드라인'을 발표했다. 그리고 그 후속작업으로 2020년에는 AI 평가에 관한 좀 더 구체적 평가항목을 담은 평가기준서(Assessment List)를 발표했다. 가이드라인 단계의 작업이 대원칙을 도출하고 청사진을 제시하는 것이 주목적이었다면 평가기준서는 더욱 구체적인 내용을 포함하고 있다.

[AI스페셜 리포트]&lt;8&gt;윤리적 인공지능을 위하여

◇우리나라의 윤리 원칙과 가이드라인

우리나라는 어떠한가. 우리나라에서는 일찍이 2007년에 로봇윤리헌장 초안이 발표된 바 있다. 하지만 더 구체화되거나 시행단계에 이르지는 못했다. 그러다가 최근 몇 년 사이에 좀 더 적극적인 논의가 나타났다. 최근 논의로 2018년에 정보문화포럼과 정보화진흥원이 지능정보사회 윤리 가이드라인을 발표한 것을 들 수 있다. 그와 함께, 공공성, 책무성, 통제성, 투명성의 원칙으로 이뤄진 윤리헌장도 발표되었다. 2020년 입법된 지능정보화 기본법에는 지능정보사회윤리를 확립해야 한다는 내용이 포함돼 향후 더 구체적 논의가 이뤄질 전망이다. 이와 별개로 2019년에는 방송통신위원회에서 '이용자 중심의 지능정보사회를 위한 원칙'을 발표한 바 있다. 기업 중에는 카카오에서 2018년에 AI 윤리 가이드라인을 발표했다. 이 가이드라인에는 당초 다섯 개의 원칙이 담겨 있었는데, 2019년과 2020년에 각각 원칙을 하나씩 추가해 현재 7개의 원칙이 담겨 있다. 삼성전자는 2019년에 공정성, 투명성, 책임성의 원칙으로 구성된 AI 윤리 핵심원칙을 발표한 바 있다. 그리고 국내기업 몇몇 곳에서는 아직 외부에 공표하지는 않았지만 내부적인 논의를 진행하는 것으로 보인다.

최근 몇 년 사이에 매우 다양한 조직이 여러 가지 윤리원칙과 가이드라인을 발표하고 있다. 그렇다면 이러한 윤리원칙과 가이드라인을 어떻게 바라볼 것인가. AI 윤리의 맥락에서 흔히 언급되는 공정성, 투명성, 책임성, 프라이버시 등의 주요 원칙을 생각해 보면 AI 윤리의 개념은 AI 이외의 영역에서 전통적으로 강조되어온 윤리의 개념과는 차이가 있는 것으로 이해할 수 있다. 전통적인 윤리학에서는 '우리가 어떤 판단이나 행위를 해야 하는가'에 관한 규범적인 질문이 핵심이 되는 것이 보통이다. 윤리규범의 기본 원리를 구체화해 개별 직업군별로 직업윤리에 관한 윤리규범을 마련하는 사례도 종종 있는데, 이때 규범적 판단의 현실적인 주요기준은 이해상충의 존재 여부인 경우가 많다. 이를 고려하면 AI 윤리와 관련해 흔히 강조되는 개념은 전통적 윤리 개념과는 상당히 다른 것으로 받아들일 수도 있다. 하지만 두 사례에 모두 윤리 규범의 궁극적 목적은 각각의 영역에 대한 사회적인 신뢰와 존중을 확보하기 위한 것으로 이해할 수 있다. 즉 전통적인 직업윤리가 개별 직업군에 대한 사회적 신뢰와 존중의 확보라는 중요한 목표를 염두에 두는 것처럼 AI 영역에서의 윤리 문제도 AI에 대한 사회적 신뢰의 확보가 중요한 궁극적 목표인 것으로 이해할 수 있다.

◇실행가능성 확보가 관건

AI 윤리에 관한 논의가 현실적인 의미를 가지기 위해서는 실행 가능성 확보가 매우 중요하다. AI 윤리가 추상적 원칙에만 머물러 있으면 이는 '논의를 위한 논의'에 그칠 수 있기 때문이다. 실제로 실행가능성을 둘러싸고 다양한 제안이 나타나고 있는 중이다. 기업이나 조직에서 자율규제와 유사한 형태로 내부 규범을 마련하는 것에 관한 제안도 있고, 이를 이행하는 것에 관해 외부 평가나 확인을 받도록 유도하는 내용이 담긴 제안도 있다. 또는 외부의 제3자를 통해 평가하는 방식, 즉 감사나 인증에 관한 논의가 나타나기도 한다. 지금으로는 여러 가지 제안이 제한 없이 제시되는 상황이고, 이러한 제안들은 아직까지는 대체로 구체성이 높지 않은 상황인 것으로 보인다.

AI 윤리에 관한 논의가 구체화하기 위해서는 AI 전반을 아우르는 대원칙에서 더 나아가 개별 영역별 이슈에 관한 논의가 더욱 풍부하게 전개될 필요가 있다. 동일하게 표현되는 대원칙이라 해도 개별 영역에서의 실질적 의미는 다르게 받아들여질 수 있기 때문이다. 투명성 개념을 예로 들어 생각해 보자. 구체성이나 맥락을 제거하고 투명성에 대해 언급하면 사회구성원 대부분이 투명성 개념에 대해 긍정적 반응을 보일 수 있다. 하지만 이 개념에 맥락이나 구체성이 부여되면 반응이 달라지거나 또는 후속 질문이 달리 나타날 수 있다.

가령 금융영역에서 투명성을 전제로 설명가능성을 요구하는 것이 무엇을 의미하는지 생각해 보자. 만일 은행에서 대출을 거부당했을 때 그에 대해 설명을 요구한다면 정확히 어떤 설명이 가능할 것이고, 그러한 설명은 어떤 역할을 하게 될 것인가. 예를 들어 개인신용평점의 부여 방식에 대한 설명이 제시되면 그것으로 충분할 것인가. 다른 한편 병원에서 환자를 진료하는 맥락에서 제공되는 설명에 대해 생각해 보자. 이 맥락에서의 설명은 금융거래 맥락에서의 설명과 유사한 역할을 수행하는 것이라 볼 수 있을까. 인터넷을 통한 전자상거래의 맥락에서 설명에 제시되는 것은 또 어떤 의미를 가지는 것인가. 이러한 다양한 사례에 모두 '설명'이라는 표현을 쓰지만 그 구체적인 목적이나 기능은 각기 약간씩 다른 것을 알 수 있다.

최근 몇 년 동안의 논의가 여러 영역에서 공통 적용될 수 있는 대원칙을 만들어 가는 것에 초점이 맞춰져 있었다면 앞으로의 논의는 이를 더욱 심도 있고 풍부하게 하는 한편 개별 영역에서의 특징을 고려한 구체적인 원칙을 만들어 가는 과정이 될 것이다. AI 윤리에 관한 논의는 더욱 본격화될 전망이다.

hsk@snu.ac.kr