[프리즘]AI윤리, 누구의 몫인가

인공지능(AI) 챗봇 '이루다'가 다시 돌아온다. 지난해 12월 출시했지만 혐오 발언과 프라이버시 논란으로 3주 만에 중단됐다. 이루다를 개발한 스캐터랩은 새해 출시에 앞서 비공개 베타테스트를 진행하기로 했다. AI윤리 리스크를 최소화하기 위해서다.

인공지능 챗봇 이루다 <출처:이루다 페이스북>
인공지능 챗봇 이루다 <출처:이루다 페이스북>

스캐터랩은 이루다2.0을 선보이며 '누구에게나 좋은 친구가 되는 AI'를 목표로 정했다. 다양한 삶의 가치를 존중하는 '공정성'과 '평등성'을 앞세웠다.

1년여 만에 돌아오는 이루다는 과연 얼마나 성장했을까. 국내의 많은 AI 개발 업체가 '사람' 기준으로 AI를 개발하고 있다. 네이버는 '모두를 위한 AI', 카카오는 '사람 같은 AI'를 각각 추구한다. '사람'처럼 사고하고 추론하고 대화할 수 있도록 하는 것이 최종 목표다.

전문가들은 현 AI 능력이 이제 막 영아기에서 벗어나 사회활동을 시작한 유아기로 진입했다고 평가한다. 그만큼 지금이 AI의 인지, 언어, 정서 등의 성장에 중요한 시기라는 분석이다.

AI는 사람이 만드는 인공물이다. AI를 설계하는 과정에서부터 데이터 선정, 학습 과정에 사람의 주관이 개입될 수밖에 없다. 결국 AI윤리 실현의 해답도 사람에게 있다.

AI는 데이터를 먹고 성장한다. 편식은 해롭다. 데이터가 편향되지 않도록 다양한 데이터를 충분히 학습시켜야 한다. 일부 기업에서는 AI 개발자 자체의 다양성을 늘리는 노력까지 하고 있다.

명백한 욕설은 현 기술로도 차단할 수 있지만 은근한 차별까지도 막을 수 있어야 한다. 언어학, 윤리학, 행동학, 인문학 등 다양한 분야의 전문가들이 모여 다학제 연구를 지속해야 하는 이유다.

AI윤리 책임을 개발자에게만 부과해서도 안 된다. 우리에게 교육받은 AI의 행동은 우리의 현 모습을 비추는 거울과 같다. AI에 어떤 윤리를 부여할 것인지도 결국 우리 모두의 몫이다.

성현희기자 sunghh@etnews.com