[프리즘]'심심이' '이루다' 'AI윤리'

글자 작게 글자 크게 인쇄하기
전자신문 DB
<전자신문 DB>

'심심이'를 몇 년 만에 다시 다운로드 했다. 심심이는 대화형 챗봇서비스다. 인공지능(AI)이 낯설던 지난 2000년대 초반부터 서비스를 시작했다. 로봇과의 대화를 모토로 한 서비스 초기 모델이다. 간단한 끝말잇기나 농담을 주고받던 이름 그대로 심심풀이용 서비스에 가깝다.

심심이는 꽤 변해 있었다. 만 14세 미만은 사용할 수 없다. △성행위 △폭력 △위협 △인종, 피부색, 성 취향 등 특정 집단에 증오심을 조장하는 콘텐츠는 금지한다는 정책을 명확히 했다. '나쁜말 미션'을 통해 나쁜말 판결기를 개선하는 기능, 괴롭힘을 미리 차단하는 기능 등이 추가됐다. 심심이도 지난날 나쁜 말, 성희롱, 놀림 등에 시달렸다. 심심이의 다양한 정책, 나쁜말 판별기 등은 경험에서 나온 변화였다.

'이루다'는 당분간 사용할 수 없게 됐다. AI 챗봇 이루다는 최근 몇 주 동안 인터넷을 뜨겁게 달궜다. 서비스 초반에 심심이보다 훨씬 자연스러운 대화가 가능하다는 소문이 퍼지면서 긍정 평가를 받았다.

이루다 논란은 우리 사회에 AI와 함께 살 준비가 됐는지, 어떻게 살아야 할지 등 여러 화두를 던졌다. 많은 기업이 이루다 사태를 보면서 AI 관련 서비스 개발 시 AI 윤리와 데이터 활용, 안전한 개인정보 취급이 얼마나 중요한지 확인했을 것이다.


AI 윤리는 절대 기준이 없다. 기업과 서비스마다 각자 AI 윤리를 끊임없이 고민하고 시행해야 한다. 다만 여력 없는 기업, 연구자도 AI 윤리를 생각할 수 있도록 정부 정책과 지원이 필요하다.

AI 이용자의 윤리도 생각해 볼 때다. AI는 서비스를 제공하는 기업의 책임도 중요하지만 AI가 악용되지 않기 위해선 이용자 역할도 중요하다. 이루다에 쏟아진 각종 성희롱, 차별성 발언 등은 이용자 스스로가 돌아보고 고민해 봐야 할 부분이다. 앞으로 AI 없는 서비스는 생각하지 못할 날이 올 것이다. 그때를 대비해 우리가 AI를 어떻게 이용하고 다뤄야 할지를 놓고 앞선 논의가 필요하다.

김지선기자 river@etnews.com