[이슈분석]인공지능 가전시대 법적·윤리적 과제 마련해야

글자 작게 글자 크게 인쇄하기
ⓒ게티이미지뱅크
<ⓒ게티이미지뱅크>

인공지능(AI)을 적용한 가전제품 등장으로 생활의 편리함이 늘어나지만 해결해야 할 과제도 많다. 아직은 AI 기술 발전에 집중하고 있지만 향후 AI가 진화해 자율성을 가졌을 때 발생할 수 있는 법적·윤리적 문제에 대한 논의가 요구된다. AI와 네트워크, 클라우드 등이 결합된 경우 보안과 프라이버시 문제도 철저히 대비해야 한다.

지난해 테슬라 자율주행차 모델S 운전자가 사망하는 사고가 났을 때가 대표적이다. 당시 운전자와 제조사 중 누가 자율주행차 사고 책임을 져야 하는지가 이슈가 됐다. 자율주행차가 사고 위험에 처했을 때 운전자를 보호해야 하는지, 보행자를 보호해야 하는지를 어떻게 설정할지도 논란이 됐다.

이 뿐만이 아니다. 인공지능을 적용한 로봇이 아이나 노인을 돌보다 사고가 났을 때 누가 책임을 지는지도 논쟁거리다.

인공지능으로 인한 윤리적 문제는 사회적 합의를 토대로 풀어가야 한다. 최근 국회에서도 인공지능 도입과 확산에 대비한 법적·윤리적 문제를 논의하고 있다. 최근 가전 등에 인공지능을 접목하는 것이 급속히 확산돼 사회적 논의도 더 빨라져야 한다는 목소리가 높다.

인공지능이 꼭 필요한 분야를 정해서 적용해야 한다는 의견도 있다. 현재는 인공지능이 이슈가 되면서 여기저기서 적용하는 시도가 있는데 이를 정리해야 한다는 의견이다.

최승진 포스텍 교수는 “인공지능이 무분별하게 모든 곳에 다 도입되고 있어 혼돈이라는 표현을 쓸 수 있을 정도”라면서 “효과적으로 어디에 인공지능을 넣으면 좋을지 아닐지 도입을 신중히 검토해야 혼돈을 막을 수 있다”고 지적했다.

보안 문제도 중요하다. 인공지능은 사용자의 정보를 많이 알고 있어 정보 유출시 피해가 크다. 또 인공지능은 클라우드와 네트워크 등으로 연결돼 있는 경우가 많아 연결 과정에서 해킹 등으로부터 보호하는 것도 필요하다.

김승주 고려대 정보보호대학원 교수는 “스마트 가전은 해킹으로 악용될 소지가 많다”면서 “가전 등 생활 밀착형 제품에 인터넷이 연결되며 그만큼 해킹 통로가 늘어나기 때문”이라고 말했다. 김 교수는 이어 “특히 음성인식 가전의 경우 제조사가 (소비자가 이용하는 내용을) 수집해서 음성인식 품질을 높이는데 활용하는데, 프라이버시 침해 문제가 있을 수 있다”면서 “(소비자 이용 정보를) 분석·수집하는데 충분히 고지가 됐는지도 중요하게 신경써야할 부분”이라고 덧붙였다.

권건호 전자산업 전문기자 wingh1@etnews.com