[보안칼럼]생성형 AI를 안전하게 사용하는 법

[보안칼럼]생성형 AI를 안전하게 사용하는 법

2022년 11월 챗GPT가 등장하고 난 후 세상이 급속하게 변화하고 있다. 챗GPT 이전엔 인공지능(AI) 모델을 사용하려면 너무 높은 전문적인 지식이 필요했다.

AI 모델을 사용하는 방법은 복잡하고 어려웠다. 그러나, 챗GPT가 등장하고 나선 일반인도 자신이 원하는 명령을 기존에 말하던 방식으로 하면 됐고, 결과 역시 인간 수준의 텍스트가 생성되고 창의적인 콘텐츠가 작성되는 등 모든 것이 편리해지고 수준 높은 결과를 얻을 수 있게 됐다. 지난해 폭발적으로 AI 관련 서비스들이 등장해, 현재까지 존재하는 AI 서비스나 프로그램이 6만7200개나 되고 있다.

하지만 생성형 AI의 편리성 이면의 어두운 단면도 있다. 아르헨티나 대선 때 후보로 나선 좌파 성향 세르히오 마사 경제장관이 코카인을 흡입하는 딥페이크 영상이 유포되기도 하고, 유명 아티스트인 테일러 스위프트의 얼굴이 합성된 음란 이미지가 사회관계망서비스(SNS) X(옛 트위터)를 통해 4700만명에게 유포되는 사건도 벌어졌다.

생성형 AI는 사용자가 일반 문장으로 명령을 할 수 있기 때문에, 누구나 쉽게 명령을 조작하고 의도치 않은 동작을 유도하기 쉬운 구조를 가지고 있다. 학습과정에 포함될 수 있는 악성 콘텐츠에도 쉽게 감염돼 의도치 않은 결과를 생성할 수도 있다. 사용자가 입력한 명령이 피해를 주는 콘텐츠인지 평가하는 모델이 완벽히 준비돼 있지 않다.

생성형 AI는 양날의 칼과 같다. 사용자가 어떤 의도를 가지고 사용하느냐에 따라 최고의 도구가 될 수도, 최악의 도구가 될 수도 있다.

기업에서 생성형 AI를 안전하게 사용한다면 업무 생산성은 극대화할 것이다. 몇 가지 안전사항을 지킨다면 조금이라도 안전하게 생성형 AI를 사용할 수 있을 것이다.

먼저 생성형 AI에 작업을 요청할 땐 개인정보·기업정보 유출 위험 여부, 회사의 지식재산권·코드 포함 여부, 금지된 주제 포함여부 등을 점검해야 한다. 특히, 입력하는 데이터에 회사명, 사람 이름 또는 고객에 대한 정보가 있는지 잘 확인해야 한다. 소프트웨어(SW) 회사라면 지식재산이 되는 소스코드를 입력했는지 꼭 확인해 볼 일이다. 인수·합병(M&A)를 앞둔 회사라면 대상이 되는 회사명, M&A 관련 주제를 요청하는 것에 주의해야 한다.

생성형 AI가 만들어 준 결과를 활용할 땐 내용의 편향성 여부, 금지 문자·주제 포함여부, 코드의 취약점·악성코드 포함 여부, 악성링크·불완전링크 포함 여부, 저작권 여부 등에 대해서 점검해야 한다. AI가 생성한 결과를 사용하기 전에 모든 결과(특히 명시된 통계 및 사실 여부)를 반드시 확인해야 한다. 결과물에 대한 편향성을 검토한 후 사용하는 것도 중요하다. 개발자라면 AI로 생성된 코드를 사용하기 전에 철저한 코드 검증이 필요하다. 특히 코드 취약점, 예외상황 처리 등을 꼭 점검해야 한다. 생성형 AI는 말을 만드는 기계일 뿐, 전문지식인이 아니라는 점을 반드시 인식해야 할 필요가 있다.

생성형 AI가 제공하는 기능은 매우 편리하지만 아직 적대적 공격, 오남용 요소에 대해선 안전함을 보장할 수 없다. AI의 기술이 발전함에 따라 보안의 필요성이 훨씬 조명받을 것이다. 안전한 인공지능 사용 환경이 제공돼야, 기업과 개인이 편리함의 과실을 온전히 느낄 수 있지 않을까.

윤두식 이로운앤컴퍼니 대표 dsyoon@eroun.ai