[보안칼럼]생성형 AI 시대, 새로운 차원의 위험에 대비하라

김기명 브로드컴 소프트웨어 그룹 한국 영업 대표
김기명 브로드컴 소프트웨어 그룹 한국 영업 대표

생성형 인공지능(AI)은 세계 다른 곳에서와 마찬가지로 한국 기업과 정부가 최우선으로 생각하는 관심사 중 하나다. AI 혁신 개발이 빠른 속도로 진행됨에도 불구하고 기업, 정부 및 세계 경제가 받는 영향은 우리가 이해하는 것과 차이가 있다.

한국은 AI 혁신을 대규모로 육성하는 선도적 국가 중 하나다. 기업 및 연구 인력에 훈련 데이터와 고성능 컴퓨팅을 제공하는 AI 허브 구축부터 AI 기반 제품이나 서비스가 필요한 중소기업과 스타트업에 AI 바우처를 제공하는 것까지 한국은 AI 미래를 위해 의미있는 투자를 하고 있다.

그 중심엔 정부가 2019년 발표한 'AI 국가전략 목표'가 있다. 2030년까지 국가의 디지털 경쟁력을 높이고 AI 장점을 활용해 국민 삶의 질 향상을 목표로 한다. 한국의 기술 기업은 AI 발전을 위한 나름의 역할을 담당하고 있다. 예를 들어, 네이버는 자체적인 대규모 언어 모델 '하이퍼클로바X(HyperCLOVA X)'를 기반으로 생성형 AI 툴을 공개했다.이 툴은 사용자와 기업에 AI 기반의 검색 기능과 맞춤형 서비스를 제공한다.

불과 몇 달 전만 해도 세계 기업이 생성형 AI 애플리케이션(앱)을 널리 사용하는 변곡점에 도달했다. 국내 기업은 지속적으로 생성형 AI 앱을 도입하거나 테스트를 진행하고 있는 데, 이들이 중요시해야 할 세 가지 고려사항이 있다.

먼저, 기업 내 중요한 사내 데이터, 파일 및 이미지를 실수로 공공 생성형 AI 앱에 복사 또는 업로드하면 챗GPT와 같은 공개적으로 사용 가능한 대규모 언어 모델의 이용자에게 기밀 정보가 노출될 수 있다.

또, 저작권 및 지적재산권에 대한 침해 우려가 커지고 있다. 생성형 AI로 생성한 결과물은 실제 누가 소유하는 지 법적으로 아직 명확하지 않다. 예를 들어 사내 직원들이 생성형 AI를 활용해 소스코드부터 문서까지 콘텐츠를 제작한다면, 해당 콘텐츠의 출처가 어디인지, 소유권자가 누구인지 명확하게 알 수 없다.하지만, 콘텐츠 자체가 저작권으로 보호받을 수 있고 이는 기업에 큰 리스크를 안겨줄 수 있다.

끝으로, 생성형 AI를 활용한 새로운 사이버 공격 전술이 개발될 가능성이 있다. 생성형 AI는 특정 환경에서 사이버 공격을 더욱 효율적으로 만들 수 있지만 현재로서는 아직 인간이 만든 적이 없는 완전무결한 공격은 할 수 없다. 하지만 몇 년 후에는 어떻게 될지 모른다.

이러한 불가피한 위험 요소에 직면한 일부 기업은 해당 문제가 해결되기 전까지 생성형 AI 사용을 신중히 바라보고 있다. 다른 방법으론 기업이 브로드컴의 시만텍 엔터프라이즈 클라우드 솔루션을 활용해 별도의 생성형 AI 정책을 시행하고 있다. 다른 기업은 시만텍의 내부정보유출방지(DLP·Data Loss Prevention) 클라우드를 사용해 생성형 AI의 사용을 제한하거나 실시간으로 검수를 통해 기밀정보가 외부로 노출되지 않도록 하고 있다.

흥미로운 점은 시만텍 엔지니어도 국내 및 해외 선두 기업들의 요구사항을 맞추기 위해 악성 행위를 식별하고 완화하는 데 도움이 되는 동일한 종류의 머신러닝과 생성형 AI를 많이 사용하고 있다는 점이다. 시만텍 AI 기술은 보안 분석가들이 이슈 사항의 우선순위를 나열해 가장 먼저 해결하도록 지시함으로써 의사 결정 프로세스를 가속화하는 데 도움을 준다.

앞서 언급한 예시와 같이 시간이 지남에 따라 생성형 AI 사용이 어떻게 발전할 지 예측하는 것은 불가능하다. 인터넷, 스마트폰, 소셜미디어와 마찬가지로 생성형 AI는 사이버 보안 및 개인정보보호에 대한 새로운 우려를 가져오면서 동시에 사이버 보안 솔루션의 원천이 될 것이다. 생성형 AI의 완전한 권한으로 기업이 이익을 얻는 동시에 관련 위험으로부터 기업을 보호하는 것은 세계적으로 사이버 보안 혁신의 새로운 물결이 돼 일어날 것이다.

김기명 브로드컴 소프트웨어 그룹 한국 영업 대표 kimyoung.kim@broadcom.com