
〈편집자주〉 미국·이란 전쟁이 4주차에 접어든 가운데, 이번 전쟁은 인공지능(AI)이 전장의 '두뇌'로 공식 투입된 첫 사례로 평가된다. AI가 단순 정보 분석을 넘어 표적 식별, 작전 계획, 타격 판단에 이르는 '킬 체인'의 핵심 축으로 부상하면서 전장의 의사결정 구조를 바꾸고 있다.
향후 전쟁의 승패가 AI 활용 수준에 따라 재편될 것이라는 전망도 나오면서 주요국들이 국방 AI 고도화에 속도를 내고 있다. 지금이 국방 AX(AI 전환)를 기술·윤리·제도 측면에서 종합 점검할 골든타임인 이유다. 전자신문은 AI가 전장의 의사결정 구조를 어떻게 바꾸고 있는지, 그 과정에서 제기되는 윤리적·제도적 쟁점은 무엇인지 짚어보기 위해 '국방 AX 골든타임' 3회 시리즈를 마련했다.
이와 함께 오는 4월 1일에는 '국방AI기본법'을 공동 발의한 부승찬 더불어민주당 의원·유용원 국민의힘 의원실과 '이란戰으로 본 AI 전쟁 : 국방 혁신과 생명 윤리'를 주제로 긴급 현안 토론회를 개최해 정책 대응 방향을 모색할 예정이다.
미국의 대이란 군사작전에서 인공지능(AI)이 핵심 의사 결정 체계에 깊숙이 개입한 정황이 잇따라 확인되고 있다. 특히 방대한 데이터를 실시간 분석해 표적을 설정하고 우선순위를 제시하는 이른바 'AI 참모'를 통해 전쟁의 방식이 근본적으로 재편되고 있다는 평가가 나온다.
AI가 전쟁이나 공격에 활용된 것은 처음이 아니지만 앤트로픽의 클로드와 같은 범용 AI가 추론 엔진 형태로 결합했다는 것에서 차별화된다. 방대한 비정형 데이터를 이해하고 맥락을 추론하는 능력을 갖춘 거대언어모델(LLM)이 기존 영상·신호 분석 AI와 결합되면서 무엇을, 언제 타격해야 할지 제시하는 참모 수준으로 진화했다는 이야기다.
실제 미군은 이번 작전에서 대규모 감시·정찰 데이터를 AI로 분석해 타격 후보를 도출하고 공격 우선순위를 정하는 데 활용한 것으로 알려졌다. 워싱턴포스트 보도에 따르면 미군은 이란 공습 첫 24시간 동안 1000여 개의 표적을 타격하기 위해 팔란티어가 개발한 국방부의 AI 기반 군사 정보 분석 플랫폼 '메이븐 스마트 시스템'(MSS)을 활용했다. 이 시스템에는 앤트로픽의 AI 모델인 클로드가 내장된 것으로 알려진다.
클로드 기반의 메이븐은 인공위성과 각종 감시 장비 등에서 얻은 방대한 양의 기밀 데이터를 분석해 수백개 목표물을 제안하고 정확한 위치 좌표를 제시하며 중요도에 따라 공격 우선순위를 자동으로 정렬하는 역할을 수행했다. 공격 개시 이후에는 공격의 타당성을 사후 평가하는 작업도 진행했다.
AI 도입 이후 표적 식별부터 승인, 공격 개시까지 일련의 과정인 '킬 체인'을 획기적으로 단축시킬 수 있게 됐다. “AI가 전쟁 속도를 바꿨다”는 분석이 나오는 배경이다.
다만 AI가 전장 의사결정에 깊이 관여하면서 인간의 최종 승인 절차가 형식화 될 수 있다는 우려도 새롭게 나온다. AI가 수만개의 데이터를 몇 초 만에 분석해 최적의 타격안을 제시할 때 인간을 이를 검토할 충분한 시간 없이 승인 버튼을 누를 수 있다는 우려다.
곽기호 국방과학연구소 국방인공지능기술연구원장은 “그동안 국방 분야에서 AI가 요소별로 활용됐다면 이제는 판단하고 감시하고 실행하는 AI 도구들이 인간을 지원하는 형태로 연결성을 갖고 움직이기 시작했다는 것이 이번 전쟁에서 크게 달라진 부분”이라면서 “의사결정 과정에 인간이 관여하는 '휴먼 인 더 루프(Human-in-the-loop)' 단계를 넘어서 AI가 모든 결정을 하고 인간의 판단만 기다리는 '휴먼 온 더 루프(Human-on-the-loop)' 구조로 바뀌게 되는 것”이라고 설명했다.
트럼프 행정부가 앤트로픽과 윤리 문제로 갈등을 빚으면서 공급망 안보 위험으로 지정하는 가운데서도 대체 시스템이 도입되기까지 6개월의 유예기간을 둔 것도 그만큼 AI가 전투 체계에 깊숙이 통합됐다는 것을 반증한다.
AI 활용이 보안 측면에서도 새로운 문제를 가져올 수 있다는 우려도 나온다. 새로운 보안 위협이 되는 것은 물론 기존 보안 규정과 충돌을 가져올 수도 있다는 지적이다.
익명을 요구한 한 군 관계자는 “한국형 위험관리체계(K-RMF) 등 현재 군의 다양한 보안 검증 제도는 전통적 IT 시스템의 해킹 취약점을 막는데 맞춰져 있기 때문에 AI의 위협은 기존 보안 기술로 잡아낼 수 없다”면서 “AI 모델이 편향된 데이터를 학습했거나 적이 의도적으로 학습 데이터를 오염시키는 것은 해킹 취약점과 전혀 다른 위협이 될 것”이라고 설명했다.
정현정 기자 iam@etnews.com