[주니어전자]IT 핫픽 - 클로드, 미국 애플 앱 스토어 1위…그 배경은?

앤쓰로픽 일러스트  / Anthropic
앤쓰로픽 일러스트 / Anthropic

2026년 2월 말, 앤쓰로픽(Anthropic)의 인공지능(AI) 챗봇 '클로드(Claude)'가 미국 애플 앱 스토어 무료 앱 순위 1위에 오르며 화제가 됐어요.

불과 몇 주 전까지만 해도 클로드는 상위권과 거리가 있었지만, 짧은 기간 동안 다운로드 수가 급증하며 여러 인기 AI 앱들을 제치고 정상에 올라섰죠.

이번 순위 상승은 단순히 “업데이트를 잘해서” 혹은 “기능이 좋아져서”만은 아니라는 점에서 더욱 주목받고 있어요.

그 배경에는 미국 국방부와의 공개적인 충돌, 그리고 그 과정에서 드러난 AI의 군사적 활용과 윤리를 둘러싼 논쟁이 자리하고 있기 때문이에요.

발단은 미 국방부와의 협상

논란의 시작은 미국 국방부(DoD·Department of Defense)와 앤쓰로픽 간의 협상이었습니다.

미 국방부는 차세대 AI 기술을 군사·정보·행정 전반에 적극 활용하려는 움직임을 보이며, 주요 AI 기업들과 접촉해 왔습니다. 앤쓰로픽 역시 그 대상 중 하나였어요.

2026년 2월 27일 미국 국방장관 피트 헤그세스가 아칸소주 캠든 L3해리스 공장에서 방위 산업 강화와 미사일 생산 확대를 강조한 연설을 했다.
2026년 2월 27일 미국 국방장관 피트 헤그세스가 아칸소주 캠든 L3해리스 공장에서 방위 산업 강화와 미사일 생산 확대를 강조한 연설을 했다.

국방부가 요구한 핵심 조건은 비교적 단순했죠.

“법적으로 허용되는 모든 목적(all lawful purposes)에 AI를 사용할 수 있어야 한다”는 것이었습니다. 여기에는 군사 작전 지원, 정보 분석, 전략 수립 등 광범위한 활용 가능성이 포함돼 있었어요.

하지만 앤쓰로픽의 입장은 달랐습니다. 이 회사는 설립 초기부터 'AI 안전성'과 '윤리적 사용'을 핵심 가치로 내세워 왔고, 클로드 역시 특정 용도에는 명확한 제한을 두고 설계돼 있었습니다.

“이 선은 넘을 수 없다”

앤쓰로픽이 특히 문제 삼은 부분은 두 가지였어요.

하나는 대규모 국내 감시(mass domestic surveillance), 다른 하나는 완전 자율 무기(fully autonomous weapons)입니다.

사람의 통제 없이 AI가 스스로 판단하고 공격까지 수행하는 무기 체계에는 협조할 수 없다는 입장을 분명히 했죠.

이런 제한은 앤쓰로픽 내부에서는 '양심의 문제'로 여겨졌지만, 국방부 입장에서는 운용상의 제약으로 받아들여졌어요.

군은 위기 상황에서 기술을 유연하게 활용해야 하는데, 특정 사용을 사전에 막아 두는 기업을 핵심 공급망으로 삼기 어렵다는 판단이 나온 거예요.

결국 협상은 결렬됐고, 여기서 한 단계 더 나아간 강경 조치가 이어졌습니다.

앤쓰로픽(Anthropic)과 국방부(DoD·Department of Defense)의 공개 논쟁 이후, 도널드 트럼프 미국 대통령은 트루스 소셜 게시글에서 연방 기관이 앤쓰로픽 제품을 사용하지 말라고 지시했다 / 엑스 @RapidResponse47
앤쓰로픽(Anthropic)과 국방부(DoD·Department of Defense)의 공개 논쟁 이후, 도널드 트럼프 미국 대통령은 트루스 소셜 게시글에서 연방 기관이 앤쓰로픽 제품을 사용하지 말라고 지시했다 / 엑스 @RapidResponse47

전례 없는 '공급망 위험' 지정

미 국방부는 앤쓰로픽을 '공급망 위험(supply chain risk)'으로 지정하겠다고 밝혔습니다.

이 조치는 보통 적대 국가의 기술이나 보안상 심각한 위협이 있다고 판단되는 업체에 적용되는 매우 강력한 수단이에요.

미국 기업, 그것도 실리콘밸리에서 활동하는 AI 스타트업에 이런 딱지가 붙은 것은 이례적이라는 평가가 지배적이죠.

지정이 되면 국방부는 물론 국방부와 거래하는 수많은 협력 업체들 역시 앤쓰로픽의 기술을 사용하는 데 제약을 받게 됩니다.

법률·안보 분야 전문 매체들은 이 조치가 법적 분쟁으로 이어질 가능성이 크다고 분석했어요. 실제로 일부 전문가들은 공급망 위험 지정은 법적 기준이 모호해 소송에 취약하다고 지적했습니다.

클로드 소넷 4.6 소개 화면. 클로드는 앤쓰로픽이 만든 인공지능 챗봇. 소넷 4.6은 클로드를 구동하는 최신 언어 모델. / Anthropic
클로드 소넷 4.6 소개 화면. 클로드는 앤쓰로픽이 만든 인공지능 챗봇. 소넷 4.6은 클로드를 구동하는 최신 언어 모델. / Anthropic

그런데 왜 인기가 올라갔을까

아이러니하게도 이 논란은 클로드에게 부정적 타격이 아니라 홍보 효과로 작용했어요.

'미 국방부가 문제 삼은 AI', '군사적 활용을 거부한 AI'라는 이미지가 퍼지면서, 일반 사용자들 사이에서 클로드에 대한 관심이 급격히 높아진 거예요.

특히 미국 내에서는 윤리적 기준을 지키려는 기업을 지지하겠다는 분위기와 함께, AI의 활용 범위에 대해 다시 고민해보게 됐다는 반응이 확산됐고, 이는 실제 다운로드 증가로 이어졌습니다.

그 결과 클로드는 단기간에 앱 스토어 순위를 빠르게 끌어올려 무료 앱 1위에 올랐습니다. 논란이 곧 인지도 상승과 사용자 유입으로 연결된 셈이죠.

AI 기술을 넘어 '가치 경쟁'으로

이번 사건은 AI 시장의 경쟁 구도가 단순한 성능 대결을 넘어섰다는 점을 보여줍니다.

이제는 “얼마나 똑똑한가”뿐 아니라, “어디까지 허용할 것인가”, “어떤 선을 지킬 것인가”가 기업의 정체성을 가르는 요소가 되고 있어요.

앤쓰로픽은 군사·안보 영역에서 한 발 물러섰지만, 그 선택이 결과적으로는 일반 소비자 시장에서 신뢰와 호응을 얻는 계기가 됐습니다.

반대로 미 국방부의 강경 대응은 기술 정책과 민주적 가치 사이의 긴장을 다시 한 번 드러냈다는 평가를 받고 있습니다.

다리오 아모데이(Dario Amodei) 앤쓰로픽 CEO. AI 안전성과 윤리적 활용을 핵심 가치로 삼아 회사를 이끌고 있는 인물. / Anthropic
다리오 아모데이(Dario Amodei) 앤쓰로픽 CEO. AI 안전성과 윤리적 활용을 핵심 가치로 삼아 회사를 이끌고 있는 인물. / Anthropic

앞으로의 관전 포인트

이 갈등은 아직 끝나지 않았어요.

앤쓰로픽은 법적 대응 가능성을 열어두고 있고, 미 정부 역시 AI를 국가 안보의 핵심 자산으로 활용하려는 기조를 유지하고 있습니다.

향후 쟁점은 크게 세 가지입니다.

1. 공급망 위험 지정의 법적 정당성

2. AI 기업이 군사적 사용을 거부할 권리의 범위

3. 이 논쟁이 다른 AI 기업들(오픈AI, 구글 등)에 미칠 영향

이 논쟁의 결과는 AI가 사회와 국가 권력 속에서 어떤 위치를 차지하게 될지를 가르는 기준이 될 가능성도 큽니다.

앞으로 AI 산업이 성능 경쟁을 넘어 가치와 책임의 문제를 어떻게 풀어갈지, 그 방향을 가늠할 중요한 시험대가 될 것으로 보입니다.



최성훈 기자 csh87@etnews.com