- Authors

- Name
- 오늘의 바이브
2억 달러 계약 파트너에게 '적국' 딱지를 붙이겠다는 나라

2026년 2월 24일, 미국 국방장관 피트 헤그세스(Pete Hegseth)가 Anthropic CEO 다리오 아모데이(Dario Amodei)에게 최후통첩을 보냈다. 금요일 오후 5시 1분까지 Claude의 군사 사용 제한을 해제하라. 거부하면 **국방물자생산법(Defense Production Act)**을 발동하고, Anthropic을 공급망 위험 업체(supply chain risk)로 지정하겠다.
공급망 위험 지정은 러시아나 중국 기업에 적용하는 분류다. 미국 방위산업체는 해당 업체의 제품을 군사 업무에 사용할 수 없게 된다. 미국 정부가 자국의 AI 기업을 러시아, 중국과 같은 선반에 올려놓겠다고 위협한 것이다. 2억 달러짜리 국방 계약 파트너를 적국 취급하는 초유의 사태가 벌어지고 있다.
발단: 마두로 작전에서 Claude가 쓰였다

2026년 2월 초, 미군 특수부대가 베네수엘라 대통령 니콜라스 마두로(Nicolas Maduro)를 체포하는 작전을 수행했다. 이 작전에 Anthropic의 Claude AI가 사용됐다는 보도가 나왔다. Palantir와의 파트너십을 통해 국방부의 기밀 네트워크에 배치된 Claude가 실제 군사 작전에 투입된 것이다.
문제는 작전 과정에서 발생한 교전이었다. 체포 작전 중 총격이 오갔고, 사상자가 발생했다. Anthropic의 사용 정책은 폭력, 무기 개발, 감시 목적의 AI 사용을 금지하고 있다. Anthropic 임원이 Palantir 측에 "Claude가 해당 작전에 사용됐는지" 확인을 요청한 것으로 알려졌다.
이 문의가 화근이 됐다. 고위 행정부 관리는 Axios에 이렇게 말했다. "Anthropic의 시니어 임원이 자사 소프트웨어가 작전에 사용된 것에 불쾌감을 표시하는 방식으로 문의했다. 해당 작전에서 교전이 벌어졌고 사람이 총에 맞았기 때문에 자사 소프트웨어 사용을 문제 삼는 뉘앙스였다." Anthropic 대변인은 이를 전면 부인했다. "Claude가 특정 작전에 사용됐는지 여부에 대해, 기밀이든 아니든 논평할 수 없다." 하지만 국방부의 불씨는 이미 지펴진 상태였다. 행정부 내에서는 Anthropic이 자국 군사 작전에 이의를 제기하는 기업이라는 인식이 굳어지기 시작했다.
국방부가 원하는 것: "합법적이면 전부 허용하라"
갈등의 핵심은 단순하다. 국방부는 Anthropic의 AI를 "모든 합법적 용도(all lawful use)"에 제한 없이 사용하고 싶다. Anthropic은 두 가지 레드라인을 양보할 수 없다고 한다.
하나는 미국 시민 대상 대규모 감시다. AI가 수백만 명의 통신, 위치, 행동 데이터를 분석해 패턴을 추출하는 식의 사용이다. 다른 하나는 완전 자율 무기다. 사람의 개입 없이 AI가 스스로 표적을 선정하고 사격하는 시스템이다.
아모데이는 이 두 가지를 "불법적이며 남용에 취약한(illegitimate and prone to abuse)" 사용이라고 규정했다. AI의 신뢰성이 무기를 자율 운용할 수준에 도달하지 못했고, 대규모 감시를 규율하는 법률도 아직 존재하지 않는다는 논리다. 기존의 전장 정보 분석, 병참 최적화, 번역 지원 같은 군사 용도는 기꺼이 지원하겠다는 입장이다. 전면 거부가 아니라 선택적 거부다.
국방부 연구공학 차관 에밀 마이클(Emil Michael)은 입장이 다르다. 협상이 "난관에 부딪혔다(hit a snag)"고 인정하면서도, 국방부는 AI 업체가 사용 조건을 정하는 구조를 받아들일 수 없다는 입장이다. 무기를 만드는 건 정부의 권한이지, AI 기업이 판단할 영역이 아니라는 것이다. 국방부의 논리는 이렇다. 합법적인 군사 작전의 범위를 결정하는 건 의회와 행정부이지, 실리콘밸리의 CEO가 아니다.
4개 AI 기업의 군사 계약 비교
2025년 7월, 펜타곤은 Anthropic, OpenAI, Google, xAI 네 곳에 각각 최대 2억 달러 규모의 국방 계약을 체결했다. 하지만 계약 이후 각 회사의 대응은 크게 갈렸다.
| 기업 | 계약 규모 | "합법적 용도" 수용 | 기밀 네트워크 접근 | 현재 상태 |
|---|---|---|---|---|
| Anthropic | 최대 2억 달러 | 거부 (2개 레드라인) | 유일하게 승인됨 | 최후통첩 상태 |
| xAI | 최대 2억 달러 | 전면 수용 | 최근 승인 | 기밀 환경 배치 진행 중 |
| OpenAI | 최대 2억 달러 | 비기밀에서 유연하게 | 협상 중 | 조건부 수용 |
| 최대 2억 달러 | 비기밀에서 유연하게 | 협상 중 | 조건부 수용 |
아이러니한 점이 있다. Anthropic은 네 회사 중 유일하게 기밀 네트워크 접근이 승인된 회사다. 국방부가 "가장 진보적이고 안전한 모델"이라고 평가했기 때문이다. 가장 깊이 신뢰받은 파트너가, 지금은 가장 강하게 밀어붙임을 당하고 있다.
xAI는 "모든 합법적 용도"를 제한 없이 수용했다. OpenAI와 Google은 비기밀 환경에서는 유연하게 대응하면서 기밀 접근 조건은 아직 협상 중이다. Anthropic만 명확한 레드라인을 그어놓고 버티고 있다.
국방물자생산법: 냉전이 만든 70년 된 무기

헤그세스가 꺼낸 카드 두 장은 모두 무겁다.
첫 번째는 국방물자생산법(DPA) 발동이다. 1950년 한국전쟁 개전 직후 제정된 이 법은 대통령에게 국가 안보를 위해 민간 기업의 생산과 자원을 통제할 권한을 부여한다. 2차 세계대전 당시 루즈벨트가 사용한 전시생산법(War Powers Acts)을 모델로 만들어졌다. 코로나 팬데믹 때 트럼프 행정부가 마스크와 인공호흡기 생산을 강제하기 위해 이 법을 발동한 바 있다.
AI 기업에 DPA를 적용하면, Anthropic이 원하든 원치 않든 군이 Claude를 사용할 수 있게 된다. 헤그세스의 표현을 빌리면 "원하든 안 원하든(if they want to or not)" 강제할 수 있다는 것이다. 냉전 시대에 탱크와 탄약 생산을 강제하기 위해 만든 법으로, 2026년에 AI 모델 사용을 강제하겠다는 발상이다.
두 번째 카드는 공급망 위험 지정이다. 이 지정을 받으면 모든 미국 방위산업체가 Anthropic 제품을 군사 업무에 사용할 수 없게 된다. 보통 러시아의 Kaspersky, 중국의 Huawei 같은 기업에 적용되는 분류다. 미국 AI 스타트업에 이 딱지를 붙인다면, 기업 시장 전체에 신호를 보내는 셈이다.
파급 효과가 크다. Lockheed Martin, Raytheon, Northrop Grumman 같은 방위산업 거대 기업뿐 아니라, 아마존(AWS GovCloud), 마이크로소프트(Azure Government), 구글(Google Public Sector) 등 대형 클라우드 기업도 국방 계약을 보유하고 있다. 이들이 Anthropic 제품을 군사 관련 업무에 사용할 수 없게 되면, 민간 부문까지 연쇄 타격을 받는다. Anthropic의 B2B 사업 전반이 흔들릴 수 있다.
"Woke AI"라는 프레임의 정체
트럼프 행정부 고위 관리들은 Anthropic의 안전 정책을 **"Woke AI"**라고 부르기 시작했다. NPR 보도에 따르면, 헤그세스 측은 Anthropic의 모델이 리버럴 편향을 가지고 있으며 과도한 안전 장치를 달고 있다고 주장한다. 안전이 아니라 이념의 문제라는 프레임이다.
이 프레임은 기술적 논쟁을 정치적 논쟁으로 전환시킨다. Anthropic이 자율 무기에 반대하는 건 AI 신뢰성에 대한 기술적 판단이다. 대규모 감시에 반대하는 건 법적 근거의 부재에 대한 우려다. 하지만 "Woke"라는 라벨이 붙는 순간, 이 모든 기술적-법적 논의가 좌우 대립의 구도로 환원된다.
백악관 AI 수석 데이비드 삭스(David Sacks)는 AI 기업의 자체 가드레일을 제거하도록 요구하는 행정명령 초안을 작성한 것으로 알려졌다. 헤그세스도 2026년 1월 AI 전략 문서에서 180일 이내에 기업별 가드레일을 철폐할 것을 요구했다. Anthropic만의 문제가 아니다. 정부가 AI 안전 기준 자체를 해체하려는 움직임의 일환이다.
문제는 이 프레임이 사실과 맞지 않다는 점이다. Anthropic은 국방 계약을 거부하지 않았다. 오히려 4개 기업 중 유일하게 기밀 네트워크까지 진입했다. 군사 용도 자체를 거부하는 게 아니라, 두 가지 특정 용도에 대해서만 선을 긋고 있다. 이걸 "Woke"로 분류하는 건 논쟁을 단순화하는 정치적 전략이지, 현실을 반영하는 분석이 아니다.
Anthropic이 물러서지 않는 이유

Anthropic 내부 사정에 밝은 소식통은 Axios에 "Anthropic이 국방부의 요구에 물러설 계획이 없다"고 전했다. 아모데이는 헤그세스와의 회동에서도 레드라인을 재확인했다.
이 입장에는 몇 가지 배경이 있다.
첫째, Anthropic의 정체성 문제다. Anthropic은 2021년 OpenAI에서 분리되며 설립됐다. 창업 동기 자체가 AI 안전에 대한 불만이었다. OpenAI가 안전보다 상업화를 우선시한다고 판단한 아모데이 형제(Dario, Daniela)가 독립해 만든 회사다. 자율 무기와 대규모 감시를 허용하는 순간, 이 회사의 존재 이유가 사라진다. 브랜드 가치이자 기업 철학의 문제다.
둘째, 기술적 판단이다. 아모데이는 현재 AI의 신뢰성 수준이 자율 무기를 운용하기에 충분하지 않다고 본다. AI가 표적을 식별하고 사격 결정을 내리는 시스템에서 오류가 발생하면, 그 결과는 코드 버그와 차원이 다르다. 민간인 사상이다. 이건 기술적 문제이지 이념적 문제가 아니다.
셋째, 법적 공백이다. 미국에는 AI를 이용한 대규모 감시를 규율하는 연방법이 아직 없다. 수정헌법 4조(불합리한 수색과 체포 금지)와의 충돌 가능성이 있지만, AI 시대에 이 조항이 어떻게 적용되는지 판례가 확립되지 않았다. 법이 정비되기 전에 AI 기업이 정부에 무제한 감시 도구를 넘기는 건, Anthropic의 관점에서 무책임한 행위다.
넷째, 시장 판단이다. Anthropic은 최근 380억 달러 기업가치로 300억 달러 펀딩 라운드를 마감했다. 연매출은 약 100억 달러 수준이다. 국방 계약 2억 달러는 전체 매출의 2%에 불과하다. 기업 철학을 포기하면서까지 지킬 금액이 아니다. 반면, "안전한 AI" 브랜드를 유지하면 기업 고객과 개발자 시장에서 얻는 가치가 훨씬 크다.
다만 공급망 위험 지정은 2억 달러 계약보다 훨씬 큰 타격을 줄 수 있다. 국방 계약을 보유한 기업들이 Anthropic 제품을 쓸 수 없게 되면, Claude API에 의존하는 기업 고객 상당수가 이탈할 수 있다. 이건 2억 달러가 아니라 수십억 달러 규모의 리스크다. Anthropic이 버틸 수 있는 건, 이 위협이 실제로 실행될 가능성을 낮게 보기 때문일 수 있다.
다른 AI 기업들의 딜레마
Anthropic과 펜타곤의 충돌은 다른 AI 기업들에게도 곤란한 질문을 던지고 있다. Axios는 이 분쟁이 "다른 AI 랩들을 중대한 딜레마에 빠뜨렸다"고 보도했다.
xAI는 이미 전면 수용했다. 일론 머스크의 회사답게, 정부 요구를 그대로 받아들였다. 하지만 OpenAI와 Google은 입장이 미묘하다. 비기밀 환경에서는 유연하게 대응하되, 기밀 접근과 자율 무기 분야에서는 아직 명확한 선언을 피하고 있다.
Anthropic이 밀려나면, 남은 세 회사에 대한 압박이 더 강해진다. "Anthropic은 안 해도 너희는 할 수 있잖아"라는 논리가 통하면, 안전 기준을 유지하려는 모든 시도가 약화된다. 반대로, Anthropic이 버티면 다른 기업들도 "우리도 레드라인이 있다"고 말할 명분이 생긴다.
Google은 특히 복잡한 상황이다. 2018년 Project Maven 사태를 겪었다. 미 국방부의 드론 영상 분석에 AI를 제공하는 프로젝트에 참여했다가, 직원 4,000명의 항의 서명과 십수 명의 퇴사를 겪고 계약을 철회한 전력이 있다. 이후 Google은 "AI를 무기에 사용하지 않겠다"는 원칙을 발표했다. 하지만 2025년 이후 이 원칙을 조용히 수정하며 국방 시장에 재진입했다. Anthropic이 밀려나면, Google의 과거 약속이 다시 소환될 수 있다.
OpenAI도 마찬가지다. ChatGPT의 사용 정책에는 "무기 개발"이 금지 항목으로 명시되어 있었다. 하지만 2024년 국방 계약을 위해 이 조항을 완화했다. Sam Altman은 "국가 안보를 위한 AI 활용은 민주주의를 보호하는 일"이라며 방향 전환을 정당화했다. Anthropic의 저항이 무너지면, OpenAI가 과거에 양보한 결정이 소급해서 정당화된다. 반대로 Anthropic이 버티면, OpenAI의 양보가 비판의 대상이 된다.
결국 이 분쟁의 진짜 쟁점은 Anthropic 하나가 아니다. AI 산업 전체의 군사 윤리 기준선이 어디에 놓이느냐의 문제다. 가장 강경하게 선을 긋는 회사가 무너지면, 그 선은 존재하지 않게 된다. AI 안전 진영에서 Anthropic은 마지막 보루 역할을 하고 있다.
적국이 아니라 거울이다
Anthropic을 공급망 위험 업체로 지정하겠다는 위협은 기술적으로 가능하지만, 논리적으로 모순이다. Anthropic은 미국에서 설립된 미국 기업이다. 미국 시민인 아모데이 형제가 미국 투자자의 돈으로 미국에서 운영한다. 이사회에는 트럼프의 전 백악관 부비서실장 크리스 리델(Chris Liddell)이 앉아 있다. 이 회사를 러시아나 중국 기업과 같은 범주로 분류한다면, "공급망 위험"이라는 개념 자체가 무의미해진다.
DPA 발동도 전례가 불투명하다. 이 법은 물리적 재화의 생산을 강제하기 위해 설계됐다. 마스크, 인공호흡기, 탄약. AI 모델의 사용 조건을 강제하는 데 이 법을 적용한 사례는 없다. 소프트웨어의 이용약관을 정부가 강제로 변경하는 행위가 DPA의 범위에 포함되는지부터 법적 논쟁이 시작된다. 조지 워싱턴 대학교 법대의 전문가들은 이 적용이 "전례 없는 확장"이 될 것이라고 분석했다. 법적 도전이 뒤따를 가능성이 높고, 소송이 수년간 이어질 수 있다.
이 사태가 보여주는 건 AI 군사화의 윤리적 기준이 아직 사회적으로 합의되지 않았다는 사실이다. 정부는 합법적이면 모든 것이 가능하다고 본다. 기업은 합법적이라도 해서는 안 되는 것이 있다고 본다. 이 간극을 어떻게 메울 것인지, 미국은 아직 답을 내놓지 못했다.
펜타곤이 Anthropic을 적국처럼 취급하는 이 장면은, 사실 미국이 자기 자신에게 던지는 질문이다. AI를 만든 사람들이 AI의 사용에 선을 그을 권리가 있는가. 아니면 국가 안보 앞에서 그 선은 무의미한가.
흥미로운 건 펜타곤이 Anthropic의 모델을 가장 우수하다고 평가했다는 사실이다. 4개 AI 기업 중 유일하게 기밀 네트워크 접근을 승인받은 이유가 그것이다. 안전에 가장 신경 쓰는 회사가 가장 뛰어난 모델을 만들었다. 이 상관관계가 우연인지 필연인지는 판단이 갈리겠지만, 안전 기준을 해체한다고 더 좋은 AI가 나온다는 보장은 어디에도 없다.
금요일이 지나면, 최소한 이번 라운드의 답은 나온다.
출처:
- Anthropic is clashing with the Pentagon over AI use. Here's what each side wants — CNBC
- Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails — CNN
- Hegseth gives Anthropic until Friday to back down on AI safeguards — Axios
- Anthropic won't budge as Pentagon escalates AI dispute — TechCrunch
- Pentagon threatens to label Anthropic's AI a "supply chain risk" — Axios
- Hegseth threatens to blacklist Anthropic over 'woke AI' concerns — NPR
- Tensions between the Pentagon and AI giant Anthropic reach a boiling point — NBC News
- Pentagon used Anthropic's Claude during Maduro raid — Axios
- Pentagon-Anthropic battle pushes other AI labs into major dilemma — Axios
- 이미지 출처 — Unsplash