- Authors

- Name
- 오늘의 바이브
미국 기업 최초, 공급망 위험 딱지

2026년 3월 6일, 미 국방부(Department of Defense)가 Anthropic에 공식 서한을 보냈다. 내용은 단 한 줄로 요약된다. "공급망 위험(supply chain risk)으로 지정한다." 이 딱지는 역사적으로 중국, 러시아 같은 적성국 기업에만 붙였던 것이다. 미국 기업이 이걸 받은 건 역사상 처음이다.
이 지정의 효과는 즉각적이다. 미 국방부와 계약하는 모든 방산업체와 하청업체는 자사 업무에 Anthropic의 모델 Claude를 사용하지 않는다고 증명해야 한다. 증명하지 못하면 국방부 계약 자체가 날아간다. 국방장관 피트 헤그세스(Pete Hegseth)는 한 발 더 나아가 미 군과 거래하는 모든 계약업체와 공급업체가 Anthropic과의 상업적 활동을 중단해야 한다고 선언했다.
이게 왜 이례적인지 맥락이 필요하다. 공급망 위험 지정은 미국의 국가 안보를 직접적으로 위협하는 외국 기업에 적용하는 최후의 수단이다. 화웨이, ZTE 같은 중국 통신장비 업체가 이 딱지를 받았다. 그런데 2026년 3월, 그 딱지가 샌프란시스코에 본사를 둔 미국 AI 스타트업에 붙었다.
밀월에서 결별까지: 2억 달러 계약의 전말
Anthropic과 펜타곤의 관계는 원래 밀월이었다. 2024년 11월, Anthropic은 국가안보 전문 기업 Palantir, 클라우드 플랫폼 AWS와 3자 파트너십을 맺고 미국 정보기관과 국방기관에 Claude를 공급하기 시작했다. Palantir가 기밀 환경에 Claude 모델을 배치한 최초의 산업 파트너가 됐다. Claude는 "비밀(Secret)" 수준의 클라우드 보안 등급에서 운용됐고, 공개적으로 확인된 바로는 **기밀 시스템에 배치된 최초의 대형 언어 모델(LLM)**이었다.
2025년 7월에는 더 큰 계약이 왔다. 국방부 수석 디지털 및 AI 사무소(CDAO)가 Anthropic에 최대 2억 달러 규모의 2년짜리 프로토타입 계약을 수주했다. Claude는 Palantir 플랫폼을 통해 기밀 네트워크의 임무 워크플로에 통합됐다. 방대한 양의 복잡한 데이터를 신속히 처리하고 분석하는 용도였다.
Piper Sandler의 애널리스트들은 Anthropic이 "군과 정보 커뮤니티에 깊이 내장되어(heavily embedded)" 있다고 분석했다. 이 기술을 걷어내면 "단기적 운영 차질(short-term disruptions)"이 불가피하다고도 썼다. Defense One의 보도에 따르면, 펜타곤이 Anthropic의 AI 도구를 대체하려면 수개월이 걸린다.
2월 24일, 헤그세스의 최후통첩

이야기는 2월로 거슬러 올라간다. 2026년 2월 24일, 국방장관 헤그세스가 Anthropic CEO 다리오 아모데이(Dario Amodei)를 펜타곤으로 불렀다. 회의실에는 헤그세스만 있지 않았다. 국방부 부장관 스티브 파인버그(Steve Feinberg), 연구공학 차관 에밀 마이클(Emil Michael), 획득유지 차관 마이클 더피(Michael Duffey), 수석 대변인 숀 파넬(Sean Parnell), 수석 법률고문 얼 매튜스(Earl Matthews)까지 배석했다. 국방부가 이 분쟁을 얼마나 심각하게 보고 있는지 보여주는 인사 배치다.
헤그세스의 요구는 명확했다. Claude를 국방부의 모든 합법적 용도에 제한 없이 사용할 수 있게 하라. 아모데이의 대답도 명확했다. 두 가지 레드라인은 양보할 수 없다. 하나, 완전 자율무기(인간 감독 없이 AI가 사살 결정을 내리는 무기)에 쓰지 않겠다. 둘, 미국 시민 대상 대량 감시에 쓰지 않겠다.
헤그세스는 2월 27일 금요일 오후 5시 1분까지 답을 달라는 최후통첩을 날렸다. 응하지 않으면 두 가지 중 하나를 택하겠다고 했다. Anthropic과 관계를 끊고 공급망 위험으로 선언하든지, **국방물자생산법(Defense Production Act, DPA)**을 발동해 모델을 강제로 군용화하든지.
DPA는 1950년 한국전쟁 당시 해리 트루먼 대통령이 서명한 법이다. 원래 철강 공장과 탱크 공장을 위한 법이었다. 대통령에게 국방을 위해 국내 산업을 지시할 권한을 부여한다. 바이든 행정부도 행정명령 14110의 7장을 통해 DPA의 정보 수집 권한을 AI 기업에 적용한 적이 있다. 하지만 헤그세스가 위협한 건 DPA의 핵심 강제 권한인 1장이다. 전문가들은 이런 방식의 DPA 적용은 "DPA 역사상 전례가 없다(without precedent)"고 평가했다. "안전하지 않다고 판단한 제품을 만들도록 기업에 강제하거나, 서비스 약관을 지시하는 데 DPA가 사용된 적은 한 번도 없다."
"민간 기업이 군의 지휘 체계에 끼어들 수 없다"
펜타곤의 논리는 이렇다. 군이 합법적으로 사용하는 기술에 민간 기업이 용도 제한을 걸 수 없다. 국방부 관계자는 "군은 벤더가 합법적 역량의 사용을 제한함으로써 지휘 체계에 끼어드는 것을 허용하지 않을 것"이라고 밝혔다.
이 입장에는 일리가 있다. 국방 계약에서 기술 제공자가 사용 조건을 다는 건 전례가 거의 없다. 록히드마틴이 F-35를 팔면서 "이 전투기는 특정 임무에는 쓰지 마세요"라고 조건을 거는 걸 상상해보면 된다. 군은 구매한 무기를 어떤 합법적 목적에든 사용할 권한이 있다는 게 수십 년간의 관행이다.
하지만 Anthropic의 반론도 간단하지 않다. AI는 전투기와 다르다. 전투기는 인간 조종사가 운용한다. 자율무기는 AI 자체가 사살 결정을 내린다. Anthropic이 그은 선은 "인간이 최종 결정권을 가져야 한다"는 것이었고, 이건 AI 안전 논의에서 가장 기본적인 원칙 중 하나다. Anthropic은 방어 업무에 Claude를 쓰는 것 자체를 반대한 적이 없다. 문제는 오직 두 가지 특정 용도, 자율무기와 대량 감시에 대한 것이었다.
펜타곤 관계자들은 이 분쟁이 치명적 무기나 감시에 관한 것이 아니라고 반박한다. 민간 기업이 정부의 기술 사용 방식을 전쟁 시나리오에서까지 좌지우지하는 것은 허용할 수 없다는 원론적 입장이다.
거부, 그리고 연쇄 반응
2월 27일, 아모데이는 최후통첩을 거부했다. 그는 공개 성명에서 "펜타곤의 위협이 우리의 입장을 바꾸지는 않는다(do not change our position)"고 밝혔다. 같은 날, 도널드 트럼프 대통령은 모든 연방기관에 Anthropic 제품 사용을 6개월 내에 중단하라고 지시했다. 헤그세스는 곧이어 Anthropic을 공급망 위험으로 선언했다.
연쇄 반응은 즉각적이었다. 방산업체들이 줄줄이 Claude 사용을 중단하기 시작했다. 한 벤처 캐피털 펌의 포트폴리오 중 국방부와 거래하는 기업 10곳이 방어 업무에서 Claude를 걷어냈다. 록히드마틴 같은 대형 방산업체도 공급망에서 Anthropic 기술을 제거할 것으로 예상됐다.
피해 규모를 보자. Anthropic의 CFO는 이 조치가 2026년 매출을 "수십억 달러(multiple billions of dollars)" 감소시킬 수 있다고 밝혔다. 소송 서류에서는 "수억 달러(hundreds of millions of dollars)" 규모의 계약이 즉각 위험에 처했다고 했다. 2억 달러짜리 펜타곤 계약은 물론이고, 그 계약을 기반으로 파생된 방산업체와의 거래까지 전부 위태로워진 것이다.
그 사이, 경쟁사는 빈자리를 채웠다. 헤그세스가 Anthropic을 블랙리스트에 올리는 동안, Elon Musk의 xAI와 OpenAI는 기밀 시스템 사용 승인을 받았다.
빅테크의 줄타기: 국방 빼고 다 됩니다

블랙리스트 지정 직후, Microsoft, Amazon, Google이 거의 동시에 성명을 냈다. 내용은 한결같았다. "국방부 업무를 제외한 모든 고객에게 Claude를 계속 제공한다."
Amazon은 Anthropic의 최대 재정 후원자다. 2023년부터 총 80억 달러를 투자했다. AWS 대변인은 "국방부와 관련 없는 모든 워크로드에서 Claude를 계속 사용할 수 있다"면서도 "국방부 관련 워크로드에서는 AWS에서 운영되는 대안으로의 전환을 지원하고 있다"고 밝혔다.
Microsoft는 한 발 더 나아갔다. 3월 10일, 법원에 아미쿠스 브리프(amicus brief, 법정 조언서)를 제출했다. 소송 당사자가 아닌 제3자가 관련 전문 지식이 있거나 판결에 영향을 받을 때 제출하는 서면이다. Microsoft는 펜타곤의 공급망 위험 지정을 일시적으로 중단하라는 임시 접근금지 명령(temporary restraining order)을 요청했다.
Microsoft가 이렇게 나선 이유가 있다. Microsoft는 Anthropic의 제품과 서비스를 자사가 미 군에 제공하는 기술에 통합해 쓰고 있다. 공급망 위험 지정의 직접적 피해자인 셈이다. Microsoft는 "임시 접근금지 명령이 Anthropic과 국방부가 **'모든 당사자에게 더 나은 협상적 해결(negotiated resolution)'**을 추구할 수 있게 해줄 것"이라고 주장했다.
| 기업 | 투자/관계 | 대응 |
|---|---|---|
| Amazon | Anthropic에 80억 달러 투자 | 국방부 외 Claude 유지, 국방부 워크로드 전환 지원 |
| Microsoft | Claude를 군용 기술에 통합 사용 | 임시 접근금지 명령 요청 아미쿠스 브리프 제출 |
| Claude API 제공 | 국방부 외 고객에게 Claude 계속 제공 |
소송: "전례 없고 위법하다"
3월 9일, Anthropic은 두 건의 연방 소송을 제기했다. 하나는 캘리포니아 북부 연방지방법원에, 다른 하나는 워싱턴 D.C. 연방항소법원에 냈다. 핵심 주장은 펜타곤 관리들이 AI 안전에 대한 Anthropic의 입장에 대해 불법적으로 보복했다는 것이다.
소송 서류의 표현은 거침없다. "이 조치들은 전례가 없고 위법하다(unprecedented and unlawful)." "헌법은 정부가 거대한 권력을 휘둘러 기업의 보호된 발언(protected speech)을 처벌하는 것을 허용하지 않는다." "어떤 연방법도 여기서 취해진 조치를 승인하지 않는다." 트럼프 행정부 관리들이 "세계에서 가장 빠르게 성장하는 비상장 기업 중 하나가 만든 경제적 가치를 파괴하려 하고 있다."
Anthropic의 법적 전략은 이 블랙리스트가 단순한 계약 분쟁이 아니라 수정헌법 1조(표현의 자유) 위반이라는 것이다. AI 안전에 대한 특정 관점을 공개적으로 표명했다는 이유로 정부가 기업을 경제적으로 보복한 것이니, 이는 헌법이 보호하는 표현의 자유를 침해한다는 논리다. "선도적인 프론티어 AI 개발자가 공공적으로 중요한 주제인 AI 안전에 대해 보호된 관점을 고수했다는 이유로 보복했다(retaliated against a leading frontier AI developer for adhering to its protected viewpoint on a subject of great public significance — AI safety)."
경쟁사에 대한 차별적 대우도 증거로 제시했다. Anthropic이 블랙리스트에 올라가는 동안, xAI와 OpenAI는 기밀 시스템 접근 승인을 받았다. 같은 시장에서 같은 종류의 서비스를 제공하는 기업들이 정반대의 대우를 받은 것이다.
밀월에서 블랙리스트까지, 타임라인
전체 사건의 흐름을 정리하면 이렇다.
| 날짜 | 사건 |
|---|---|
| 2024년 11월 | Anthropic-Palantir-AWS 3자 파트너십, Claude가 기밀 네트워크 배치 |
| 2025년 7월 | 펜타곤과 최대 2억 달러 규모 2년 계약 체결 |
| 2026년 2월 24일 | 헤그세스-아모데이 펜타곤 회의, 최후통첩 발부 |
| 2026년 2월 27일 | 아모데이 최후통첩 거부, 트럼프 연방기관 사용 중단 지시 |
| 2026년 3월 6일 | 국방부, Anthropic을 공급망 위험으로 공식 지정 |
| 2026년 3월 9일 | Anthropic, 연방법원 2곳에 소송 제기 |
| 2026년 3월 10일 | Microsoft, 임시 접근금지 명령 요청 아미쿠스 브리프 제출 |
2024년 11월 파트너십 체결부터 2026년 3월 블랙리스트까지, 불과 16개월이다. AI 산업에서 정부와의 관계가 얼마나 빠르게 뒤집힐 수 있는지 보여주는 타임라인이다.
이건 AI 전쟁의 서막이다
이 사건의 본질은 AI 기업과 정부 사이의 권한 경계선 싸움이다. 누가 AI의 사용 범위를 결정하는가. 만든 기업인가, 쓰는 정부인가.
펜타곤 입장에서는 명확하다. 국가 안보에 필요한 기술을 민간 기업이 좌지우지해서는 안 된다. 연방 투자가 AI 산업에 대규모로 흘러들어간 상황에서 "우리 기술은 이렇게 쓸 수 없습니다"라는 조건은 받아들이기 어렵다. 전쟁터에서 벤더의 이용약관이 군의 작전을 제한하는 상황을 펜타곤은 용납할 수 없다.
Anthropic 입장에서도 명확하다. AI 모델을 만든 기업이 그 모델의 사용에 윤리적 제한을 걸 수 없다면, AI 안전이라는 개념 자체가 무의미해진다. 정부가 원한다고 모든 용도를 허용해야 한다면, 어떤 AI 기업도 책임 있는 개발을 주장할 수 없다. 그리고 정부의 요구를 거부했다는 이유만으로 적성국 기업에나 붙이는 딱지를 미국 기업에 붙이는 건, 그 자체가 보복이다.
월스트리트저널에 따르면 Claude는 이미 실전에서 쓰이고 있었다. 베네수엘라 지도자 니콜라스 마두로 체포 작전의 급습 계획, 미국-이란 분쟁에서 타격 대상 식별을 위한 정보 분석 등에 활용된 것으로 보도됐다. 이 보도에 대한 독립적 확인은 이루어지지 않았지만, 사실이라면 Claude가 이미 얼마나 깊이 군사 작전에 관여하고 있는지를 보여준다. 블랙리스트를 선언하는 건 쉽지만, Claude가 기밀 네트워크 깊숙이 들어가 있는 상태에서 실제로 걷어내는 데는 수개월이 걸린다.
결국 이 분쟁이 결정하는 건 하나다. AI 시대에 "합법적 용도"의 경계선을 누가 긋는가. 그 답이 법정에서 나올지, 협상 테이블에서 나올지는 아직 알 수 없다. 하지만 한 가지는 확실하다. Anthropic이 이기면 AI 기업이 정부에 윤리적 조건을 걸 수 있는 선례가 만들어진다. 지면 "AI 안전"이라는 단어는 마케팅 용어로 전락한다. 이건 한 기업의 소송이 아니다. AI가 무기가 되는 시대의 첫 번째 헌법 소송이다.
출처
- Defense tech companies are dropping Claude after Pentagon's Anthropic blacklist -- CNBC
- Anthropic sues Trump administration over Pentagon blacklist -- CNBC
- Anthropic sues the Trump administration over 'supply chain risk' label -- NPR
- Anthropic CEO Amodei says Pentagon's threats 'do not change our position' on AI -- CNBC
- Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards -- Axios
- Microsoft backs Anthropic in Pentagon blacklist battle -- CNBC
- Amazon says Anthropic's Claude still OK for AWS customers to use outside defense work -- CNBC
- It would take the Pentagon months to replace Anthropic's AI tools -- Defense One
- What the Defense Production Act Can and Can't Do to Anthropic -- Lawfare