~/오늘의 바이브
Published on

안전 거부한 Anthropic, 펜타곤이 적으로 찍었다

Authors
  • avatar
    Name
    오늘의 바이브
    Twitter

2억 달러 계약이 전쟁의 씨앗이 됐다

펜타곤 건물 항공 사진

2025년 7월, Anthropic은 펜타곤과 최대 2억 달러 규모의 계약을 체결했다. Claude는 미 국방부 기밀 네트워크에 통합된 최초의 AI 모델이 됐다. 계약서에는 Anthropic의 이용약관(Acceptable Use Policy)이 포함되어 있었다. 핵심 조항은 두 가지였다. Claude를 자율무기 시스템에 사용하지 않을 것. 미국 시민에 대한 대량 감시에 사용하지 않을 것.

펜타곤은 이 조건을 수락하고 서명했다. 그런데 계약이 체결된 뒤, 상황이 달라졌다.

국방부 장관 피트 헤그세스(Pete Hegseth)가 Anthropic CEO 다리오 아모데이(Dario Amodei)에게 공식 서한을 보냈다. 모든 사용 제한을 철회하고, Claude를 "모든 합법적 용도(all lawful purposes)"에 사용할 수 있도록 허용하라는 요구였다. 자율무기도 합법이고, 감시도 합법이니 제한할 이유가 없다는 논리였다.

아모데이는 거부했다. "우리는 양심상 국방부가 우리 AI 모델을 모든 합법적 용도에 사용하도록 허용할 수 없다(We cannot in good conscience accede to their request)."

이 한 문장이 미국 AI 산업 역사상 가장 큰 충돌의 시작이었다.

적국에나 붙이는 딱지, 미국 기업에 처음

2026년 2월 27일, 트럼프 대통령은 모든 연방 기관에 Anthropic 기술 사용을 중단하라고 지시했다. 같은 날, 헤그세스는 Anthropic을 **공급망 위험(supply chain risk)**으로 지정했다. 연방법 10 U.S.C. § 3252에 근거한 조치였다.

이 딱지의 무게를 이해하려면 맥락이 필요하다. 공급망 위험 지정은 역사적으로 적국의 기업에 붙이는 라벨이다. 화웨이, ZTE 같은 중국 기업이 받았던 바로 그 조치다. 미국에 본사를 둔 기업이 이 지정을 받은 것은 역사상 처음이었다.

지정의 효력은 즉각적이었다. 펜타곤과 거래하는 모든 방산업체와 계약업체는 자사 업무에 Anthropic의 모델을 사용하지 않는다는 것을 증명해야 했다. CBS 뉴스에 따르면, 내부 메모를 통해 군 지휘관들에게 주요 시스템에서 Anthropic AI 기술을 제거하라는 명령이 내려졌다.

정부 기관은 6개월 내에 Anthropic 제품 사용을 완전히 종료해야 했다. 단순히 계약 해지가 아니었다. Anthropic과 관련된 모든 것을 공급망에서 뿌리째 뽑아내라는 명령이었다.

CFO가 법정에서 꺼낸 숫자들

법정의 나무 의사봉

피해 규모는 Anthropic CFO 크리슈나 라오(Krishna Rao)의 법원 제출 서류에서 드러났다. 숫자 하나하나가 충격적이었다.

항목규모
2026년 매출 감소 추정수십억 달러
국방부 직접 계약 손실1억 5천만 달러 이상
공공 부문 연간 반복 매출5억 달러 이상
금융권 협상 중단약 1억 8천만 달러
계약 축소된 핀테크 고객1,500만 달러 → 500만 달러
불안을 표명한 기업 고객 수100개 이상

라오는 "정부 조치가 유지되면 방산업체와의 매출 50%에서 100%가 사라질 수 있다"고 진술했다. 2025년 12월부터 2026년 1월까지 공공 부문 고객의 연간 반복 매출 성장률은 4배였다. 향후 5년간 수십억 달러 규모로 성장할 것으로 전망됐던 사업이 하루아침에 위험에 처했다.

Anthropic의 분쟁 전 기업 가치는 3,800억 달러였다. 연환산 매출 성장률은 140억 달러에 달했다. 이 궤도가 갑자기 꺾였다. 라오는 "정부의 조치가 허용되면 피해를 되돌리는 것은 거의 불가능하다"고 경고했다.

Anthropic이 소송으로 맞받아쳤다

2026년 3월 9일, Anthropic은 트럼프 행정부를 상대로 캘리포니아 연방법원과 D.C. 항소법원에 동시 소송을 제기했다. 78페이지짜리 소장의 핵심 주장은 네 가지였다.

첫째, 공급망 위험 지정은 행정절차법(Administrative Procedure Act) 위반이다. 통상적인 절차 — 의견 수렴 기간, 이해관계자 청문 — 을 모두 건너뛰었다.

둘째, 수정헌법 제1조(First Amendment) 위반이다. Anthropic이 AI 안전에 대한 자사의 입장을 공개적으로 표명한 것에 대한 보복이라는 주장이다. 이용약관은 기업의 표현의 자유에 해당하며, 이를 이유로 처벌하는 것은 위헌이라고 Anthropic은 주장했다.

셋째, 국방부 장관이 법률이 부여한 권한을 초과했다. 대안을 고려하지 않고 즉각적인 배제를 명령한 것은 자의적이라는 논리였다.

넷째, 이 모든 조치가 전례 없고 위법하며(unprecedented and unlawful), Anthropic에 "회복 불가능한 피해(irreparable harm)"를 가하고 있다.

Anthropic은 소송 진행 중 현 상태를 유지하기 위한 **임시 접근금지명령(Temporary Restraining Order)**과 **가처분(Preliminary Injunction)**을 동시에 신청했다. 판사는 본래 4월 3일로 예정된 심리를 3월 24일로 앞당겼다. 사안의 긴급성을 인정한 것이다.

실리콘밸리가 편을 골랐다

군사 기술과 AI의 접점을 보여주는 이미지

Anthropic이 소송을 제기하자, 실리콘밸리에서 예상치 못한 일이 벌어졌다. 경쟁사를 포함한 테크 업계 전체가 Anthropic 편에 서기 시작한 것이다.

Microsoft가 가장 먼저 움직였다. 법원에 아미쿠스 브리프(amicus brief, 법정 조언서)를 제출하며 임시 접근금지명령을 지지했다. OpenAI의 최대 투자자이자, Anthropic의 직접적 경쟁자가 상대편을 법적으로 지원한 것이다.

이어서 Google과 OpenAI 직원 30명 이상이 공동 아미쿠스 브리프를 제출했다. Google 수석 과학자 제프 딘(Jeff Dean), OpenAI 연구원 19명, Google DeepMind 연구원 10명이 서명했다. "펜타곤의 블랙리스트가 미국 AI 산업 전체를 위협한다"는 내용이었다.

수백 개의 펜타곤 계약 기업을 대표하는 테크 산업 단체들도 지정 유예를 요구하는 아미쿠스 브리프를 냈다. Amazon과 Google은 비정부 고객들이 Anthropic 기술을 계속 사용할 수 있다고 공개적으로 선언했다. Anthropic과의 계약을 바꿀 계획이 없다는 메시지였다.

흥미로운 것은 Sam Altman의 반응이었다. OpenAI CEO는 "OpenAI도 Anthropic의 레드라인을 공유한다"고 발언했다. 펜타곤과 새로 계약을 체결한 직후의 발언이라 업계에서는 미묘한 신호로 읽혔다.

퇴역 장군과 전직 판사까지 나섰다

법정 지원은 테크 업계를 넘어섰다. 두 그룹의 참전이 특히 주목할 만했다.

퇴역 장군 22명이 아미쿠스 브리프를 제출했다. 이들의 주장은 기술 윤리가 아니었다. "도구를 갑자기 바꾸면 현장 군인이 위험해진다"는 작전적 논리였다. 펜타곤 내부에서도 Claude를 실제로 사용하던 군 관계자들이 "그렇게 쉽게 대체할 수 있는 기술이 아니다"라고 발언한 것과 맥을 같이했다.

전직 연방·주 판사 약 150명이 또 다른 아미쿠스 브리프를 냈다. 공화당과 민주당 대통령 모두에게 임명된 판사들이 섞여 있었다. 이들은 공급망 위험 라벨이 법적으로 남용되고 있다는 점을 지적했다. 적국 기업에 설계된 도구를 국내 기업에 사용하는 것은 법의 취지에 반한다는 논리였다.

가톨릭 윤리학자 그룹도 아미쿠스 브리프를 제출했다. AI가 자율적으로 사살 결정을 내리는 것에 대한 윤리적 우려였다.

지지 세력의 범위는 놀라웠다. 테크 CEO, 경쟁사 연구원, 퇴역 군인, 전직 판사, 종교 윤리학자. 이 조합이 한 기업의 편에 동시에 선 것은 전례가 없었다.

반대편에 선 이름

모든 사람이 Anthropic 편에 선 것은 아니었다. 가장 눈에 띄는 반대 목소리는 **팔머 럭키(Palmer Luckey)**에게서 나왔다. 방산 AI 기업 Anduril Industries의 창업자이자, Oculus VR을 만든 인물이다.

럭키는 Axios와의 인터뷰에서 "펜타곤이 더 강경하게 나갈 수도 있었다(could have been more forceful)"고 말했다. Anthropic이 "적절한 방식으로 말하고(talking about it in exactly the right way)" "잘못된 사람들의 심기를 건드리지 않았다면(not rubbing the wrong people the wrong way)" 합의에 도달할 수 있었다는 것이다. OpenAI처럼 "협력적인 방식(collaborative way)"으로 접근했다면 가능했을 거라는 암시였다.

법무부(DOJ)도 법원에 의견서를 제출했다. Anthropic의 수정헌법 제1조 주장을 기각해야 한다는 내용이었다. 블랙리스트는 "합법적이고 합리적(lawful and reasonable)"이며, 법원은 국가 안보 평가에 대해 행정부에 존중을 표해야 한다는 논리였다.

국방부는 한 발 더 나아갔다. TechCrunch 보도에 따르면, DOD는 Anthropic의 레드라인이 "국가 안보에 대한 용납할 수 없는 위험(unacceptable risk to national security)"이라고 규정했다. 그리고 Anthropic의 외국 국적 직원 비율이 보안 위험을 구성한다는 새로운 주장까지 꺼냈다.

안전이 비즈니스 모델이 된 아이러니

펜타곤의 공격이 Anthropic에 타격을 준 것은 분명하다. 하지만 역설적인 결과도 나타나고 있다.

Axios는 "Anthropic이 트럼프와 펜타곤의 공격을 받기 전보다 더 많은 매출과 관심을 끌어모으고 있다"고 보도했다. 주요 파트너사와 기업 고객들은 계약을 바꿀 계획이 없다고 밝혔다. 블랙리스트가 오히려 Anthropic의 브랜드를 강화한 셈이다.

이유는 단순하다. 기업 고객 입장에서 "정부의 자율무기 요구를 거부한 AI 회사"는 위험이 아니라 신뢰다. 의료, 금융, 교육 분야 고객에게 "이 AI는 안전 가드레일을 정부 압력에도 양보하지 않는다"는 메시지는 강력한 차별화 포인트가 된다.

문제는 이것이 지속 가능한 전략인지다. Anthropic은 3,800억 달러 기업 가치를 가진 기업이다. 하지만 공공 부문 매출이 "상당히 줄거나 완전히 사라질 수 있다"고 자사 CFO가 법정에서 인정한 상태다. 1억 5천만 달러의 직접 국방부 계약은 이미 손실이 확정적이다. 안전이라는 원칙을 지키는 대가가 수십억 달러일 때, 그 원칙은 얼마나 오래 버틸 수 있을까.

3월 24일, 판결이 아닌 선택

3월 24일 샌프란시스코 연방법원에서 열리는 심리는 단순한 법적 절차가 아니다. 이 심리에서 판사는 Anthropic의 임시 접근금지명령 신청을 판단한다. 블랙리스트를 일시 중단할 것인지, 유지할 것인지.

하지만 진짜 질문은 법정 밖에 있다. 이번 사건이 만든 선례는 명확하다. 정부가 AI 기업에 "안전장치를 제거하라"고 요구할 수 있고, 거부하면 적국 수준의 제재를 받는다. 이 프레임이 유지되면 모든 AI 기업이 같은 선택을 강요받는다. 안전을 지키고 사업을 잃거나, 안전을 버리고 사업을 유지하거나.

Anthropic의 경쟁자들이 Anthropic을 지지하는 이유가 여기에 있다. Microsoft가, Google이, OpenAI 연구원들이 경쟁사의 편에 선 것은 Anthropic이 좋아서가 아니다. 다음 차례가 자기들이라는 것을 알기 때문이다.

이 싸움의 결과는 한 기업의 운명이 아니라, AI 기업이 정부에 "안 된다"고 말할 수 있는 권리가 존재하는지를 결정한다. 3월 24일은 판결의 날이 아니다. 선택의 날이다.


출처: