- Authors

- Name
- 오늘의 바이브
로봇 만들던 사람이, 무기 딜에 떠났다

2억 달러. OpenAI가 펜타곤과 맺은 첫 기밀 배포 계약의 규모다. 계약서에 서명이 마르기도 전에, 회사의 로보틱스를 이끌던 사람이 짐을 쌌다. 케이틀린 칼리노스키(Caitlin Kalinowski). Apple에서 MacBook Pro를 설계하고, Meta에서 Quest VR 헤드셋을 만들고, OpenAI에서 휴머노이드 로봇을 구상하던 하드웨어 베테랑이다.
2026년 3월 7일, 그는 X와 LinkedIn에 동시에 사직 소식을 올렸다. 짧지만 단호한 글이었다. 로봇을 만들려고 합류한 사람이, 그 기술이 향할 곳을 보고 떠난 것이다. OpenAI 내부에서 펜타곤 딜에 반발해 사직한 가장 고위급 인사였다.
이 사건은 단순한 한 사람의 퇴사가 아니다. AI 기업이 군사 계약을 수주하기 시작하면, 그 기술을 만드는 사람들에게 어떤 일이 벌어지는지를 보여주는 첫 번째 균열이다.
금요일 밤의 서명
이야기는 2026년 2월 마지막 주로 거슬러 올라간다. 2월 23일, 국방장관 피트 헤그세스(Pete Hegseth)가 Anthropic CEO 다리오 아모데이(Dario Amodei)를 펜타곤으로 소환했다. 요구는 단순했다. Claude를 군에 **"모든 합법적 용도"**로 제공하라. 대규모 감시와 자율 무기에 대한 제한을 걸지 말라. 이틀 뒤인 2월 24일, 헤그세스는 아모데이에게 금요일까지 군에 Claude에 대한 무제한 접근을 허용하라는 최후통첩을 보냈다. 거부하면 Anthropic을 **"공급망 위험"**으로 선언하거나, 국방물자생산법(Defense Production Act)을 발동해 강제 준수를 요구하겠다고 했다.
2월 26일, 아모데이는 거절했다. "대규모 감시와 자율 무기를 위한 '모든 합법적 용도' 조항은 수용할 수 없다"는 것이 그의 입장이었다. 내부에 **"우리의 입장을 바꾸지 않는다"**고 전했다. 헤그세스는 Anthropic을 **"깨어있는 AI(woke AI)"**라고 불렀다.
그리고 2월 27일 금요일. 트럼프 대통령은 모든 연방 기관에 Anthropic 기술 사용을 중단하라고 지시했다. 국방부는 Anthropic을 **"국가 안보에 대한 공급망 위험"**으로 지정했다. 이 딱지는 보통 외국 적대국과 연관된 기업에 붙이는 것이다. Anthropic은 이전에 국방부와 2억 달러 규모의 자체 계약을 맺고 있었고, Claude는 미국 정부의 기밀 네트워크에 배포된 최초의 주요 AI 모델이었다. 그 관계가 하루 만에 끊겼다.
바로 그 같은 금요일, OpenAI가 펜타곤과 최대 2억 달러 규모의 기밀 배포 계약을 체결했다. OpenAI의 첫 기밀 배포 계약이었다. 경쟁사가 정부의 압박에 쓰러지는 순간, OpenAI는 서명 라인에 이름을 올린 것이다. 타이밍은 의도적이든 아니든, 메시지는 분명했다. Anthropic이 거절한 것을 OpenAI가 받아들였다.
계약서에 적힌 것, 적히지 않은 것
3월 1일, OpenAI는 "국방부와의 합의(Our agreement with the Department of War)"라는 제목의 블로그 포스트를 통해 계약 내용 일부를 공개했다. 세 가지 **"레드 라인"**을 내세웠다.
| 항목 | OpenAI 입장 |
|---|---|
| 미국인 대상 대규모 감시 | 금지 |
| 인간 통제 없는 자율 무기 | 법·정책이 인간 감독을 요구하는 경우 금지 |
| 인간 승인 없는 고위험 자율 결정 | 금지 |
기술적 안전장치도 제시했다. 클라우드 전용 배포 아키텍처(엣지 기기가 아닌 서버 기반), OpenAI 안전 스택의 지속 가동, 보안 인가를 받은 OpenAI 직원의 운영 참여, AI 모델의 행동을 추적하는 모니터링 분류기(classifier) 운영 등이었다.
표면적으로는 단단해 보였다. 하지만 전자프런티어재단(EFF)은 **"족제비 말(Weasel Words): OpenAI의 펜타곤 딜은 AI 감시를 막지 못한다"**라는 제목의 분석을 발표했다.
EFF의 핵심 비판은 이렇다. 미국 법은 이미 위치 데이터, 소셜 미디어 게시물, 통화 기록의 수집을 허용한다. **"모든 합법적 용도"**라는 표현은 기존 법이 허용하는 모든 감시 위에 AI를 덧씌우는 것을 막지 못한다. 행정명령 12333호는 NSA가 해외 통신 감청을 통해 미국인의 데이터를 간접적으로 수집하는 것을 허용한다. 계약은 "독립적 통제"를 금지하지만, AI가 표적 식별, 추적, 분석 등 킬 체인 과정에 관여하는 것은 허용한다. "인간 책임(human responsibility)"과 "적절한 감독(proper oversight)" 같은 용어에는 명확한 정의가 없다.
가장 결정적인 문제는 계약 전문이 공개되지 않았다는 것이다. 외부에서 검증할 방법이 없다. 그리고 펜타곤의 정책은 언제든 변경 가능하다.
칼리노스키가 남긴 말
칼리노스키의 사직 선언은 X와 LinkedIn에 동시에 올라왔다.
"저는 OpenAI를 떠났습니다. 로보틱스 팀과 우리가 함께 만든 것에 깊은 애정이 있습니다. 쉬운 결정은 아니었습니다. AI는 국가 안보에서 중요한 역할을 합니다. 하지만 사법 감독 없는 미국인 감시와 인간 승인 없는 치명적 자율성은 더 많은 숙의가 필요한 선이었습니다. 이것은 원칙의 문제이지, 사람의 문제가 아닙니다. 샘과 팀에 대한 깊은 존경이 있고, 함께 만든 것이 자랑스럽습니다."

이어진 후속 게시물에서 그는 한 가지를 분명히 했다.
"분명히 해두자면, 제 문제는 가드레일이 정의되기 전에 발표가 급하게 이루어졌다는 것입니다. 이것은 무엇보다 거버넌스의 문제입니다. 이런 것들은 딜이나 발표가 서두르기엔 너무 중요합니다."
그의 이력이 이 발언에 무게를 더한다. 스탠포드 기계공학과를 졸업한 뒤 Apple에서 약 6년간 일했다. 유니바디 MacBook Pro 초기 팀의 일원이었고, MacBook Air와 Mac Pro 개발에 핵심 역할을 했으며, Apple 재직 중 여러 특허를 보유하고 있다. 이후 Meta(당시 Facebook/Oculus)에서 약 9년간 VR 하드웨어를 총괄했다. Quest 2, Touch 컨트롤러, Rift, Go, Rift S 시리즈를 이끌었고, 마지막 2년 반은 AR 안경 프로젝트 Orion의 책임자였다. Business Insider 선정 가장 영향력 있는 여성 엔지니어(2018), Fast Company Queer 50 리스트(2021, 2022)에 이름을 올린 인물이다.
그런 사람이 2024년 11월 OpenAI에 합류해 로보틱스와 소비자 하드웨어를 이끌었다. 약 15개월 만에, 원칙을 이유로 떠났다.
내부는 들끓고 있었다
칼리노스키의 사직은 빙산의 일각이었다. CNN은 3월 4일, OpenAI 직원들이 펜타곤 딜에 **"격분하고 있다(fuming)"**고 보도했다. 한 직원은 CNN에 "많은 동료가 Anthropic의 입장을 정말 존경한다"고 말했다.
연구 과학자 에이든 맥러플린(Aidan McLaughlin)은 공개적으로 "개인적으로 이 딜은 그만한 가치가 없었다고 생각한다"고 밝혔다. 동시에 내부 논의가 "압도적이었다"면서도 "사람들이 자기 생각을 말할 수 있는 곳에서 일한다는 것이 자랑스럽다"고 덧붙였다.
내부 반발은 조직 바깥으로도 번졌다. Google 직원 300명 이상과 OpenAI 직원 60명 이상이 공동 서명한 공개 서한이 등장했다. 이 서한은 리더십에 Anthropic을 지지하고 일방적 군사 AI 사용을 거부할 것을 촉구했다. 더 넓은 범위의 서한에는 Google과 OpenAI 직원 약 900명이 서명해, 정부의 대규모 감시와 자율 치명적 표적 지정 요청을 거부하라고 요구했다.
샘 올트먼도 문제를 인식하고 있었다. 3월 2일 내부 메모에서 이렇게 썼다.
"우리는 금요일에 합의를 서둘러 내보내지 말았어야 했다."
3월 3일에는 이 딜의 전개가 **"기회주의적이고 엉성해 보였다(looked opportunistic and sloppy)"**고 공개적으로 인정했다. Anthropic이 공급망 위험으로 낙인찍힌 바로 그 시간에 계약을 체결한 것이 "좋아 보이지 않는다"는 점도 인정했다. 특히 그가 이전에 Anthropic의 대규모 감시와 자율 무기에 대한 레드 라인을 공개적으로 지지한다고 발언한 적이 있어 더욱 그랬다.
OpenAI의 국가 안보 파트너십 책임자 캐트리나 멀리건(Katrina Mulligan)도 입장을 냈다. 오바마 행정부에서 2013년 스노든 폭로에 대한 미디어 대응을 주도했고, 법무부, 국가정보국장실, 국가안전보장회의를 거친 인물이다. 그는 "국방 정보 구성요소는 이 계약에서 제외된다"고 밝히면서도, NSA와의 향후 협력에 대해서는 **"적절한 안전장치가 갖춰진다면 열려 있다"**고 했다.
밖에서는 앱을 지우고 있었다

내부의 분노는 외부의 행동으로 번졌다. QuitGPT 운동이 시작됐다. 활동가들이 샌프란시스코 미션베이의 OpenAI 본사 앞에 모였고, 이 운동은 150만 명 이상이 구독 취소, 보이콧 메시지 공유, quitgpt.org 가입 등의 행동에 참여했다고 주장했다.
앱 지표가 이 분노를 숫자로 보여줬다.
| 지표 | 변화 |
|---|---|
| ChatGPT 앱 삭제 | 전일 대비 295% 증가 (평상시 9% 대비) |
| 1점 리뷰 | 토요일 기준 775% 급증, 일요일 추가 100% 증가 |
| 5점 리뷰 | 50% 감소 |
| Claude 앱 다운로드 | 전일 대비 37~51% 증가 |
Claude는 잠시 미국 앱스토어 1위에 올랐다. 정부가 벌한 회사를 소비자가 보상하고, 정부가 보상한 회사를 소비자가 벌한 것이다.
3월 2일, OpenAI는 여론에 밀려 계약을 수정했다. AI가 **"미국인 및 미국 국민에 대한 국내 감시에 의도적으로 사용되지 않을 것"**이라는 조항을 명시적으로 추가했다. NSA와 기타 정보기관은 계약에서 명시적으로 제외됐다. OpenAI 대변인 케일라 우드(Kayla Wood)는 "이 계약이 AI의 책임 있는 국가 안보 활용을 위한 실행 가능한 경로를 만들면서, 국내 감시 금지와 자율 무기 금지라는 우리의 레드 라인을 명확히 한다"고 밝혔다. 하지만 비판자들은 물었다. 이미 서명된 계약의 "수정"이 구속력을 갖는가. "의도적으로"라는 단서가 비의도적 사용을 허용하는 것은 아닌가. 기밀 네트워크 안에서 AI가 실제로 무엇을 하는지 누가 감시하는가.
로보틱스 팀에 남은 것
칼리노스키의 퇴장이 남긴 공백은 구체적이다. OpenAI는 지난 1년간 샌프란시스코에 로보틱스 연구소를 세우고 약 100명의 데이터 수집 인력을 고용했다. 이 팀은 로봇 팔이 가사 일을 수행하도록 훈련하는 중이었고, 궁극적으로 휴머노이드 로봇을 만드는 것이 목표였다. 2025년 12월에는 캘리포니아 리치몬드에 두 번째 연구소를 열 계획을 직원들에게 알렸다.
그런데 이 모든 것을 이끌던 사람이 떠났다. OpenAI는 칼리노스키의 사직을 확인하면서 그 자리를 대체할 계획이 없다고 밝혔다. 전 Scale Labs CEO 벤자민 볼테(Benjamin Bolte)의 영입이 알려졌지만, 로보틱스 총괄 자리 자체를 없앤다는 것은 의미심장하다. 로보틱스 사업의 방향이 바뀌었거나, 아직 후임을 구하지 못했거나, 혹은 이 분야의 우선순위가 달라졌다는 신호일 수 있다. 칼리노스키가 처음부터 세운 조직이 어떤 방향으로 나아갈지는 아직 불분명하다.
| 항목 | Anthropic 접근 | OpenAI 접근 |
|---|---|---|
| 핵심 언어 | 명시적 계약 금지 조항 | "모든 합법적 용도" |
| 감시 | 전면 금지 | 현행법 하에서 허용 |
| 자율 무기 | 금지 (현재 AI 신뢰성 부족 근거) | 법이 허용하면 가능, "인간 책임" 요구 |
| 접근 방식 | 법적 요구 이상의 추가 제한 부과 | 기존 법·정책에 위임 |
두 회사의 차이는 결국 하나로 귀결된다. Anthropic은 "법이 허용해도 우리가 금지한다"고 했고, OpenAI는 "법이 허용하면 우리도 허용한다"고 했다. 같은 정부의 같은 요구에 정반대의 답을 내놓은 것이다.
원칙은 계약서보다 얇다
OpenAI의 군사 정책 변화는 하루아침에 일어난 것이 아니다. 2024년 1월 10일, OpenAI는 사용 정책에서 **"무기 개발"**과 "군사 및 전쟁" 용도를 명시적으로 금지하는 문구를 조용히 삭제했다. 새 정책은 대신 "자신이나 타인을 해치는 데" 기술을 사용하는 것을 금지한다고만 했다. The Intercept가 이 변경을 처음 보도했다. 2년 뒤, 그 조용한 정책 수정은 2억 달러짜리 군사 계약으로 현실이 됐다.
이 궤적을 따라가면 패턴이 보인다.
- 2015년: 비영리 AI 안전 연구소로 설립. "인류 전체에 이로운 AGI" 미션.
- 2019년: 영리 법인 설립.
- 2024년 1월: 군사 사용 금지 조항 삭제.
- 2024년 후반: 국방부와 사이버 보안 도구 협력 시작.
- 2026년 2월: 경쟁사가 거부한 군사 계약을 같은 날 수주.
칼리노스키의 사직이 보여주는 것은 분명하다. AI 기업이 "우리에겐 레드 라인이 있다"고 말할 때, 그 선이 어디에 그어져 있는지는 계약 금액에 따라 움직일 수 있다. OpenAI의 세 가지 레드 라인은 존재한다. 하지만 그 선 아래의 넓은 회색 지대에서 무슨 일이 벌어질지는 기밀 벽 너머에 있다. 비공개 계약서와 언제든 바뀔 수 있는 정책 사이에서, 원칙은 계약서의 잉크보다 빨리 마른다.
2018년 Google의 Project Maven 논란 때, 직원 수천 명의 집단행동이 군사 계약을 철회시켰다. Google은 국방부의 드론 영상을 AI로 분석하는 프로젝트에서 손을 뗐고, 이후 AI 윤리 원칙을 공식 발표했다. 직원들의 집단행동이 기업의 군사 계약을 실제로 철회시킨 드문 선례였다. 하지만 2026년에는 환경이 근본적으로 달라졌다. 거부하는 기업을 공급망 위험으로 지정하고 연방 시장에서 퇴출시키는 정부의 메커니즘이 생겼다. 2018년에 Google은 여론과 직원 압력에 밀려 계약을 포기하는 것을 선택할 수 있었다. 2026년에 Anthropic은 원칙을 지켰지만, 수십억 달러 규모의 정부 시장에서 하룻밤 사이에 배제당했다. 거부의 비용이 근본적으로 달라진 것이다. 개인의 양심과 기업의 생존이 정면충돌하는 구조에서, 양심이 시스템을 바꿀 수 있는 확률은 갈수록 줄어든다. 칼리노스키는 떠나면서도 "샘과 팀에 대한 깊은 존경"을 표했다. 하지만 존경만으로는 남을 수 없었다. 로봇을 만드는 일과, 그 로봇이 군사 인프라 위에서 돌아가는 일 사이의 거리가 2억 달러로 좁혀졌을 때, 그는 걸어 나가는 쪽을 택했다. 다음 칼리노스키가 나올 때, 사표 말고 선택할 수 있는 것이 있을까. 구조가 바뀌지 않으면, 같은 사표만 반복된다.
출처
- OpenAI hardware exec Caitlin Kalinowski quits over Pentagon deal - TechCrunch
- OpenAI robotics leader resigns - NPR
- OpenAI robotics leader resigns - Fortune
- Sam Altman admits deal "opportunistic and sloppy" - Fortune
- ChatGPT uninstalls surged 295% - TechCrunch
- EFF: Weasel Words - EFF
- OpenAI quietly deletes military ban - The Intercept
- Some OpenAI staff are fuming - CNN