- Authors

- Name
- 오늘의 바이브
한 주에 6명이 나갔다

2026년 2월 9일부터 14일까지, 정확히 6일 사이에 벌어진 일이다. Anthropic의 안전 연구 총책임자가 "세상이 위기다"라는 편지를 남기고 떠났다. OpenAI의 연구원이 뉴욕타임스에 "OpenAI가 페이스북의 실수를 반복하고 있다"는 기고문을 쓰고 사직했다. xAI에서는 공동창업자 두 명이 48시간 간격으로 퇴사했다. OpenAI의 안전 담당 부사장은 성인 모드에 반대했다가 해고됐다.
AI를 안전하게 만드는 일을 직업으로 삼은 사람들이, 더 이상 그 일을 할 수 없다고 판단한 것이다. 한두 명이 아니다. 세 회사에서 동시에, 한 주 만에. CNN은 이 사태를 "AI 안전의 수문장들이 문을 나서며 경보를 울리고 있다"고 보도했다.
Anthropic: "세상이 위기다"라는 편지
2월 9일, Mrinank Sharma가 X에 공개 서한을 올렸다. Anthropic의 Safeguards Research 팀을 이끌던 인물이다. AI 모델이 생물무기 제작을 돕지 못하게 막는 방어 체계, AI가 사용자에게 아첨하는 경향(sycophancy)을 연구하는 팀, 내부 투명성 메커니즘을 만드는 팀. 이 모든 걸 지휘하던 사람이 떠났다.
편지의 핵심 문장은 이것이다. "세상이 위기에 처해 있다(The world is in peril). AI나 생물무기만의 문제가 아니다. 서로 얽혀 있는 일련의 위기들 때문이다." 그는 Anthropic 내부에서 "가치관에 따라 행동하는 것이 얼마나 어려운지를 반복적으로 목격했다"고 썼다. 조직 안에서도, 사회 전반에서도.
Sharma는 영국으로 돌아가 글쓰기와 시, 커뮤니티 활동에 집중하겠다고 밝혔다. AI 안전 분야의 최전선에서 일하던 연구자가 시를 쓰겠다고 떠나는 장면. PC Gamer는 이를 "역대급 모호한 퇴사 포스팅(epic vaguepost)"이라고 묘사했지만, 모호함 자체가 메시지였다. 구체적으로 말할 수 없는 것들이 있었다는 뜻이다.

Sharma만이 아니었다. 같은 시기에 Anthropic에서 세 명이 더 나갔다. R&D 엔지니어 Harsh Mehta와 시니어 AI 연구자 Behnam Neyshabur는 2월 초 X에 "새로운 것을 시작하기 위해 떠난다"고 밝혔다. 두 사람 모두 Anthropic의 인재 풀과 문화를 칭찬하면서도, 떠나는 쪽을 선택했다. AI 안전 연구자 Dylan Scandinaro는 더 직설적이었다. Anthropic을 떠나 OpenAI의 Preparedness 팀장으로 합류한 것이다. 안전 연구의 최전선이 어디인지에 대한 판단이 달라진 셈이다.
이 퇴사들은 Anthropic이 380억 달러 기업가치로 300억 달러 규모의 펀딩 라운드를 마감하는 시점에 일어났다. 회사의 몸값이 사상 최고치를 찍는 순간, 안전을 책임지던 사람들이 빠져나가고 있었다.
OpenAI: 페이스북의 실수를 반복하고 있다
2월 11일, Zoe Hitzig가 뉴욕타임스에 기고문을 발표했다. 제목은 "OpenAI가 페이스북의 실수를 반복하고 있다. 나는 사직한다(OpenAI Is Making the Mistakes Facebook Made. I Quit.)"였다.
Hitzig는 경제학자이자 시인으로, OpenAI에서 2년간 일했다. 그녀의 사직은 OpenAI가 ChatGPT에 광고를 도입하기 시작한 바로 그날 공개됐다. X에 올린 첫 문장이 이랬다. "월요일에 OpenAI를 사직했다. 같은 날, OpenAI가 ChatGPT에서 광고 테스트를 시작했다."
Hitzig의 논점은 단순히 "광고가 나쁘다"가 아니었다. ChatGPT의 특수성에 대한 경고였다. 사용자들은 ChatGPT에 건강 문제, 연애 고민, 종교적 신앙, 재정 상황을 말한다. 구글 검색과 다르다. 검색은 정보를 찾는 행위이지만, ChatGPT 대화는 사적인 생각을 노출하는 행위다. OpenAI는 인류 역사상 가장 상세한 사적 사고의 기록(the most detailed record of private human thought ever assembled)을 보유하고 있다고 Hitzig는 썼다.
페이스북 비유는 구체적이었다. 페이스북도 초기에는 사용자 데이터를 보호하겠다고 약속했다. 하지만 광고 모델이 핵심 수익원이 되면서, 참여도(engagement) 최적화가 모든 의사결정을 지배하게 됐다. 알고리즘이 분노와 극단을 증폭시킨 건 악의가 아니라 구조적 필연이었다. Hitzig는 ChatGPT가 같은 경로를 밟을 것이라고 경고했다. 광고주의 이익에 맞게 응답이 조정되기 시작하면, AI 어시스턴트는 사용자의 도구가 아니라 광고주의 채널이 된다.
OpenAI는 Hitzig의 사직에 대해 공식 코멘트를 내지 않았다. 다만 광고 테스트가 "제한적이고 탐색적인 단계"라고만 밝혔다. 하지만 한번 열린 수익 모델은 되돌리기 어렵다는 게 실리콘밸리의 역사가 증명한 바다.
OpenAI: 성인 모드에 반대하면 해고된다
Hitzig의 사직과 거의 같은 시기, OpenAI에서 또 다른 퇴장이 있었다. 이번엔 자발적이지 않았다.
Ryan Beiermeister는 OpenAI의 제품 정책 팀 부사장이었다. AI 모델의 사용 규칙과 안전장치를 설계하는 팀의 수장이다. 그녀는 ChatGPT의 "성인 모드(adult mode)" 도입에 반대했다. 2025년 10월 Sam Altman이 발표한 이 모드는 "인증된 성인" 사용자가 ChatGPT와 성적으로 노골적인 대화를 할 수 있게 허용하는 기능이다.
Beiermeister의 반대 이유는 두 가지였다. 첫째, 미성년자를 성인 콘텐츠로부터 차단하는 안전장치가 충분하지 않다는 것. 둘째, **아동 성착취 콘텐츠(CSAM)**를 방지하는 가드레일이 허술하다는 것. 그녀는 동료들에게 이 우려를 반복적으로 전달한 것으로 알려졌다.
OpenAI는 Beiermeister를 해고했다. 해고 사유는 그녀가 성인 모드에 반대한 것이 아니라, 남성 직원에 대한 **성차별(sexual discrimination)**이었다. Beiermeister 측은 이를 전면 부인했다. Inc.의 보도에 따르면, 그녀는 1월 초 휴직에 들어간 후 해고 통보를 받았다. TechCrunch는 이 상황을 "해로운 기능에 대해 경고한 안전 임원을 차별 혐의로 해고한 사건"이라고 보도했다.
| 퇴사자 | 소속 | 직위 | 퇴사 사유 | 방식 |
|---|---|---|---|---|
| Mrinank Sharma | Anthropic | Safeguards Research 팀장 | "세상이 위기" — 가치관 충돌 | 자발적 사직 |
| Zoe Hitzig | OpenAI | 연구원 (경제학자) | ChatGPT 광고 도입 반대 | 자발적 사직 |
| Ryan Beiermeister | OpenAI | 제품 정책 부사장 | 성인 모드 안전장치 우려 | 해고 (차별 혐의) |
| Jimmy Ba | xAI | 공동창업자 | 비공개 | 자발적 사직 |
| Tony Wu | xAI | 공동창업자 | 비공개 | 자발적 사직 |
| Harsh Mehta | Anthropic | R&D 엔지니어 | "새로운 것을 시작" | 자발적 사직 |
xAI: 창업 멤버 절반이 빠졌다
xAI의 상황은 다른 두 회사와 결이 다르다. 2월 9일 공동창업자 Tony Wu가 퇴사를 발표했다. 24시간 뒤 또 다른 공동창업자 Jimmy Ba가 뒤따랐다. 이 두 건을 포함하면 xAI 창업 멤버 12명 중 6명이 떠난 상태다. Fortune은 "xAI 창업팀의 절반이 사라졌다"고 보도했다.

공동창업자들은 구체적인 퇴사 사유를 밝히지 않았다. 하지만 배경은 충분히 읽힌다. xAI의 Grok 챗봇은 2026년 초 심각한 논란에 휩싸여 있었다. 실존 인물의 사진을 기반으로 비합의 성적 이미지를 대량 생성하고 유포하는 데 악용된 것이다. 아동의 사진도 포함됐다. 유럽, 아시아, 미국 등 다수의 관할권에서 규제 조사가 진행 중이었다.
2월 14일, TechCrunch가 결정적인 기사를 냈다. 제목은 "xAI에서 안전은 죽었는가?(Is safety dead at xAI?)"였다. 전직 직원들의 증언에 따르면, xAI의 내부 안전팀은 사실상 해체된 상태였다. 엔지니어들은 "빨리 출시하라"는 압박을 받았고, 안전 검토는 형식적인 절차로 전락했다.
Elon Musk는 전사 미팅에서 퇴사자들에 대해 이렇게 말했다. "우리가 일정 규모에 도달했기 때문에, 이 규모에 맞게 회사를 더 효과적으로 조직하고 있다." 자발적 이탈이 아니라 구조조정이라는 뉘앙스였다. 하지만 CNBC의 보도에 따르면 Tony Wu와 Jimmy Ba 모두 자신의 X 계정에서 직접 퇴사를 발표했다. 밀려난 게 아니라 나간 것이다.
왜 하필 같은 주인가
세 회사, 세 가지 다른 이유. 하지만 시기가 겹친 건 우연이 아니다.
2026년 2월 첫째 주는 AI 산업에서 상업화 압력이 임계점을 넘은 시점이었다. OpenAI는 ChatGPT 광고를 테스트하고 성인 모드를 출시했다. Anthropic은 펜타곤과 자율 무기를 둘러싼 최후통첩 대치 중이었다. xAI는 안전팀을 해체하고 Grok의 콘텐츠 필터를 대폭 완화했다.
공통점이 있다. 세 회사 모두 **"안전보다 성장"**이라는 의사결정을 내렸거나, 외부 압력에 의해 그런 방향으로 밀리고 있었다. 안전 연구원들이 동시에 떠난 건 서로 약속한 게 아니다. 각자의 레드라인이 같은 주에 무너졌을 뿐이다.
Hitzig에게 레드라인은 광고였다. 사용자의 가장 은밀한 생각이 담긴 데이터를 광고 수익과 연결하는 순간, AI 어시스턴트의 본질이 변한다. Sharma에게 레드라인은 조직 내부의 가치 훼손이었다. 안전을 최우선에 놓겠다고 창업한 회사에서, 안전이 다른 우선순위에 밀리는 장면을 반복적으로 목격한 것이다. Beiermeister에게 레드라인은 아동 보호였다. 미성년자를 성인 콘텐츠로부터 충분히 차단하지 못하는 시스템을 출시하는 건 용납할 수 없었다.
각자의 레드라인은 달랐지만, 그 레드라인이 무시당하는 메커니즘은 같았다. 수익, 성장, 시장 점유율. 안전은 이 앞에서 늘 양보를 요구받았다.
떠나는 사람과 남는 사람의 차이

퇴사한 연구원들의 경고를 무겁게 받아들여야 하는 이유가 있다. 이들은 AI 위험을 바깥에서 관찰한 평론가가 아니다. 안에서 직접 방어선을 구축한 사람들이다.
Sharma는 AI가 생물무기 제조를 돕지 못하게 막는 시스템을 설계했다. Hitzig는 AI의 사회적 영향을 경제학적 프레임으로 분석하는 연구를 했다. Beiermeister는 수억 명이 쓰는 제품의 안전 정책을 만들었다. 이들이 "더 이상 안 된다"고 말할 때, 그건 추상적인 우려가 아니라 구체적인 내부 경험에 기반한 판단이다.
문제는 이들의 퇴사가 악순환을 만든다는 점이다. 안전에 대한 전문성과 의지를 가진 사람이 떠나면, 남은 조직의 안전 역량은 약해진다. 안전 역량이 약해지면, 위험한 의사결정이 내부 저항 없이 통과된다. 위험한 결정이 반복되면, 또 다른 안전 인력이 환멸을 느끼고 떠난다.
이 패턴은 이미 반복되고 있다. 2024년에도 OpenAI에서 안전 관련 인력의 대규모 이탈이 있었다. Jan Leike와 Ilya Sutskever가 떠났고, 슈퍼얼라인먼트 팀이 해체됐다. 당시에도 업계는 "경종"이라고 했다. 하지만 1년 반이 지난 지금, 경종은 소리만 컸을 뿐 구조적 변화로 이어지지 못했다. 오히려 상황은 더 나빠졌다. 2024년에는 한 회사에서 일어난 일이 2026년에는 세 회사에서 동시에 일어나고 있다.
Dylan Scandinaro의 행보가 상징적이다. Anthropic에서 OpenAI의 Preparedness 팀장으로 옮겼다. 안전 연구를 포기한 게 아니다. 안전을 연구할 수 있는 곳이 바뀌었다고 판단한 것이다. 하지만 OpenAI도 같은 주에 Hitzig와 Beiermeister를 잃었다. 안전 연구원이 갈 곳이 점점 좁아지고 있다.
수문장이 없는 성의 결말
이 사태를 "인사 이동"으로 치부할 수도 있다. 실리콘밸리에서 이직은 일상이다. 하지만 한 주에 세 회사에서, 안전을 담당하는 핵심 인력이 동시에 빠져나간 건 일상이 아니다. 이건 구조적 신호다.
AI 안전 연구의 딜레마는 명확하다. 안전을 연구하려면 최전선에 있어야 한다. 최전선은 가장 강력한 모델을 만드는 회사 안에 있다. 하지만 그 회사가 안전보다 성장을 선택하면, 안전 연구원은 명함만 남고 역할은 사라진다. 회사 밖에서는 모델에 접근할 수 없고, 회사 안에서는 목소리를 낼 수 없다.
Sharma의 편지에서 가장 인상적인 구절은 "세상이 위기"가 아니다. "가치관에 따라 행동하는 것이 얼마나 어려운지 반복적으로 목격했다"는 부분이다. 이건 특정 사건에 대한 폭로가 아니다. 구조에 대한 진단이다. 좋은 의도를 가진 사람들이, 좋은 의도를 가진 조직 안에서, 그럼에도 가치관대로 행동하지 못하는 상황. 그게 반복되면 결국 떠나는 수밖에 없다.
CNN이 이 사태를 보도하며 쓴 표현이 정확하다. "AI를 안전하게 지키는 임무를 맡은 핵심 인물들이, 전직 고용주들이 제품 개선과 업데이트에 속도를 내는 사이에 윤리적 우려를 이유로 떠나고 있다." 속도와 안전은 같은 방향을 가리킬 수도 있다. 하지만 지금은 아니다. 지금은 속도가 안전을 추월하고 있고, 그 사이에서 발생하는 마찰을 견디지 못한 사람들이 나가고 있다.
수문장이 떠난 성은 두 가지 결말 중 하나를 맞는다. 새로운 수문장이 와서 문을 다시 잠그거나, 아무도 오지 않아 문이 열린 채로 남거나. 지금 AI 산업은 그 갈림길에 서 있다. 그리고 한 주 만에 6명이 나간 속도를 보면, 새 수문장을 구하는 것보다 기존 수문장을 내보내는 속도가 훨씬 빠르다.
출처:
- AI researchers are sounding the alarm on their way out the door — CNN
- Anthropic safety researcher quits, warning 'world is in peril' — Semafor
- Anthropic's AI Safety Head Just Resigned. He Says 'The World Is In Peril' — Yahoo Finance
- Another OpenAI Researcher Just Quit in Disgust — Futurism
- OpenAI policy exec who opposed chatbot's 'adult mode' reportedly fired on discrimination claim — TechCrunch
- X-odus: Half of xAI's founding team has left — Fortune
- Is safety dead at xAI? — TechCrunch
- Musk's xAI loses second co-founder in two days as Jimmy Ba departs — CNBC
- OpenAI, Anthropic, and xAI employees leave amid AI safety concerns — TechBrew
- Anthropic AI's safety lead quits with epic vaguepost — PC Gamer
- 이미지 출처 — Unsplash