Published on2026년 2월 25일AI 안전 연구원이 한 주에 6명 퇴사한 이유ai-safetyAI안전openai오픈AIanthropic앤스로픽xairesearcher-departure연구원퇴사2026년 2월 첫째 주, OpenAI, Anthropic, xAI에서 안전 연구원 6명 이상이 동시에 퇴사했다. 광고, 성인 모드, 자율 무기까지 각자의 레드라인이 무너지는 순간이었다.
Published on2026년 2월 24일OpenAI가 Nvidia를 버린 첫 번째 모델의 정체openai오픈AIcodex-spark코덱스스파크cerebras세레브라스nvidia엔비디아ai-chipAI칩OpenAI가 Nvidia GPU 없이 배포한 첫 모델 GPT-5.3-Codex-Spark의 실체를 분석한다. Cerebras WSE-3 위에서 초당 1,000토큰을 찍는 이 모델은 빠르지만, 정확도를 내줬다.
Published on2026년 2월 23일Codex가 스스로 '위험하다' 인정한 첫 AI다codex코덱스openai오픈AIcybersecurity사이버보안ai-safetyAI안전gpt-5-3GPTOpenAI가 GPT-5.3-Codex의 시스템 카드에서 사이버보안 위험도를 High로 자체 분류했다. AI 기업이 자사 모델을 고위험으로 인정한 최초의 사례다.
Published on2026년 2월 19일OpenAI가 Codex 내부를 공개한 진짜 이유openaicodex코덱스open-source오픈소스ai-codingAI코딩OpenAI가 Codex CLI의 에이전트 루프 아키텍처를 상세히 공개했다. 5만 4천 개 스타를 받은 이 프로젝트의 내부 구조 공개는 기술 민주화가 아니라 Claude Code와의 전면전 선언이다.
Published on2026년 2월 17일GPT-5.3이 자기 자신을 만들었다는 게 무서운 이유gpt-5-3GPTopenai오픈AIrecursive-self-improvement재귀적자기개선codex코덱스ai-safetyAI안전intelligence-explosion지능폭발OpenAI가 GPT-5.3-Codex를 발표하며 "이 모델이 자기 자신을 만드는 데 기여했다"고 밝혔다. 수십 년간 이론으로만 존재하던 재귀적 자기 개선이 현실이 된 순간이다.