- Authors

- Name
- 오늘의 바이브
54,886개. OpenAI Codex CLI 저장소가 받은 GitHub 스타 수다. Apache 2.0 라이선스로 완전 공개된 이 프로젝트는 이제 내부 아키텍처까지 낱낱이 드러냈다. 마이클 볼린이 작성한 "Unrolling the Codex Agent Loop" 시리즈가 그 시작이다. OpenAI가 자사의 핵심 기술을 이렇게까지 공개하는 건 이례적이다. 그들이 원하는 건 기술 민주화가 아니다. Claude Code를 정조준한 전면전이다.

에이전트 루프라는 심장
Codex CLI의 핵심은 에이전트 루프다. 사용자 입력을 받아 LLM을 통해 도구 호출 또는 응답을 생성하는 반복 구조다. 단순해 보이지만, 이 루프가 AI 코딩 에이전트의 모든 것을 결정한다.
단일 턴의 동작 과정을 보자. 첫 번째 단계에서 초기 프롬프트가 조립된다. 시스템 메시지에 담긴 코딩 표준 같은 일반 규칙, MCP 서버 목록으로 구성된 도구 정보, 그리고 텍스트·이미지·파일을 포함한 사용자 입력이 하나로 합쳐진다. AGENTS.md 파일과 환경 정보도 이 단계에서 주입된다.
두 번째 단계에서 LLM 추론이 시작된다. 출력은 이벤트 스트림 형태로 생성되며, 도구 호출 지시와 추론 단계가 포함된다. 여기서 중요한 건 reasoning outputs다. 모델이 어떤 계획을 세우는지, 왜 그런 결정을 내리는지가 이 단계에서 드러난다.
세 번째 단계는 내부 루프의 반복이다. 도구 호출 결과와 추론 결과를 프롬프트에 추가해서 다시 LLM에 보낸다. LLM이 "완료" 이벤트로 응답할 때까지 이 과정이 계속된다. 이게 에이전트 루프의 본질이다. 한 번의 요청이 아니라 여러 번의 추론과 도구 호출이 엮여서 하나의 작업을 완성한다.
성능 병목의 정체
마이클 볼린은 핵심 과제를 이렇게 설명했다. "LLM 추론 성능이 대화 과정에서 JSON 양에 비례해 이차적으로 증가한다." **O(n²)**라는 얘기다. 대화가 길어질수록 성능이 급격히 떨어진다.
해결책은 두 가지다. 첫째, 프롬프트 캐싱이다. 이전 추론 출력을 재사용해서 성능을 **O(n)**으로 개선한다. 캐시가 잘 동작하면 매번 처음부터 계산할 필요가 없다. 다만 도구 목록이 변경되면 캐시가 무효화된다. 초기 MCP 지원에서는 "도구를 일관된 순서로 열거하지 못하는 버그"가 있었고, 이게 캐시 미스를 유발했다.
둘째, 대화 압축(Compaction)이다. 토큰이 한계를 초과하면 특수 API 엔드포인트를 호출해서 대화를 더 작은 표현으로 바꾼다. 전체 대화 내용을 요약본으로 대체하는 셈이다. 이 두 가지 최적화가 없었다면 Codex CLI는 긴 코딩 세션에서 사용할 수 없었을 것이다.

Open Responses API라는 기반
Codex CLI는 Open Responses API 위에서 동작한다. Chat Completions와 Assistants API의 진화형이다. 상태를 가진 다중 턴 응답 생성을 위한 통합 인터페이스를 제공한다.
내장 도구가 핵심이다. 웹 검색, 파일 검색, 컴퓨터 사용, 코드 인터프리터가 기본 제공된다. 웹 검색은 호스팅된 검색 기능을 쓸 수 있게 해주고, 파일 검색은 PDF, Word, 프레젠테이션 등 다양한 형식을 지원한다. 컴퓨터 사용은 웹 애플리케이션 자동 조작, 폼 작성, 데이터 추출이 가능하다. 코드 인터프리터는 코드 실행과 분석을 담당한다.
다중 턴 상호작용이 이 API의 진가다. 이전 응답을 전달하면 더 높은 정확도의 추론 결과를 얻을 수 있다. 예전에는 여러 API 호출이 필요했던 기능이 단일 호출로 처리된다. SWE-bench에서 Chat Completions 대비 3% 성능 향상을 보였다는 게 OpenAI의 주장이다.
Reasoning Summaries도 주목할 만하다. 모델의 내부 chain-of-thought를 자연어로 요약해준다. 디버깅, 감사, 사용자 경험 개선에 유용하다. 왜 모델이 그런 결정을 내렸는지 추적할 수 있다는 뜻이다.
Claude Code와의 정면 승부
OpenAI가 이 모든 걸 공개한 이유를 이해하려면 경쟁 구도를 봐야 한다. Claude Code는 폐쇄 소스다. Anthropic이 코드를 공개하지 않는다. Codex CLI는 정반대 전략을 택했다.
| 항목 | Codex CLI | Claude Code |
|---|---|---|
| 소스 코드 | 오픈소스 (Apache 2.0) | 폐쇄소스 |
| 커스터마이징 | 높음 (코드 수정 가능) | 낮음 (피드백 의존) |
| 투명성 | 높음 (구현 세부사항 공개) | 낮음 (벤더 로직 불명) |
| 가격 | $0.002/1K 토큰 | $0.015/1K 토큰 |
| 월 구독료 | API 종량제 | $20/월 |
가격 차이가 눈에 띈다. 토큰당 7배 이상 저렴하다. Claude Code의 월 $20 구독 모델과 비교하면 사용량에 따라 훨씬 경제적일 수 있다. 특히 간헐적으로 사용하는 개발자에게 유리하다.
Hacker News에서 한 사용자는 이렇게 말했다. "Claude Code는 폐쇄적인 반면 이는 중요한 이득이다." 다른 사용자는 "주요 연구실의 코딩 에이전트 학습에 유용하다"고 평가했다. 커뮤니티 반응은 대체로 긍정적이다.

커뮤니티의 엇갈린 반응
긍정적인 반응이 주를 이룬다. 성능은 "completely seamless", "quite literally insane"으로 평가받았다. 솔로 개발자들이 여러 에이전트를 tmux 파이프라인에서 병렬 실행하는 사용 사례가 늘고 있다. 실제 프로덕션 코드베이스에서 테스트한 개발자들이 상세한 비용 분석을 문서화하고 있다.
부정적인 반응도 있다. 응답이 나올 때까지 대기 시간이 정해지지 않는다는 점이 불만이다. 도구가 유용하게 동작하려면 환경 설정이 복잡하다. 엔터프라이즈 맥락에서는 솔로 개발자만큼 효과적이지 않다는 평가도 있다. Claude Code 대비 기능이 부족하다는 지적도 나온다.
커뮤니티 규모를 비교하면 r/ClaudeCode가 주간 4,200명 이상의 기여자를 보유한 반면, r/Codex는 1,200명 수준이다. Claude Code가 더 활성화되어 있다. 하지만 Codex의 오픈소스 공개 이후 성장세가 가파르다.
100만 달러 펀드의 의도
OpenAI는 Codex Open Source Fund를 운영한다. $25,000 단위로 OpenAI API 크레딧을 제공하는 100만 달러 규모의 지원 프로그램이다. 초기 프로젝트 지원과 스타트업, 독립 개발자의 진입 장벽을 낮추는 게 목적이다.
이건 단순한 자선 사업이 아니다. 개발자 생태계를 OpenAI 플랫폼에 묶어두려는 전략이다. Codex CLI가 오픈소스라 해도 결국 OpenAI API에 의존한다. 모델 자체는 여전히 폐쇄적이다. GPT-5.2-Codex는 공개되지 않았다.
오픈소스 에이전트 + 폐쇄 모델이라는 조합이 OpenAI의 계산이다. 개발자에게 자유를 주는 것처럼 보이면서도 핵심 수익원인 API 호출은 유지한다. Claude Code가 통합 솔루션으로 월정액을 받는 것과 대조적이다.
Rust로 만든 이유
Codex CLI는 Rust로 구현됐다. 성능과 타입 안정성을 위해서다. 터미널에서 실행되는 경량 코딩 에이전트라는 정체성과 맞아떨어진다.
GitHub 저장소를 보면 활발한 커뮤니티 기여가 이뤄지고 있다. 버그 픽스와 개선사항이 빠르게 반영된다. 공식 문서, 예제, 기여 가이드라인이 잘 정리되어 있다. VS Code 같은 IDE 확장도 함께 제공된다.
오픈소스의 장점이 여기서 드러난다. Anthropic이 Claude Code에 문제가 있어도 사용자는 기다릴 수밖에 없다. Codex CLI는 커뮤니티가 직접 고칠 수 있다. 물론 모델이 잘못 동작하면 여전히 OpenAI에 의존해야 한다. 하지만 에이전트 로직만큼은 사용자가 통제할 수 있다.

향후 공개 로드맵
OpenAI는 이번 글이 시리즈의 첫 번째라고 밝혔다. 향후 다룰 주제는 CLI 아키텍처, 도구 사용 구현, Codex 샌드박싱 모델이다. 더 깊은 내부 구조가 공개될 예정이다.
샌드박싱 모델이 특히 중요하다. AI 에이전트가 코드를 실행할 때 보안이 핵심 과제다. 악의적인 코드 실행을 어떻게 막을 것인가. 권한 범위를 어떻게 제한할 것인가. 이 부분이 공개되면 다른 AI 코딩 도구들에게도 참고가 될 것이다.
도구 사용 구현도 관심사다. MCP(Model Context Protocol) 서버와의 통합이 어떻게 이뤄지는지 상세히 알 수 있을 것이다. 현재까지 공개된 내용만으로도 AI 에이전트 개발자들에게 충분히 유용하지만, 더 많은 정보가 나오면 생태계 전체에 영향을 미칠 수 있다.
투명성이 무기가 될 때
OpenAI의 이번 공개는 기술 민주화처럼 포장됐지만 본질은 마케팅이다. Claude Code가 성장하는 걸 지켜볼 수 없었던 것이다. "우리는 열려 있고, 그들은 닫혀 있다"는 메시지를 개발자 커뮤니티에 각인시키려는 전략이다.
실제로 효과가 있다. 5만 개 이상의 GitHub 스타가 그 증거다. 개발자들은 내부 구조를 알 수 있는 도구를 선호한다. 문제가 생겼을 때 디버깅할 수 있고, 필요하면 커스터마이징할 수 있다. 블랙박스보다 투명한 시스템이 신뢰를 얻는다.
하지만 진짜 투명성은 모델 자체의 공개다. Codex CLI가 아무리 오픈소스라도 GPT-5.2-Codex의 내부는 여전히 미스터리다. OpenAI는 에이전트 레이어의 투명성으로 모델 레이어의 불투명성을 가리고 있다. 영리한 전략이지만, 이 한계를 인식하는 개발자도 많다.
AI 코딩 도구 전쟁은 이제 시작이다. OpenAI와 Anthropic의 대결 구도가 선명해지고 있다. 오픈소스 대 폐쇄소스, 종량제 대 구독제, 커뮤니티 주도 대 벤더 주도. 어느 쪽이 승리할지는 개발자들의 선택에 달렸다. 확실한 건, 이 경쟁 덕분에 개발자들이 더 나은 도구를 더 저렴하게 쓸 수 있게 됐다는 점이다.