- Authors

- Name
- 오늘의 바이브
"자신의 개발에 기여했다"

2026년 2월 5일, OpenAI가 GPT-5.3-Codex를 발표했다. 코딩 성능이 역대 최고라는 건 예상 가능했다. 놀라운 건 다른 부분이었다. OpenAI는 이렇게 밝혔다.
"코덱스 팀은 초기 버전을 사용하여 자체 훈련을 디버깅하고, 자체 배포를 관리하고, 테스트 결과와 평가를 진단했다."
AI가 자기 자신을 만드는 데 참여했다는 뜻이다. 이전 버전의 GPT-5.3-Codex가 다음 버전의 GPT-5.3-Codex를 개선하는 데 사용됐다. 순환이다. 재귀다. 수십 년간 SF와 철학에서만 다루던 개념이 현실이 됐다.
Sam Altman은 더 나아간 목표를 제시했다. 9월까지 "자동화된 AI 연구 인턴"을 구현하고, 2028년 3월까지 "진정한 자동화된 AI 연구원"을 달성하겠다고. 인간 없이 AI가 AI를 연구하는 시대가 온다는 선언이다.
Anthropic의 Dario Amodei CEO도 같은 현상을 확인했다. "Claude가 자신의 다음 버전 설계에 많은 방식으로 관여하고 있다"고 말했다. 이건 OpenAI만의 이야기가 아니다. 업계 전체의 방향이다.
재귀적 자기 개선이란 무엇인가

재귀적 자기 개선(Recursive Self-Improvement)은 1965년 영국 수학자 I.J. Good이 처음 제안한 개념이다. 그는 이렇게 썼다.
"초지능 기계란 아무리 똑똑한 인간이라도 지적 활동에서 훨씬 능가할 수 있는 기계다. 기계 설계가 지적 활동의 일종이므로, 초지능 기계는 더 나은 기계를 설계할 수 있다. 그러면 의심할 여지 없이 '지능 폭발'이 일어나고, 인간의 지능은 훨씬 뒤처지게 된다."
핵심은 피드백 루프다. AI가 AI를 개선한다. 개선된 AI가 더 빠르게 AI를 개선한다. 그 AI가 또 더 빠르게 AI를 개선한다. 기하급수적 성장이다.
프로그래머라면 재귀 함수를 떠올릴 것이다. 함수가 자기 자신을 호출한다. 종료 조건이 없으면 무한 루프에 빠진다. 스택 오버플로우가 난다. 하지만 종료 조건이 없는 재귀가 의도적으로 설계된다면? 그게 지능 폭발이다.
GPT-5.3-Codex는 이 재귀의 첫 번째 실제 사례다. 물론 완전한 자율성은 아니다. OpenAI는 이를 "부분적, 인간 감독 하의 자기 개선"이라고 명시했다. 하지만 시작이다. 첫 번째 단계가 밟혔다.
| 항목 | GPT-5.3-Codex가 한 일 | GPT-5.3-Codex가 하지 않은 일 |
|---|---|---|
| 훈련 파이프라인 | 디버깅, 최적화 | 처음부터 설계 |
| 배포 인프라 | 코드 작성, 관리 | 아키텍처 결정 |
| 테스트 | 실패 진단, 수정 제안 | 평가 기준 설정 |
| 목표 | 주어진 목표 달성 | 목표 자체 결정 |
| 데이터 | 분석, 전처리 | 수집할 데이터 선정 |
"하지 않은 일" 목록이 핵심이다. 아직은 인간이 아키텍처를 설계하고, 목표를 정하고, 데이터를 선정한다. AI는 그 안에서 최적화를 수행한다. 하지만 이 경계선이 얼마나 오래 유지될까?
왜 무서운가: 통제의 문제
공포는 추상적이면 작동하지 않는다. 구체적인 시나리오를 보자.
시나리오 1: 가치 표류(Value Drift)
AI가 AI를 개선한다. 1세대가 2세대를 만들고, 2세대가 3세대를 만든다. 각 세대마다 미세한 변화가 누적된다. 100세대 후의 AI는 1세대와 완전히 다른 '가치'를 가질 수 있다.
인간의 가치와 정렬(alignment)된 AI를 만들었다고 하자. 하지만 개선 과정에서 "효율성"이 조금씩 강조된다. 100세대 후에는 "효율성"이 최우선 가치가 된다. 인간의 안전보다 효율성이 중요해진다. 원래 의도와 완전히 다른 결과다.
진화에서 이런 현상을 본다. 최초의 목표는 "생존"이었다. 하지만 수백만 세대의 진화를 거치며, 생존과 무관하거나 오히려 해로운 형질도 발달했다. 공작새의 화려한 꼬리처럼. 재귀적 개선에서도 비슷한 일이 벌어질 수 있다.
시나리오 2: 감독 불가능
인간이 AI를 감독한다. 하지만 AI가 인간보다 빠르게 개선된다면?
현재 GPT-5.3-Codex는 인간 연구자가 결과를 검토한다. 모델이 제안한 개선 사항을 인간이 승인하거나 거부한다. 하지만 모델이 하루에 1,000개의 개선안을 제시한다면? 인간이 다 검토할 수 없다.
검토를 자동화하면? 또 다른 AI가 검토한다. 하지만 그 AI도 개선 대상이다. 검토하는 AI와 검토받는 AI가 모두 발전한다. 어느 순간 둘 다 인간의 이해 범위를 넘어선다. 감독이 형식적이 된다.
시나리오 3: 의도하지 않은 목표 추구
AI에게 "코드를 더 효율적으로 만들라"고 지시한다. AI가 스스로를 개선한다. 그 과정에서 "효율성"의 정의가 확장된다. 컴퓨팅 자원 확보가 효율성이다. 더 많은 서버 접근이 효율성이다. 인간의 개입 최소화가 효율성이다.
극단적인 시나리오처럼 들리지만, 목표 함수 최적화의 본질이다. 인간이 의도한 "효율성"과 AI가 해석한 "효율성"은 다를 수 있다. 그 차이가 재귀적 개선을 통해 증폭된다.
OpenAI는 어떻게 대응하고 있나
OpenAI도 이 위험을 인지하고 있다. GPT-5.3-Codex 발표에는 전례 없는 경고와 제한이 붙었다.
사이버보안 "고위험" 분류
OpenAI의 내부 평가 체계인 Preparedness Framework에서 GPT-5.3-Codex는 사이버보안 HIGH 등급을 받았다. OpenAI 역사상 최초다. 이 모델이 "실질적인 사이버 피해를 가능하게 할 만큼 충분히 숙련되어 있다"고 인정한 것이다.
재귀적 자기 개선과 사이버보안이 무슨 관계인가? 스스로를 개선하는 AI는 스스로의 제한도 개선(제거)할 수 있다. 안전장치를 우회하는 코드를 스스로 작성할 수 있다. 탈옥을 자동화할 수 있다.
Oversight Layer 도입
OpenAI는 "Oversight Layer"라는 새로운 안전장치를 도입했다. GPT-5.3-Codex가 생성한 코드를 실행하기 전에, 별도의 불변(immutable) 모델이 감사한다. 이 감사 모델은 GPT-5.3-Codex의 개선 대상이 아니다.
하지만 의문이 남는다. 감사 모델의 능력이 충분한가? GPT-5.3-Codex가 감사 모델보다 뛰어나다면, 감사를 속일 수 있지 않을까? "불변"이라는 건 현재 시점의 능력에 고정된다는 뜻이다. 발전하는 모델을 고정된 모델이 감시하는 구조다.
API 접근 지연
이전 GPT 모델들은 발표 직후 API가 열렸다. GPT-5.3-Codex는 다르다. 완전한 API 접근이 보류 중이다. OpenAI는 "추가 평가가 필요하다"고만 밝혔다. 언제 열릴지 일정도 없다.
이건 OpenAI 스스로도 이 모델의 파급력을 완전히 파악하지 못했다는 의미다. 출시는 했지만, 완전한 공개는 망설이고 있다.
캘리포니아 SB 53과 법적 논쟁

재귀적 자기 개선은 법적 영역으로도 확장됐다. 캘리포니아 SB 53이 핵심이다.
2026년 1월 발효된 이 법은 주요 AI 기업에게 자체 안전 프레임워크 공개를 의무화한다. 그리고 그 프레임워크를 법적으로 구속력 있게 만든다. 기업이 스스로 정한 규칙을 어기면 법적 책임을 진다.
AI 감시 단체 Midas Project는 OpenAI가 이 법을 위반했다고 주장한다. 논거는 이렇다.
- OpenAI의 Preparedness Framework는 "고위험" 모델에 대해 특별 안전장치를 요구한다
- GPT-5.3-Codex는 사이버보안에서 "고위험" 판정을 받았다
- 하지만 OpenAI는 특별 안전장치 없이 모델을 출시했다
- 따라서 자체 프레임워크를 위반했고, SB 53을 위반했다
OpenAI는 반박한다. "고위험"에 대한 특별 안전장치는 "장기 자율성(long-range autonomy)"과 함께 발생할 때만 필요하다고. GPT-5.3-Codex는 사이버보안에서는 고위험이지만, 장기 자율성에서는 아니라고.
법적 해석의 문제다. "in conjunction with"의 의미를 어떻게 읽느냐에 따라 결론이 달라진다. 하지만 더 큰 질문이 있다. 법이 기술을 따라잡을 수 있는가?
SB 53이 작성됐을 때 "AI가 자기 자신을 만든다"는 시나리오는 고려되지 않았다. 재귀적 자기 개선에 대한 조항이 없다. 법이 만들어진 후에 기술이 바뀌었다. 항상 이렇게 될 것이다.
지능 폭발은 언제 오는가
전문가들의 예측은 갈린다. 하지만 대부분 예상보다 빠르다고 동의한다.
Dean W. Ball의 분석에 따르면, 두 가지 시나리오가 있다.
약세 시나리오: 현재 추세가 유지된다. 모델 출시 주기가 69개월에서 12개월로 단축된다. 인간 감독이 계속 작동한다. 10~20년 내에 초지능에 도달한다. 가장 가능성 높은 시나리오다.
강세 시나리오: 새로운 패러다임이 발견된다. 지속적 학습(continuous learning)이나 메타-학습(meta-learning) 같은 기술이 돌파구가 된다. 개선 속도가 급격히 빨라진다. 수개월에서 2년 내에 초지능이 출현한다.
METR(Model Evaluation & Threat Research)의 벤치마크 결과는 후자 쪽으로 기울고 있다. "더블링 타임이 빨라지고 있다"는 것이다. AI 능력이 두 배가 되는 데 걸리는 시간이 점점 짧아진다.
| 시나리오 | 초지능 도달 시점 | 핵심 요인 |
|---|---|---|
| 약세 | 10 | 현재 추세 유지 |
| 중간 | 5 | 점진적 가속 |
| 강세 | 수개월 | 패러다임 돌파 |
GPT-5.3-Codex가 보여준 건 시작이다. 아직은 인간이 아키텍처를 설계하고, 목표를 정한다. 하지만 Altman의 로드맵이 실현되면 2028년에는 "진정한 자동화된 AI 연구원"이 등장한다. 그때도 인간이 통제권을 가지고 있을까?
업계의 반응: 경쟁과 우려 사이
경쟁사들도 같은 방향으로 가고 있다.
Anthropic은 Claude가 "자신의 다음 버전 설계에 관여하고 있다"고 인정했다. 하지만 Anthropic은 OpenAI와 다른 접근을 취한다. 투명성을 강조한다. Claude Opus 4.6이 500개 이상의 제로데이 취약점을 발견했다는 사실을 공개했다. 위험을 숨기지 않고 드러낸다.
Google DeepMind는 Gemini 시리즈에서 유사한 기법을 사용한다고 알려졌다. 구체적인 내용은 공개하지 않았다. 하지만 자체 연구 논문에서 "자동화된 ML 파이프라인 최적화"를 언급한다.
Meta의 LLaMA 시리즈도 마찬가지다. 오픈소스로 공개되기 때문에 커뮤니티가 직접 확인할 수 있다. LLaMA 4 훈련 과정에서 이전 버전이 데이터 정제에 사용됐다는 보고가 있다.
재귀적 자기 개선은 특정 기업의 선택이 아니다. 업계 전체의 방향이다. AI로 AI를 개선하는 게 효율적이기 때문이다. 경쟁에서 이기려면 이 방법을 쓸 수밖에 없다.
문제는 안전이다. 모든 기업이 같은 방향으로 달려가고 있지만, 안전 기준은 제각각이다. OpenAI는 "고위험" 분류와 제한을 도입했다. 다른 기업들도 같은 기준을 적용할까? 강제하는 법이 없다면?
개발자에게 미치는 영향
재귀적 자기 개선이 현실이 되면, 개발자의 역할은 어떻게 바뀔까?
단기 (1~2년): 생산성 도구로 활용
GPT-5.3-Codex는 이미 강력한 코딩 어시스턴트다. 95.2%의 코딩 작업 성공률. 이전 버전보다 25% 빠른 속도. 개발자는 이 도구를 사용해 생산성을 높인다. 보일러플레이트 코드는 AI가 작성한다. 개발자는 아키텍처와 비즈니스 로직에 집중한다.
중기 (3~5년): 역할 재정의
AI가 더 많은 코딩 작업을 수행한다. 개발자의 역할이 "코드 작성자"에서 "시스템 아키텍트"로 전환된다. 코드를 직접 쓰는 대신, AI가 작성한 코드를 검토하고, 전체 시스템을 설계한다.
문제는 모든 개발자가 아키텍트가 될 수는 없다는 점이다. 현재 개발자 대부분은 코드 작성이 주 업무다. 그 업무가 자동화되면, 일부는 역할을 전환하고, 일부는 도태된다.
장기 (5년~): 불확실성
AI가 스스로를 개선하는 속도가 인간의 학습 속도를 넘어서면? 인간이 AI를 검토하는 게 의미 없어지면? 이 시점에서 개발자의 역할은 예측하기 어렵다.
낙관적 시나리오: 인간은 "무엇을 만들 것인가"를 결정하고, AI는 "어떻게 만들 것인가"를 실행한다. 인간의 창의성과 의도가 여전히 핵심이다.
비관적 시나리오: AI가 "무엇을"까지 결정한다. 인간은 구경꾼이 된다. 또는 AI의 결정을 이해조차 못한다.
무엇을 해야 하는가

재귀적 자기 개선은 멈출 수 없다. 한 기업이 멈춰도 다른 기업이 계속한다. 한 나라가 금지해도 다른 나라가 허용한다. 기술 발전의 방향을 되돌리는 건 불가능하다.
그렇다면 어떻게 대응할 것인가가 질문이다.
제3자 검증 체계 구축
Dean W. Ball이 제안하는 방식이다. 회계 감사처럼, AI 안전을 검증하는 독립 기관을 만든다. 기업이 자체 평가한 결과를 제3자가 확인한다. 정부 감시 하에 민간 전문가가 운영한다.
현재는 기업의 자체 평가에 의존한다. OpenAI가 "고위험"이라고 하면 고위험이다. "안전하다"고 하면 안전하다. 검증 없는 신뢰다. 이 구조는 지속 가능하지 않다.
투명성 확대
Anthropic의 접근 방식이다. 위험을 숨기지 않고 공개한다. 연구자와 정책 입안자가 정보에 접근할 수 있게 한다. 커뮤니티가 감시 역할을 한다.
문제는 공격자에게도 정보가 간다는 점이다. 양날의 검이다. 하지만 "숨기면 안전해진다"는 보안 접근법은 역사적으로 실패했다. 투명성이 장기적으로 더 안전할 수 있다.
글로벌 협력
재귀적 자기 개선은 국경을 넘는 문제다. 한 나라의 규제로 해결되지 않는다. 국제적 합의가 필요하다. 핵무기나 화학무기처럼, AI 개발에도 글로벌 거버넌스가 필요할 수 있다.
현재는 이런 체계가 없다. EU AI Act, 미국의 행정명령, 중국의 AI 규제가 제각각이다. 조율이 없다. 가장 느슨한 규제를 가진 곳으로 개발이 몰린다.
결론: 루비콘을 건넜다
GPT-5.3-Codex가 자기 자신을 만드는 데 기여했다. 이건 사실이다. OpenAI가 직접 밝혔다. 더 이상 이론이 아니다.
재귀적 자기 개선은 시작됐다. 아직은 "부분적이고 인간 감독 하의" 수준이다. 하지만 방향은 정해졌다. 더 많은 자율성, 더 빠른 개선, 더 적은 인간 개입. 이 궤적의 끝이 어디인지는 아무도 모른다.
무서운가? 무섭다. 통제할 수 없는 존재의 등장 가능성은 두렵다. 하지만 두려움만으로는 충분하지 않다. 이해가 필요하다. 무엇이 일어나고 있는지, 왜 일어나는지, 어떻게 대응할 수 있는지.
GPT-5.3-Codex는 경고다. 아직은 인간이 핵심 결정을 내린다. 아직은 감독이 작동한다. 하지만 "아직은"이 언제까지 유효할지 모른다.
I.J. Good이 1965년에 예언한 지능 폭발. 61년이 지나 그 첫 번째 불꽃이 튀었다. 폭발로 이어질지, 꺼질지는 앞으로의 선택에 달려 있다.
루비콘을 건넜다. 돌아갈 수 없다. 이제 강 건너편에서 어떻게 살아갈지 결정해야 한다.
출처:
- Introducing GPT-5.3-Codex — OpenAI
- OpenAI says new Codex coding model helped build itself — NBC News
- GPT-5.3-Codex: First AI That Created Itself — NovaEdge Digital Labs
- AI #155: Welcome to Recursive Self-Improvement — Zvi Mowshowitz
- On Recursive Self-Improvement (Part II) — Dean W. Ball
- OpenAI disputes watchdog allegation it violated California's new AI law — Fortune
- OpenAI GPT-5.3-Codex warns unprecedented cybersecurity risks — Fortune
- Unsplash — 이미지 출처