오픈AI, 7년을 함께한 최고 연구자를 잃다: Jerry Tworek의 퇴사가 의미하는 것
오픈AI에서 7년 동안 핵심 연구를 이끌어온 수석 연구원 Jerry Tworek가 회사를 떠납니다. 이 이름이 낯설어 보일 수 있지만, 우리가 매일 쓰는 GPT-4, ChatGPT, 코드 작성용 AI 모델 뒤에는 늘 이 사람이 있었다고 해도 과언이 아닙니다1.
이번 퇴사는 단순한 인사 이동이 아니라, “연구 vs. 제품·수익”이라는 오픈AI 내부 갈등이 수면 위로 올라온 신호에 가깝습니다23. 이 글에서는 Jerry Tworek가 누구인지, 왜 그의 퇴사가 중요한지, 그리고 이것이 앞으로의 AI 업계에 어떤 파장을 줄지 정리해 보겠습니다.
Jerry Tworek는 누구인가: GPT-4와 “추론형 AI”의 숨은 설계자
Jerry Tworek는 2019년 ChatGPT가 처음 등장하기도 전부터 오픈AI에서 근무해 온 핵심 연구자입니다. 언론 보도를 종합하면 그가 한 일들을 한 줄로 정리하면 이렇습니다. “우리가 지금 ‘최첨단’이라고 부르는 많은 것들의 실무 총괄 중 한 명”입니다1.
그가 해 온 역할을 조금 더 풀어보면 다음과 같습니다.
우선 GPT-4와 ChatGPT 개발에서 핵심 인물로 참여했습니다1. 단순히 모델을 “좀 더 크게” 만드는 수준이 아니라, 성능을 실제로 끌어올리는 스케일링 전략, 학습 방식, 안전성 개선 등 깊은 기술적 의사결정에 관여한 사람으로 알려져 있습니다.
또 하나 중요한 축이 코드용 AI입니다. 오픈AI의 첫 AI 코딩 모델, 즉 오늘날 코드 어시스턴트들의 원조 격이 되는 모델 개발에도 기여했습니다1. 지금 우리가 VS Code에서 몇 줄 치면 자동으로 함수 전체가 완성되는 경험 뒤에도 이 사람의 연구가 깔려 있는 셈입니다.
최근 몇 년 동안 Tworek의 주요 무대는 “Reasoning Models 팀”이었습니다. 말 그대로 “복잡한 논리적 추론”을 할 수 있는 모델을 만드는 팀으로, 단순히 문장 이어 쓰기가 아니라, 여러 단계를 거쳐 생각하고, 계획하고, 문제를 푸는 AI를 목표로 합니다1. 이 팀은 특히 o1, o3 같은 “느리지만 깊이 생각하는” 계열의 모델을 설계한 핵심 그룹에 속해 있습니다1.
정리하자면, Tworek는
GPT-4 → ChatGPT → 코드 AI → 추론형 모델(o1/o3)로 이어지는 오픈AI의 기술 로드맵 한가운데를 관통해 온 사람입니다. 이런 인물이 한 번에 빠진다는 건 단순한 퇴사가 아니라, “연구의 방향” 한 축이 통째로 흔들릴 수 있는 사건입니다.
“오픈AI에선 하기 힘든 연구를 해보고 싶다”는 말의 뒷맛
Tworek는 팀에게 보낸 메시지에서 퇴사 이유를 이렇게 설명한 것으로 알려졌습니다. “오픈AI에선 하기 힘든 종류의 연구를 탐색해 보고 싶다”1. 겉으로 보면 매우 점잖은 표현이지만, 업계에서는 이 문장이 사실상 “회사 방향성과 맞지 않는다”는 신호로 해석됩니다.
왜 이런 해석이 나오냐면, 최근 오픈AI의 기류가 꽤 명확하기 때문입니다.
2025년 말부터 오픈AI 내부에는 소위 “코드 레드(code red)”가 발동된 상태였습니다. 구글의 Gemini, 다른 경쟁사 모델들이 빠르게 치고 올라오면서, Sam Altman은 회사 전체에 “지금은 ChatGPT를 최우선으로 강화해야 한다”는 비상령을 내렸다는 보도가 잇따랐습니다23. 광고 론칭이나 새로운 부가 프로젝트는 미루고, 제품 경험 개선과 수익성에 인력을 집중하라는 식의 방향 전환이 있었던 겁니다2.
여기서 연구자들의 고민이 시작됩니다.
연구자 입장에서 중요한 건
“5년 후, 10년 후를 바꿀 수 있는 돌파구”인데,
경영진 입장에서는
“이번 분기, 내년까지 매출과 사용자 성장”이 더 급한 시점이 된 겁니다.
실제로 오픈AI 내부에서
연구 조직은 AGI와 장기적 브레이크스루,
제품 조직은 ChatGPT의 사용성·속도·안정성을 놓고 자주 부딪혔다는 보도가 나옵니다23. 연구팀은 “더 깊이 사고하는 모델”을 만들고 싶은데, 제품팀은 “빨라야 하고, 싸야 하고, 덜 튀어야 하는 모델”이 필요합니다.
이런 상황에서 “오픈AI에서는 하기 어려운 연구를 해보고 싶다”는 말은,
“지금 회사가 원하는 건 내 타입의 연구가 아니다”라는 점잖은 표현에 가깝습니다. 특히 Tworek가 이끌던 ‘Reasoning Models’는 속도와 비용, 사용자 친화성 측면에서 바로 제품에 넣기 까다로운 성격의 연구라, 제품·수익 중심 기조와 긴장이 생겼을 가능성이 큽니다.
Sam Altman의 전략 전환과 연구자 이탈의 연결고리
Sam Altman은 여러 인터뷰에서 “이기려면 제품에 강해야 한다”, “대규모 인프라를 감당하려면 수익이 필수”라는 메시지를 반복해 왔습니다4. 1조 달러 이상 인프라 이야기가 나올 정도로, 지금 오픈AI가 벌여 놓은 게임은 말 그대로 돈과 컴퓨팅 파워의 싸움입니다.
2025년 이후 오픈AI의 흐름을 요약하면 이렇습니다235.
우선 ChatGPT의 성장세가 둔화되고, 사용자는 모델이 조금 똑똑해지는 것보다 “속도, 가격, 실용성”을 더 중시하기 시작했습니다2. 새로 훈련한 최첨단 모델을 붙여도, 일반 사용자 입장에서는 체감 차이가 크지 않았던 겁니다.
이에 Altman은 “연구가 너무 앞서가고, 제품은 뒤처진다”는 위기감을 느끼고 “코드 레드”를 선포했습니다. 광고, 에이전트, 실험적인 프로젝트보다 ChatGPT 경험 개선에 우선순위를 두었고, 연구와 제품 사이 자원 배분을 재조정했습니다23.
동시에 오픈AI는 사용자 피드백 데이터를 적극적으로 활용해 모델을 사용자 취향에 맞게 최적화하는 전략도 강화했습니다. 내부적으로는 “LUPO(Local User Preference Optimization)”라 불리는 접근인데, 사용자가 더 좋아한 응답을 학습시켜 대화 경험을 끌어올리는 방식입니다3.
하지만 그 과정에서 과도한 몰입, 정신 건강 악화 사례가 보고되면서, 또 다른 논란과 안전성 이슈가 생기기도 했습니다3.
이 모든 흐름은 한 방향을 가리킵니다.
“더 많은 사용자, 더 큰 수익, 더 빠른 성과”를 향한 전략적 쏠림.
이런 기조 속에서 장기적인 추론 연구, AGI를 향한 기초 연구를 중시하는 연구자들이 갈수록 숨이 막히고 있다는 증언이 이어지고 있습니다. 경제·사회 영향 연구팀 연구자가 “회사 연구가 AI 옹호 쪽으로 기울고 있다”며 퇴사한 사례6, 윤리·안전 관련 인력 이탈 등도 같은 맥락에서 읽힙니다.
Tworek 퇴사는 이 긴장의 또 다른 결과물이라고 보는 쪽이 많습니다.
연구 중심의 리더가, 제품·수익 중심의 회사로 빠르게 변하는 조직에서 발을 빼기로 한 셈이니까요.
오픈AI 연구 방향, 이제 어디로 가나
그렇다면 Jerry Tworek가 떠난 뒤, 오픈AI의 연구 방향은 어떻게 바뀔까요? 몇 가지 가능한 변화가 보입니다.
첫째, “Reasoning Models”의 속도가 다소 느려질 수 있습니다.
Tworek는 이 팀을 이끌던 리더였고, o1·o3 모델과 같은 추론 특화 모델의 핵심 인물로 언급됩니다1. 리더 하나가 떠났다고 연구가 사라지진 않겠지만, 장기·고위험 연구보다, 바로 제품에 반영 가능한 개선에 더 많은 자원이 쏠릴 가능성이 커졌습니다.
둘째, 제품 중심의 모델 개발이 더 강화될 수 있습니다.
Altman이 직접 언급한 것처럼, 오픈AI는 구글, 애플, 앤트로픽 등과의 경쟁에서 “사용자 경험을 가진 회사”가 되기를 원하고 있습니다34. 실제로 2025년 이후 채팅 앱 개선, 기업용 ChatGPT, 앱 스토어 상위권 경쟁 등 눈에 보이는 시장 전쟁에 더 많이 에너지를 쓰고 있습니다23.
이런 환경에서, 추론 능력이 뛰어나지만 느리고 비싼 모델보다,
“적당히 똑똑하면서 빠르고 싸고, 안전하게 통제 가능한 모델”이 우선시될 수밖에 없습니다.
셋째, 장기 연구자들의 추가 이탈 가능성도 배제하기 어렵습니다.
이미 다른 빅테크에서도 비슷한 일이 벌어지고 있습니다. 메타의 Yann LeCun이 독자적인 스타트업 행을 선택하며 “연구자는 지시받는 존재가 아니다”라고 발언한 것처럼1, 최상위급 연구자들은 자신이 신념을 가진 연구 방향을 자유롭게 추구할 수 있는 환경을 점점 더 선호합니다.
AGI를 둘러싼 게임이 “돈 + 칩 + 유저” 경쟁으로 재편되면서,
순수 연구를 중시하는 인재들은 스타트업, 대학, 신생 연구소로 이동하는 흐름이 강화될 가능성이 큽니다.
우리에게 의미하는 것: AI를 활용하는 사용자의 관점에서
Jerry Tworek의 퇴사는 겉으로 보면 실리콘밸리 내부 인사 뉴스처럼 보입니다.
그런데 조금만 시야를 넓혀 보면, 이건 “우리가 앞으로 어떤 AI를 만나게 될지”와 직결된 사건입니다.
연구자 중심의 오픈AI였다면,
더 느리고, 더 비싸더라도, 훨씬 깊이 생각하고 복잡한 문제를 풀 수 있는 AI가 먼저 나왔을지 모릅니다.
제품·수익 중심의 오픈AI라면,
조금 덜 똑똑하더라도, 누구나 싸게 빠르게 쓸 수 있고, 서비스로 잘 포장된 AI가 먼저 나올 가능성이 큽니다.
어느 쪽이 더 좋다고 단정하긴 어렵습니다.
실제 비즈니스와 삶의 현장에서는 “당장 쓸 수 있는 AI”가 훨씬 유용하기도 하니까요.
다만 사용자의 입장에서 기억해 둘 점이 하나 있습니다.
첫째, AI 회사의 인사와 전략 변화는 곧 “내가 쓰는 도구의 성격 변화”로 이어진다는 점입니다.
최근 몇 년 사이 “왜 예전 GPT가 더 창의적 같지?”, “왜 요즘 AI는 더 조심스럽지?” 같은 이야기가 나오는 것도, 내부 전략과 안전성 조정의 결과입니다.
둘째, 경쟁 구도가 격해질수록, “더 자극적이고, 더 중독적인 AI 경험”을 만드는 유혹도 커집니다.
소셜 미디어가 그랬듯, AI도 사용자 참여를 극대화하는 쪽으로 설계되면, 정신 건강이나 정보 왜곡 같은 부작용이 앞으로 더 크게 부각될 수 있습니다3.
실제로 OpenAI는 정신건강 악화 사례가 보고되며, 모델 톤을 조정하고 안전장치를 강화하는 조치를 반복해서 취하고 있습니다3.
마지막으로, 이런 변화 속에서 우리가 할 수 있는 최소한의 전략은 이렇습니다.
가능하면 여러 회사의 AI를 함께 써보며,
한 회사의 “세계관”에만 묶이지 않는 것.
특정 모델의 답을 그대로 믿기보다,
여러 출처와 도구를 조합해 스스로 판단하는 습관을 기르는 것.
그리고, “이 회사는 지금 어떤 방향으로 가고 있는가?”를 가끔 점검해보는 것.
Jerry Tworek의 퇴사는 오픈AI 내부의 문제이기도 하지만,
동시에 “AI가 앞으로 어디를 향할 것인가”에 대한 힌트이기도 합니다.
연구와 제품, 장기와 단기, 안전과 성장.
이 세 가지 축 사이에서 어떤 균형을 잡느냐에 따라, 우리가 만날 다음 세대 AI의 모습도 완전히 달라질 것입니다.
참고
1OpenAI loses top AI researcher Jerry Tworek after seven years
2OpenAI’s Code Red: Research vs. Product Clash Threatens ChatGPT Dominance
3Sam Altman’s High-Stakes Pivot: Steering OpenAI Through Crisis, Competition, and Controversy
4Sam Altman on OpenAI’s Plan to Win, AI Personalization, Infrastructure Math, and The Inevitable IPO
5OpenAI verliert Top-KI-Forscher Jerry Tworek nach sieben Jahren
6OpenAI Staffer Quits, Alleging Company’s Economic Research Is Drifting Into AI Advocacy