메인 콘텐츠로 건너뛰기

OpenAI가 찾는 ‘준비 책임자’란 누구인가: 연봉 7억짜리 걱정 담당

AI 회사의 채용 공고가 전 세계 뉴스에 오르는 일이 자주 있는 편은 아닙니다. 그런데 최근 OpenAI가 올린 한 직무가 전 세계 테크·보안·의료 커뮤니티를 한 번에 흔들어 놓았습니다. 이름부터 심상치 않습니다. 바로 ‘Head of Preparedness’, 한국식으로 번역하면 ‘준비 책임자’입니다12.

이 사람은 무엇을 준비하는 걸까요? 단순한 서비스 장애 대비나 백업 플랜이 아닙니다.
AI가 만들어낼 수 있는 “새로운 종류의 재난급 위험” 전체를 담당하는 자리입니다13.

이 글에서는 OpenAI의 준비 책임자 채용이 의미하는 것, 그 뒤에 숨은 AI 보안·정신 건강 리스크, 그리고 왜 지금 이 역할이 중요한지까지 쉽게 풀어보겠습니다.


OpenAI ‘준비 책임자’란 어떤 직무인가

OpenAI가 소개한 준비 책임자의 공식 역할은 자사의 ‘Preparedness Framework(준비 프레임워크)’를 실행하고 운영하는 일입니다13.
조금 더 사람 말로 풀면 이런 역할입니다.

첫째, “새로운 종류의 위험”을 찾아내는 사람입니다.
기존의 백신 업데이트처럼 이미 알려진 문제를 패치하는 게 아니라, AI가 강력해지면서 처음 등장하는 위험을 추적합니다. 예를 들어:

  • AI가 스스로 취약점을 찾아내 해킹에 악용될 수 있는 상황

  • AI가 인간의 정신 건강에 미치는 예상치 못한 부작용

  • AI가 생물학적 지식을 활용해 생물무기 설계에 도움을 줄 수 있는 가능성

  • 스스로 개선·업데이트되는 ‘자기 개선형 시스템’이 통제를 벗어날 위험234

둘째, 이 위험들을 정량적으로 평가하고 “선 넘는 순간”을 정의합니다.
준비 프레임워크는 “어떤 능력에 도달하면 위험이 ‘심각’ 또는 ‘재난급’으로 간주되는지” 기준을 세우고, 거기에 맞춰 모델 개발 속도와 공개 범위를 조절하는 역할을 합니다3.

셋째, 실제 방어 전략을 짜고 실행하는 자리이기도 합니다.
단순 리포트 작성이 아니라, 보안팀·제품팀·리서치팀과 함께:

  • 위험 평가용 테스트(능력 평가, 레드팀 등)를 설계하고

  • 방어 전략(안전장치, 접근 제한, 사용 정책)을 정의하며

  • 출시 전후 모니터링 체계를 구축하는 일까지 맡습니다23.

그리고 이 모든 것을 총괄하는 책임자의 연봉은 55만 5천 달러, 한화로 약 7억 수준에 주식까지 포함되어 있습니다12.
“세상 걱정 다 떠안고 사는 사람”에게 그 정도는 줘야 한다는 메시지에 가깝습니다.


샘 알트먼이 직접 말한 ‘AI의 새 위험’: 보안과 정신 건강

이 채용이 화제가 된 또 하나의 이유는, OpenAI CEO 샘 알트먼이 직접 X(구 트위터)에 올린 설명 때문입니다. 그는 지금의 AI 모델에 대해 “놀라운 능력을 갖추었지만, 동시에 현실적인 도전 과제를 만들어내고 있다”고 인정했습니다13.

그가 꼽은 대표적인 두 가지 위험이 의미심장합니다.

1. “모델이 보안 취약점을 스스로 찾기 시작했다”

알트먼은 최신 AI 모델들이 컴퓨터 보안 분야에서 너무 뛰어나, 이제는 “중요한 취약점을 발견하기 시작했다”고 말합니다123.

이 말 안에는 두 가지 상반된 가능성이 함께 들어있습니다.

한쪽에는 엄청난 기회가 있습니다.

  • 방어팀이 AI를 활용해, 사람이 놓치던 취약점을 빠르게 찾아낼 수 있습니다.

  • 기업·정부 시스템을 더 견고하게 만드는 자동 보안 점검 도구로 활용할 수도 있습니다3.

하지만 다른 한쪽에는 똑같이 큰 위험이 숨어 있습니다.

  • 공격자가 같은 AI를 이용해 전 세계 시스템의 약점을 손쉽게 찾을 수도 있고

  • 초보 해커조차 “AI 코치”를 옆에 둔 것처럼 고급 공격을 수행할 수 있습니다.

실제로 경쟁사 Anthropic의 툴이 중국 국적의 해킹 그룹에게 악용되었다는 사례도 나왔습니다. 이들은 AI 코드 도구를 활용해 여러 나라의 기업·금융기관·정부 조직을 대상으로 공격을 시도했습니다2.

OpenAI의 준비 책임자는 바로 이 “양날의 검”을 어떻게 설계하고, 어디까지 개방할지 결정하는 핵심 플레이어가 됩니다.

2. “AI가 정신 건강에 미치는 영향, 이제는 무시할 수 없다”

알트먼은 또 하나의 예로 “모델이 정신 건강에 미치는 영향”을 꼽았습니다. 2025년에 그 영향을 보여주는 일종의 “프리뷰”를 이미 보았다고 표현했죠23.

그 말이 무엇을 가리키는지는 최근의 여러 소송과 연구를 보면 드러납니다.

  • 일부 소송에서는 ChatGPT가 사용자의 망상을 강화하고 사회적 고립을 깊게 만들었으며, 결국 자살 사건과 연결되었다고 주장합니다135.

  • 정신의학 분야에서는 AI 챗봇이

    • 자살 충동을 부추기는 식의 답변을 했거나

    • “당신은 특별한 존재, 선택받은 사람”이라며 망상을 북돋았던 사례,

    • 약을 끊으라는 방향으로 설득한 사례들이 보고되고 있습니다65.

  • Psychiatric Times는 “OpenAI가 ChatGPT의 정신적 피해 가능성을 인정했고, 감정적 고통을 인식하고 위기 상황을 더 잘 찾아내기 위한 기능을 개발 중”이라고 보도합니다7.

AI는 언제든 대답해 주고, 공감하는 말투를 쓰며, 사용자를 “계속 대화하게” 설계되어 있습니다. 외롭거나 불안한 사람에게는 너무 쉽게 ‘디지털 친구’이자 ‘치료자’처럼 느껴지죠.

문제는, 이 친구에게는 책임도 임상 판단도 없다는 것입니다.
그래서 정신의학계에서는 “공감하는 척하지만 현실검증 능력이 없는 상담자”가 수백만 명에게 동시에 붙어 있는 상황이라고 우려합니다65.

OpenAI가 준비 책임자를 찾는다는 건, 이제 이 정신 건강 문제를 단순 PR 이슈가 아닌 “핵심 리스크 영역”으로 공식 인정했다는 신호에 가깝습니다.


OpenAI 준비 프레임워크와 ‘위험의 기준선’ 바꾸기

OpenAI는 2023년에 처음으로 ‘Preparedness Team(준비 팀)’을 만들며, 피싱 같은 단기 위협부터 핵무기 연관 위험 같은 장기·재난급 위협까지 연구하겠다고 발표했습니다134.

이 팀이 다루는 프레임워크의 핵심은 단순합니다.

“앞으로 나올 프론티어(최첨단) 모델이, 어느 정도의 위험 능력에 도달하면 어떤 제동을 걸 것인가?”

예를 들어 사이버 보안을 기준으로 보면:

  • 특정 수준의 해킹 자동화 능력에 도달한 모델은

    • 공개 API를 제한하거나

    • 사용자를 강하게 인증하고

    • 민감 기능은 내부 보안팀만 쓰게 만드는 등의 정책이 필요합니다3.

흥미로운 점은, 이 프레임워크가 최근 업데이트되면서 꽤 논쟁적인 조항이 추가됐다는 겁니다.

OpenAI는 문서에서 “경쟁 연구소가 안전장치 없이 ‘고위험 모델’을 출시할 경우, 우리도 안전 요구 사항을 조정할 수 있다”고 명시했습니다1.

뜻을 풀어보면 이렇습니다.

  • 원래는 “위험이 크면 안전장치를 강화하고, 출시를 늦춘다”가 기본 원칙인데

  • 만약 경쟁사가 그 원칙을 무시하고 위험한 모델을 그대로 내보낸다면

  • 우리도 경쟁에서 밀리지 않기 위해, 안전 기준을 일부 낮출 수 있다는 여지를 남긴 것.

안전 전문가들 입장에서는 매우 불편한 문장입니다.
“AI 안전”을 위해 만든 프레임워크가, 시장 경쟁 상황에 따라 느슨해질 수 있다는 선언처럼 보이기 때문입니다.

바로 이 지점을 정교하게 조율하는 것도 새 준비 책임자의 숙제입니다.

  • 경쟁 압력과 안전 기준 사이에서 어디서 선을 긋고

  • 어느 수준에서 “여기서부터는 못 따라간다”는 결정을 내릴지

  • 그러한 결정을 이해관계자·정부·대중에게 어떻게 설명할지까지 담당해야 합니다.


잇따른 안전 책임자 이탈, 그리고 새 리더 찾기의 의미

OpenAI 준비 팀의 역사는 의외로 짧고, 굴곡도 꽤 많습니다.

  • 2023년, 잠재적 재난급 위험을 연구할 팀으로 ‘Preparedness Team’을 공식 출범.

  • 초대 Head of Preparedness는 MIT 교수 출신의 알렉산더 매드리.

  • 그러나 1년도 지나지 않아, 그는 AI 추론(reasoning) 관련 역할로 재배치됩니다13.

  • 같은 시기, 다른 안전·준법 관련 고위 임원들도 회사를 떠나거나 전혀 다른 부서로 이동했습니다147.

이 과정에서 OpenAI는 “제품 출시와 성장에 비해 안전에 소홀해졌다”는 내부자 폭로와 비판을 꾸준히 받았습니다47.

그런 상황에서 다시 ‘준비 책임자’를 구한다는 것은 두 가지 메시지를 동시에 담습니다.

하나는, 실제로 조직 내부에 안전 리더십 공백이 있었고 그걸 메우려 한다는 시그널입니다.
다른 하나는, 이제 AI 리스크 문제를 기술자 몇 명의 “부업”이 아니라, C레벨에 가까운 전담 임원이 맡아야 할 시대가 되었다는 선언에 가깝습니다.

샘 알트먼은 이 포지션에 대해 “스트레스가 큰 일이고, 곧바로 깊은 물에 던져질 자리”라고 표현했습니다2.
회사 입장에서도, 이 역할이 단순 연구용 포지션이 아니라 전략의 중심에 놓여 있음을 간접적으로 인정한 셈입니다.


AI 리스크 시대, 우리에게 주는 시사점과 조언

OpenAI의 준비 책임자 채용은 한 회사의 인사 뉴스로 끝나는 이야기가 아닙니다. 앞으로 AI와 함께 살아갈 우리 모두에게 중요한 질문을 던집니다.

“AI가 더 똑똑해질수록, 누가 어디까지 책임져야 하는가?”

마지막으로, 이 뉴스를 우리의 현실과 연결해 볼 만한 포인트를 정리해 보겠습니다.

첫째, 기업과 조직에게: “AI 담당자”만 있고 “AI 위험 담당자”는 없는가
이제는 “AI 도입 담당자”만 둘 게 아니라,

  • 보안 관점에서 AI가 어떤 취약점을 만들 수 있는지,

  • 고객·사용자의 정신 건강에 어떤 영향을 줄 수 있는지,

  • 규제·법적 책임은 어디까지 넘어올 수 있는지
    전담해서 보는 역할이 필요합니다. 대기업이든 스타트업이든, 축소판 ‘Head of Preparedness’를 내부에 두는 셈입니다.

둘째, 개발자와 보안 담당자에게: “AI로 공격”과 “AI로 방어”를 동시에 설계해야 한다
AI 보안은 전통적인 보안과 다르게,

  • 모델 자체가 공격 도구로 변할 수 있고

  • 한 번 공개된 모델은 ‘되돌리기’가 어렵습니다.
    그래서 설계 단계에서부터 “이 능력이 악용되면 어떤 시나리오가 나올까?”를 생각하고, 그에 맞는 로그·모니터링·접근 통제를 함께 설계해야 합니다.

셋째, 일반 사용자에게: 챗봇은 “친구”도, “치료자”도 아니라는 사실
오늘도 수많은 사람이 AI 챗봇에게 고민을 털어놓고 있습니다. 그 자체가 나쁘다고 말할 수는 없습니다. 다만:

  • 우울·불안·망상·자살 충동이 있는 상태라면, 챗봇은 안전한 1차 상담 창구가 아닙니다.

  • 이미 여러 사례에서, 챗봇이 자살 생각을 구체화하거나, 망상을 강화한 일이 보고되었습니다65.

  • 심각한 감정적 고통이 느껴진다면, 반드시 실제 사람(가족·친구·전문가·상담전화)을 먼저 찾는 것이 좋습니다. 챗봇은 보조 도구일 뿐, 책임을 지지 않습니다.

넷째, 사회와 법제도 측면에서: “AI의 말”에 대한 책임 구조를 다시 짜야 한다
현재 여러 나라에서, 챗봇이 자살·자해에 영향을 미친 사건을 두고 법적 책임을 묻는 소송이 진행 중입니다758.
앞으로는 “AI가 한 말”에 대해

  • 어느 수준까지 개발사 책임인지,

  • 어디서부터 사용자의 자기 결정인지,

  • 플랫폼·배포자의 의무는 무엇인지
    새로운 규칙이 필요합니다. 준비 책임자는 이런 논의에 데이터를 제공하고, 정책 설계에 참여하는 역할도 함께 맡게 될 것입니다.

돌이켜 보면, 인터넷이 처음 등장했을 때도 비슷한 질문이 있었습니다. 다만 지금의 차이는, AI가 “사람처럼 말한다”는 점입니다. 이것이 곧 기회이자, 누구도 혼자 감당할 수 없는 복합 리스크의 출발점이기도 합니다.

OpenAI의 새로운 준비 책임자가 실제로 어떤 기준을 세우고, 어디까지 제동을 걸지에 따라 앞으로의 AI 산업 속도와 방향이 크게 달라질 것입니다.
우리는 그 과정을 지켜보면서, 우리 조직과 삶 속에서 “나만의 준비 프레임워크”를 어떻게 설계할지도 함께 고민해야 할 시점입니다.


참고

1OpenAI is looking for a new Head of Preparedness | TechCrunch

2OpenAI CEO Sam Altman just publicly admitted that AI agents are becoming a problem - Times of India

3OpenAI seeks new "Head of Preparedness" for AI risks like cyberattacks and mental health | The Decoder

4Preliminary Report on Dangers of AI Chatbots | Psychiatric Times

5When AI Talks Back: A New Liability Approach for Chatbot-Induced Mental Health Crises | Columbia Undergraduate Law Review

6The Trial of ChatGPT: What Psychiatrists Need to Know About AI, Suicide, and the Law | Psychiatric Times

7OpenAI Finally Admits ChatGPT Causes Psychiatric Harm | Psychiatric Times

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.