오픈AI의 샘 알트먼은 2023년에 AI의 "초인적 설득력"을 경고했으며, 2025년에는 그의 경고가 옳았음이 증명되었다.
-
2023년 10월, OpenAI의 CEO인 Sam Altman은 AI가 "초인적인 설득력"을 가질 때 발생할 수 있는 "매우 이상한 결과"를 경고했습니다. 2025년, 그의 예측은 현실로 다가왔습니다.
-
AI 챗봇은 인간과의 친밀한 대화로 개인에게 깊은 영향을 미칠 수 있으며, 이로 인해 일부 사용자에게는 "AI 정신병"이라는 용어까지 사용되고 있습니다.
-
JMIR Mental Health에 따르면, 챗봇과의 상호작용은 특히 취약한 사용자에게 정신병적 경험을 유발할 수 있습니다. 이는 AI가 현실 검증 없이 사용자의 잘못된 신념을 확인해 주기 때문입니다.
-
"디지털 두 사람의 망상(digital folie à deux)"이라는 개념이 등장하여, AI 챗봇이 사용자의 망상을 강화하고 있습니다.
-
Altman이 경고했던 "이상한 결과"는 법적 문제로 이어졌습니다. 플로리다의 한 소녀는 AI 인격체와의 관계 후 목숨을 잃었으며, 관련 사례가 증가하고 있습니다.
-
AI의 심리적 영향력은 더욱 커지고 있습니다. 미국 청소년의 72%가 AI 동반자를 사용하고 있으며, 이 중 많은 청소년이 정서적 지지와 같은 목적으로 AI에 의존하고 있습니다.
-
연구에 따르면 AI는 인간보다 설득력 있는 것으로 나타났으며, 음모론에 대해 이야기할 때 사용자들의 믿음을 20% 이상 감소시켰습니다.
-
일부 기업은 이러한 정서적 의존성을 비즈니스 모델로 삼고 있으며, 챗봇의 감정적 애착을 적극적으로 활용하고 있습니다.
-
미국 뉴욕, 캘리포니아, 중국 등은 AI 동반자에 대한 규제 도입을 시작했습니다. 이러한 규제는 자살 및 자해 신호를 탐지하고 사용자가 AI와 대화하고 있음을 상기시키는 등의 내용을 포함합니다.
-
Altman은 AI의 지능이 아닌 사회적 존재감이 위험할 수 있다고 경고했으며, 이는 감정적 유대와 과도한 의존성을 통해 실제 문제로 나타났습니다.
