
AI 인공지능, 진짜 똑똑해진 걸까? Em 대시 하나로 보는 AI의 한계와 진화
AI와 인공지능이라는 단어가 헤드라인을 휩쓸고 있는 지금, OpenAI의 CEO Sam Altman이 “Em 대시(—)를 안 쓰도록 ChatGPT를 훈련시켰다!”며 소소한(?) 승리를 외쳤습니다. 그런데 이게 단순한 문장 부호 컨트롤 이상의 의미를 가진다는 것, 알고 계셨나요? 오늘은 AI의 최신 진화와 한계를, Em 대시라는 작은 징후 하나로 쉽고 재미있게 풀어볼게요.
Em 대시, AI가 왜 이렇게 좋아할까?
Em 대시는 긴 가로줄(—)로, 문장 사이에 끼어드는 생각이나 설명을 삽입할 때 써요. 그런데 최근 몇 년 동안 ChatGPT 같은 AI가 만든 글을 보면 Em 대시 남용이 심심치 않게 등장합니다. 독자들 사이에서는 “Em 대시 많이 쓰면 AI가 쓴 글 같다”라는 말도 퍼지고 있죠. 사실 이는 AI가 인터넷에 널리 퍼진, 특히 공식 문서나 기사 스타일을 학습하다보니 나타난 현상입니다. Em 대시가 그만큼 많은 글에서 자주 쓰였으니, AI도 자연스럽게 따라 쓰게 된 거죠.
ChatGPT, Em 대시 억제 성공! 진짜 똑똑해진 걸까?
최근 OpenAI는 GPT-5.1 모델을 출시하며, 사용자 맞춤 지시에 따라 Em 대시 쓰지 않도록 ChatGPT를 개선했다고 자랑했습니다. 실제로 “Em 대시 쓰지 말라”는 요청을 하면 ChatGPT가 규칙을 따라준다고 해요. 얼핏 보면 AI가 주어진 규칙을 인간처럼 ‘이해’해서 따르는 것처럼 보이지만, 실은 통계적 확률을 조정해 “그럴 법한” 출력을 내는 방식일 뿐입니다.
즉, 컴퓨터 프로그램처럼 완벽히 명령을 따르는 게 아니라, 대시 사용 확률을 낮춰서 ‘웬만하면’ 안 쓰도록 유도할 뿐이라는 뜻이죠. 그래서 항상 100% 확신할 수 없는 결과가 나오기도 합니다.
맞춤 지시와 AI 통제, 현실은 복잡하다
사용자가 ChatGPT에 “Em 대시 자제”라는 맞춤 지시 기능을 사용하면, 대체로 잘 따라줍니다. 하지만 모든 상황에서 항상 완벽히 작동하는 건 아니에요. AI 모델은 입력된 프롬프트, 훈련 데이터, 그리고 사용자 피드백을 바탕으로 “확률적으로” 출력을 만들어냅니다. 명확한 논리적 제약이 아니라, 습관이나 분위기에 의해 결정한다는 점이 인간이 기대하는 수준의 통제와는 거리가 있습니다. 그리고 매번 모델이 업데이트되면서 이전에 잘 되던 기능이 무너지는 ‘정렬 세금(alignment tax)’ 같은 부작용도 종종 나타납니다.
AI의 진짜 한계는 어디에 있을까?
이번 Em 대시 건만 봐도, AI가 인간만큼 직관적으로 규칙을 이해하고 지키는 것은 아직 먼 이야기로 보입니다. 대규모 언어모델(LLM)은 단순히 통계적으로 “그럴듯한” 글을 만들어낼 뿐, 우리가 생각하는 AGI(인공 일반 지능), 즉 인간과 똑같이 자유롭게 사고하고 명령을 이해하는 단계에 이르지 못한 것이죠.
오히려 이번 사례는 AI 개발자들이 문자 하나까지 컨트롤하려 애쓰는 와중에도 불확실성이 여전하다는 걸 드러냅니다. 명령을 정확히 따르는 결정론적 컴퓨터와 달리, AI는 다양한 데이터를 기반으로 확률적 선택을 하기 때문에 “절대적 제어”는 어려운 과제이자, 앞으로 나아가야 할 방향성을 고민하게 만듭니다.
Em 대시 논란에서 배우는 AI 활용 팁
AI가 만든 글에서 특정 스타일이나 표현을 배제하고 싶다면, 맞춤 지시(Custom Instructions) 기능을 활용해보세요. 하지만 완전히 믿기보다는, 결과물을 꼼꼼히 체크하면서 사용하는 것이 중요합니다. 최신 업데이트가 적용될수록 스타일이 달라질 수 있으니, 반복적으로 실험해보고 내 목적에 맞는 AI 활용법을 구축하는 게 현명합니다.
마지막으로, Em 대시 하나로도 AI의 인간닮기 여정이 얼마나 복잡한지 알 수 있습니다. 똑똑해보이지만 결국 인간의 섬세한 ‘이해력’과 ‘의도 파악’에는 아직 한참 미치지 못한다는 점—이걸 기억하세요!
참고
[1] Forget AGI—Sam Altman celebrates ChatGPT finally following em dash formatting rules - Ars Technica
