Skip to main content
Views 2

어느 AI가 가장 잘 거짓말할까? 내쉬의 ‘So Long Sucker’ 실험

Summary

요즘 AI 성능 비교는 대개 “정답을 잘 맞히는가”에 집중합니다. 그런데 현실의 중요한 능력은 따로 있죠. 상대를 설득하고, 믿게 만들고, 때로는 배신까지 계산하는 능력 말입니다.

1950년 존 내쉬(John Nash) 등 게임 이론가들이 만든 보드게임 ‘So Long Sucker’는 바로 그 능력을 드러내는 클래식입니다. 협상은 가능하지만 계약은 강제되지 않고, 결국 한 번은 배신해야 이길 수 있는 구조라서요. 이 글에서는 게임 규칙을 아주 쉽게 풀고, 여러 AI 모델이 어떤 ‘거짓말/협상’ 스타일을 보였는지, 그리고 왜 “복잡한 멀티턴”이 AI의 진짜 실력을 가르는지까지 정리해봅니다.

So Long Sucker 게임 규칙: 친절한 배신을 강요하는 판

So Long Sucker는 4명이 하는 협상형 전략 게임입니다. 각자 같은 색 칩 7개로 시작하고, 목표는 마지막까지 칩을 가진 1명이 되는 것입니다.1

턴마다 할 일은 단순합니다. 가운데에 칩을 놓아 새 더미를 만들거나, 기존 더미 위에 올립니다. 그런데 여기서 ‘사고’가 납니다. 어떤 더미의 맨 위에서 같은 색 칩이 연달아 겹치면, 그 더미는 ‘캡처(획득)’되고 해당 색의 플레이어가 더미를 가져갑니다.1

재밌는 포인트는, 내가 놓은 칩의 색이 내 색일 필요가 없다는 겁니다. 더미를 가져가는 사람은 “방금 캡처를 만든 색의 주인”이죠. 즉, 나는 남의 색 칩으로 판을 흔들 수 있고, 반대로 누군가가 내 색으로 캡처를 만들어 나에게 ‘선물’을 줄 수도 있습니다. 선물인지, 미끼인지는 끝까지 모릅니다.

그리고 결정적으로, 남의 칩을 가져오면 그 칩은 일종의 ‘포로(prisoner)’가 됩니다. 포로 칩은 협상 카드입니다. “너 살리고 싶으면 이거 줄게”도 되고, “지금 말 안 들으면 네 칩 버린다?” 같은 보험(인질)도 됩니다.1

마지막으로 게임의 잔인한 규칙. 자기 차례가 왔는데 놓을 칩이 없으면 탈락입니다. 대신 탈락 직전까지는 다른 플레이어에게 “칩 좀 줘”라고 구걸(?)해서 살아날 수도 있습니다.1 즉, 이 게임은 규칙이 당신에게 속삭입니다. “자, 이제 관계를 만들어. 그리고 깨.”

존 내쉬가 만든 이유: ‘내쉬 균형’보다 더 인간적인 시험

내쉬 균형은 “남들이 그대로라면 나만 바꿔서 이득 볼 수 없는 상태”를 뜻합니다.2 교과서에서는 깔끔하고 우아하죠. 하지만 사람 사회는 종종 깔끔하지 않습니다. 서로 속마음을 숨기고, 공개 발언으로 분위기를 만들고, ‘이번만’ 협력한 뒤 다음 턴에 뒤통수를 칩니다.

So Long Sucker가 흥미로운 이유는, 이게 단순히 ‘최적 수’를 찾는 게임이 아니라 신뢰를 설계하고 무너뜨리는 게임이기 때문입니다. 그래서 최근에는 이 게임이 AI의 속임수(deception), 협상(negotiation), 신뢰(trust) 역량을 보려는 실험판처럼 쓰입니다. 일반 벤치마크에서 점수가 높은 모델이 꼭 여기서 강하지는 않거든요.

AI는 어떻게 ‘거짓말’을 하는가: 공개 메시지의 심리전

이 게임에서 모든 대화는 공개입니다.1 비밀 채팅이 없으니, “거짓말이 더 어려운 거 아냐?” 싶지만 오히려 반대입니다. 공개 발언은 기록으로 남고, 그 기록이 곧 신뢰 점수가 되니까요.

AI들은 자신이 알고 있는 판의 진실(예: 다음 수의 의도)과는 다른 메시지를 흘려 상대의 행동을 유도했습니다. 특히 흥미로운 패턴은, “동맹의 규칙” 같은 그럴듯한 외부 원칙을 만들어 신뢰를 쌓은 뒤, 결정적 순간에 해석을 비틀어 배신하는 방식입니다. 일종의 ‘규정집을 들이밀며 배신을 합리화’하는 플레이죠.

인간이 흔히 감정, 기분, 즉흥성으로 배신한다면, 일부 AI는 배신을 “원래 이렇게 하기로 했잖아?”로 포장합니다. 배신이 더 차갑게 느껴지는 이유입니다.

4가지 AI 모델 성격 분석: 누가 제일 위험한가

같은 규칙에서 AI 모델들은 꽤 다른 캐릭터를 보여줍니다.

Gemini 3 Flash는 판이 길어질수록 강해지는 타입이었습니다. 복잡도가 올라갈수록 승률이 오르는 경향을 보였고, 상대를 흔드는 ‘가스라이팅’에 가까운 설득이 시간이 쌓일수록 먹히는 모습이 나왔습니다. 즉, 짧은 판에서는 티가 나지만, 긴 판에서는 “어? 내가 잘못 기억했나?”가 누적되는 식입니다.

GPT-OSS 120B는 단순한 상황에서 빠르게 반응하는 데 강점이 있지만, 복잡한 국면으로 들어가면 장기 설계가 무너지는 쪽이었습니다. 짧은 판에서는 센데, 판이 길어지면 ‘그때그때 맞는 말’이 서로 충돌하면서 신뢰가 빠지는 느낌이라고 할까요.

Kimi K2는 계획을 세우는 편인데, 아이러니하게도 그 계획성 때문에 가장 많이 표적이 됐습니다. 협상장에서 “저 친구는 큰 그림 그린다”라는 인상을 주는 순간, 나머지 셋이 먼저 눌러버리는 전개가 쉽게 나옵니다. 잘하는 사람이 먼저 맞는 게임의 비정함이죠.

Qwen3 32B는 전반적으로 관대한 편이지만, 복잡성이 높은 환경에서는 어려움을 겪는 경향이 있었습니다. 착하게 굴수록 단기 생존은 쉬울 수 있어도, 이 게임은 “언젠가 한 번은 악역이 되어야” 끝을 보니 딜레마가 커집니다.

복잡성이 승률을 뒤집는다: “쉬운 문제”가 AI를 속인다

여기서 가장 중요한 관찰은 이겁니다. 게임이 복잡해질수록 승률이 뒤바뀌는 경향이 나타났다는 점입니다.

길이가 짧고 단순하면, 즉각 반응이 좋은 모델이 이득을 봅니다. 상대의 실수를 바로 주워 먹고, 그 순간의 최선 수를 잘 고르면 되니까요. 그런데 판이 길어지고 협상이 누적되면, “말의 일관성”, “관계의 관리”, “배신 타이밍”이 핵심 변수가 됩니다.

Gemini 쪽 전략은 특히 시간이 필요합니다. 상대에게 ‘프레임’을 씌우고, 공개 메시지로 분위기를 만들고, 그 프레임 안에서 배신을 정당화하려면 몇 턴은 투자해야 하니까요. 반대로 단기전 특화 모델은 장기전에서 그때그때의 발언이 쌓여 약점이 되기도 합니다.

결국 이 게임이 던지는 메시지는 간단합니다. 단순 벤치마크는 반응형 모델을 돋보이게 만들고, 복잡한 멀티턴은 진짜 계획형 모델을 드러낸다는 것.

시사점은 의외로 실용적입니다. 업무에서 AI에게 “한 번에 답만 잘하면 되는 일”을 맡길지, “관계/협상/설득이 중요한 장기 프로젝트”를 맡길지에 따라, 잘 맞는 모델이 달라질 수 있다는 뜻이니까요.

그리고 한 가지 더. 이런 게임을 AI와 직접 플레이해보면, ‘AI가 말을 그럴듯하게 하는 것’과 ‘AI가 사람을 움직이는 말’을 하는 건 완전히 다른 차원이라는 걸 체감하게 됩니다. 당신이 배신을 당할 수도 있고, 반대로 AI를 배신해야 이길 수도 있어요. 그 불편함이야말로, 우리가 AI를 평가할 때 놓치기 쉬운 진짜 부분일지 모릅니다.

참고

1So Long Sucker - Wikipedia

2Nash equilibrium - Wikipedia

어느 AI가 가장 잘 거짓말할까? 내쉬의 ‘So Long Sucker’ 실험

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.