생성형 AI 도구를 활용하여 작성 및 편집된 노트입니다.
위키피디아 AI 흔적 추적전, 그리고 ‘티 안 나게’ 만드는 플러그인
요즘 위키피디아에서 “AI로 쓴 글 같은데?”라는 말은 단순한 느낌이 아니라, 자원봉사 편집자들이 오랫동안 쌓아온 관찰 데이터 위에 얹힌 의심입니다. 더 흥미로운 건, 그 관찰을 역이용해 AI 문장을 ‘사람 글처럼’ 다듬어 주는 플러그인(일종의 휴머니아/휴머나이저)이 등장했다는 점이죠.
이 글에서는 위키피디아 편집자들이 어떤 흔적을 AI 글의 단서로 봐왔는지, “Humanizer skill”이 무엇을 바꾸는지, 그리고 결국 중요한 건 ‘탐지 회피’가 아니라 ‘검증 가능한 내용’이라는 결론까지 한 번에 정리해보겠습니다.
위키피디아 자원봉사자들이 ‘AI 느낌’을 잡아내는 방식
위키피디아는 원래도 자동화 도구와 봇을 오래 써왔습니다. 다만 예전 봇은 주로 훼손 편집을 되돌리거나, 정해진 데이터로 짧은 문서를 찍어내는 역할이었죠. 문제는 생성형 AI가 “그럴듯한 문장”을 대량으로 만들어내면서부터였습니다. 커뮤니티는 문체가 그럴듯하다는 이유만으로는 품질을 보장할 수 없다는 걸 빠르게 체감했고, AI로 만든 것으로 의심되는 문서를 빠르게 삭제 후보로 올릴 수 있는 정책까지 채택합니다.1
여기서 핵심은 “AI 탐지기 점수”가 아니라, 사람 편집자들의 눈에 자주 걸리는 패턴입니다. 문장이 지나치게 균형 잡혀 있거나, 필요 이상으로 거창한 평가가 붙거나, 근거(출처)가 빈약한데도 단정적으로 정리되는 글은 특히 표적이 되기 쉽습니다. 즉, 위키피디아에서의 AI 흔적 추적은 ‘필체 감정’에 가깝기보다 ‘편집 경험에서 나온 수상함 체크리스트’에 가깝습니다.
“Humanizer skill”은 문장을 어떻게 바꾸나: 과장 제거의 기술
새로 나온 플러그인이 내세우는 핵심은 대개 비슷합니다. AI가 좋아하는 과장된 서술을 걷어내고, 사실 중심의 평문으로 바꾸는 것. 말하자면 “인상비평”을 “업무 설명서”로 낮추는 작업입니다.
예를 들어 “중요한 전환점”, “획기적인 역할” 같은 평가형 수식이 붙어 있으면, 그걸 “무엇을 하려고 만들어졌다” 같은 기능형 문장으로 재작성합니다. 결과적으로 문장이 덜 멋있어 보일 수는 있지만, 위키피디아식 글쓰기(건조하고 검증 가능하게 쓰기)에 더 가까워지죠.
하지만 여기엔 함정이 있습니다. 문장이 사람처럼 보여도, 출처가 부실하거나 사실이 틀리면 결국 더 크게 터집니다. 위키피디아에서 가장 위험한 AI 사용은 ‘문체’가 아니라 ‘그럴듯한 오류’이기 때문입니다.
AI 글 탐지는 왜 자꾸 흔들릴까: ‘문체’만으로는 한계가 있다
AI 글 탐지기가 완벽하지 않다는 얘기는 이제 상식에 가깝습니다. 탐지기는 주로 텍스트의 규칙성(예측 가능성), 문장 길이 패턴, 반복 어휘 같은 신호를 봅니다. 그런데 문제는 인간도 충분히 “규칙적으로” 쓸 수 있다는 겁니다. 논문, 보고서, 매뉴얼처럼 딱딱한 문서는 애초에 예측 가능한 문장이 많죠.
실제로 학계/교육 현장에서도 오탐(사람 글을 AI로 판정)이 큰 이슈로 언급됩니다.2 즉, “AI 같은 문체”라는 기준 자체가 애매한데, 거기에 사람의 글쓰기 습관까지 다양하니 판정이 흔들릴 수밖에 없습니다.
재미있는 대목은, 어떤 연구에서는 LLM을 자주 쓰는 사람일수록 AI가 쓴 글을 더 잘 맞히지만, 그럼에도 일정 비율의 오탐은 피하기 어렵다는 점을 시사합니다. 결국 ‘표현 몇 개’에 깃발 꽂는 방식으로는 부족하고, 내용의 진짜 품질(근거·정확성·맥락)을 봐야 한다는 결론으로 흐르게 됩니다.
탐지를 피하는 플러그인이 생겼다 = 게임이 끝났다는 뜻일까?
플러그인이나 휴머니아 도구가 하는 일은 대체로 “모델이 선호하는 말투를 피하도록” 글을 변형하는 것입니다. 많은 AI 모델이 일정한 문장 리듬과 어휘 취향을 가지는데, 그 취향을 흔들어 놓으면 탐지 신호가 약해질 수 있죠.
다만 이게 곧 “검증도 통과한다”는 뜻은 아닙니다. 위키피디아에서 통과의 관문은 문체보다 출처입니다. 더 정확히 말하면 “누가 그렇게 말했다고 신뢰할 만한 곳에 기록되어 있나”입니다. 문장이 아무리 사람 같아도, 출처 없는 요약은 오래 못 갑니다.
그래서 위키피디아 편집자 입장에서는 플러그인의 등장이 ‘패배 선언’이 아니라, 오히려 “문체 단서에 덜 의존하고, 내용 검증으로 더 가자”는 방향 전환을 촉진할 가능성이 큽니다.
위키피디아에 글을 쓰는 사람이라면: ‘사람처럼’보다 ‘검증 가능하게’
만약 당신이 위키피디아에 기여하려고 AI를 쓰는 편이라면, 목표를 “탐지 회피”로 잡는 순간부터 글은 위험해집니다. 대신 목표를 이렇게 바꾸는 편이 안전합니다.
첫째, 문장 스타일은 건조해도 괜찮습니다. 위키피디아는 애초에 문학상이 목적이 아니라, 확인 가능한 사실을 정리하는 곳입니다.
둘째, 출처가 핵심입니다. AI가 제안한 내용은 반드시 신뢰할 수 있는 2차 출처로 확인하고, 문장마다 어디에서 왔는지 연결해 주세요.
셋째, 과장·평가·미사여구는 줄이는 게 이득입니다. 휴머니아 플러그인이 잘하는 부분이기도 하지만, 사실 이건 사람이 직접 해도 됩니다. “중요한 전환점”을 쓰고 싶어지면, “무슨 변화가 있었는지”를 수치나 사건으로 바꿔 쓰면 됩니다.
시사점은 간단합니다. 위키피디아는 ‘AI를 색출하는 곳’이기 전에 ‘품질을 유지하려는 공동 작업장’입니다. 탐지기를 속이는 기술이 늘수록, 결국 남는 경쟁력은 하나예요. 문체가 아니라, 근거와 정확성입니다.
참고
1Artificial intelligence in Wikimedia projects - Wikipedia
2The AI Detector and Academic Integrity: A 2025 Analysis | AFFiNE