
영국, AI 사전 테스트로 아동 학대 이미지를 막는다: 인공지능 안전의 새 기준
AI(인공지능)가 편리함과 창의성을 선사하는 시대, 그러나 그 이면에 어둠이 도사리고 있습니다. 최근 영국 정부는 AI가 아동 성적 학대 이미지를 만들 위험을 차단하기 위한 혁신적 대책을 발표했습니다. 영국은 AI 모델이 세상에 공개되기 전, 전문 기관들이 해당 모델의 안전성을 철저히 점검하도록 법을 개정할 계획입니다. 이로써 불법적 콘텐츠 생성의 씨앗을 ‘출처’에서부터 차단하는 것이 목표입니다. 이번 글에서는 영국의 새로운 정책과 그 의의를 쉽게 풀어보겠습니다.
AI가 만드는 아동 학대 이미지, 왜 문제인가?
AI 기술의 발전으로 이미지를 아주 쉽게, 그리고 사실적으로 만들어낼 수 있게 됐습니다. 하지만 이 기술을 악용하면 실제 아동의 피해와 별개로, 무수히 많은 학대 이미지를 순식간에 창조할 수도 있죠. 이로 인해 AI 기반 아동 성적 학대 자료(CSAM) 신고 건수가 최근 1년 새 두 배 뛰었습니다. 영국 인터넷 감시재단(IWF)는 2024년 199건에서 2025년 426건으로 급증했다고 밝혔고, 그중 가장 심각한 유형의 이미지 수도 빠르게 늘었습니다. 실제 피해자를 ‘두 번’ 상처 입히는 AI의 잠재적 위험, 무시할 수 없습니다.
이런 위협은 AI 기술 자체의 문제라기보다는, 충분한 안전장치 없이 개발·유통되는 시스템에서 발생합니다. AI가 이미지를 어떻게 만들어내는지, 사전에 점검하고 막지 않는다면 피해는 더 심각해질 수 있습니다.
사전 테스트 의무화: 영국의 새로운 법안
영국 정부는 ‘범죄 및 경찰 법안’에 새로운 조항을 넣어, AI 모델 출시 전에 ‘지정된 기관’들이 위험성 테스트를 직접 수행하도록 허가합니다. 여기엔 기술 기업뿐만 아니라 NSPCC, IWF 등 아동 보호 전문기관이 포함됩니다. 테스트는 단순히 “잘 돌아가는지”가 아니라, 해당 AI가 불법적 이미지(특히 아동 학대 자료)를 생성할 수 있는지 면밀히 확인하는 과정입니다.
특히 이번 조치는 기존에 AI 개발자 등이 시험 목적으로라도 CSAM 이미지를 만들어보는 게 불법이라 점검 과정 자체가 어렵던 점을 개선합니다. 이제 전문가가 ‘엄격한 조건’ 아래서 AI 모델의 위험도를 사전에 평가할 수 있습니다. 이것이 바로 ‘출처에서 안전 확보’라는 개념입니다.
아동 보호 단체의 목소리와 실제 현장 변화
아동 보호 단체들은 새 법안에 적극적입니다. 인터넷 감시재단(IWF)과 NSPCC 등은 한목소리로 “단순히 자발적 점검이 아니라, 법적 강제로 모든 AI 모델이 사전 안전 테스트를 거쳐야 한다"고 강조합니다. 특히 실제 상담 현장에서는 AI 기술로 생성된 깊게 사실적인 ‘딥페이크’ 이미지로 어린이·청소년들이 협박받거나, 온라인에서 괴롭힘을 당하는 사례가 늘고 있습니다. 2025년 4~9월 AI 관련 상담 건수는 지난 해 대비 4배나 증가했을 정도입니다.
문제는 피해 이미지 속 94%가 여자아이였고, 신생아부터 2세 미만까지도 피해 대상이 되는 등 피해자 연령과 성별 모두 심각한 양상을 보입니다. AI가 가진 편리함과 힘이 어린 생명들에게 독이 될 수 있는 현실입니다.
AI 안전 기준의 글로벌 선도: 영국이 여는 새로운 장
이번 영국 법안은 단순히 CSAM 생성 가능 AI 시스템만을 겨냥하는 게 아닙니다. 비동의 또는 폭력적 콘텐츠까지 모두 포함해, AI가 만드는 모든 잠재적 위험성을 포괄적으로 관리하려는 의지입니다. 무엇보다 흥미로운 점은, 영국이 “아동 학대 이미지 생성을 목적으로 만든 AI 시스템의 소유, 개발, 사용” 자체를 세계 최초로 범죄화한다는 데 있습니다. 위반 시 최대 5년 징역형까지 가능하며, 글로벌 기술 기업들도 이제 안전 점검을 ‘선택’이 아니라 ‘의무’로 간주해야 합니다.
이제 AI 개발자들은 단순히 성능이나 창의성만 따질 수 없습니다. 개발 과정 초기부터 아동 보호, 윤리적 설계, 안전성 확보가 최우선이 돼야 한다는 것입니다.
마무리: 기술의 빛·그림자를 모두 보는 기업과 사회의 책임
AI는 우리 삶을 크게 발전시킬 수 있지만, 악용될 수 있는 문을 미리 닫아야만 기술이 진짜 ‘사람을 위한 진보’가 됩니다. 영국의 사전 테스트 정책은 기술의 밝은 미래, 그리고 그 그림자까지 바로 볼 수 있도록 돕는 안전망입니다. 앞으로 AI 관련 기업이나 창업을 준비하는 분이라면, 관련 법·윤리 준수와 안전 설계, 그리고 지속적인 점검 노력이 기본이 되어야 할 것입니다.
“아동 보호는 기술 혁신보다 앞서야 한다”는 영국의 선택, 우리 사회 전체에 던지는 질문이기도 합니다. 여러분도 AI를 만들거나 사용할 때, 최우선의 기준은 ‘사람을 해치지 않을까’라는 점임을 잊지 마세요!
참고
[1] Tech companies and UK child safety agencies to test AI tools’ ability to create abuse images - The Guardian
[2] UK plans pre-release AI testing to prevent child abuse imagery - THE DECODER
[3] New law to tackle AI child abuse images at source as reports more than double - GOV.UK