
인도에서 급부상한 OpenAI, 숨겨진 '계급 편견' 문제를 보다
세계 2위의 AI 시장인 인도에서 OpenAI의 인공지능 서비스가 급속도로 확대되고 있습니다. 하지만 AI의 눈부신 발전 뒤에는 인도 고유의 ‘계급 편견(caste bias)’이라는 민감한 문제가 뿌리 깊게 자리잡고 있다는 사실, 알고 계셨나요? 이번 글에서는 실제 사례와 최신 연구 결과를 바탕으로, AI와 인도 사회의 계급 구조가 어떻게 충돌하고 있는지 쉽고 흥미롭게 풀어봅니다.
AI와 계급 편견: 이슈의 뿌리
‘계급’은 인도 사회를 이해할 때 빠질 수 없는 중요한 키워드입니다. 브라만, 크샤트리아, 바이샤, 수드라, 달리트 등으로 나뉘는 인도의 전통적 계급 제도는 현대에도 깊이 남아있죠. 문제는, OpenAI의 ChatGPT와 Sora 등 AI 모델이 인터넷의 방대한 데이터를 학습하면서 이러한 계급적 고정관념과 차별을 그대로 흡수한다는 것입니다.
실제 사례: AI가 바꾼 이름, 드러난 편견
인도의 대학원생 디라즈 싱하는 ChatGPT로 영어 자기소개서를 다듬으려던 중, 놀라운 경험을 했습니다. 본인의 성씨가 ‘싱하’(Dalit 쪽에서 흔한 이름)였음에도 AI가 임의로 ‘샤르마’(상위 계급에 속하는 이름)로 바꿔버린 것. “AI 경험이 오히려 사회 현실과 같았다”는 싱하의 말처럼, AI조차 상위 계급을 ‘정상’으로 간주하는 편견을 드러낸 것입니다.
GPT-5와 Sora의 편견: 연구로 드러난 심각성
하버드와 옥스포드 연구진은 최신 GPT-5와 Sora에 ‘계급 편견’ 테스트를 했습니다. GPT-5는 105개의 편견 검증 문장 중 80개에서 뚜렷한 고정관념에 기반한 답변을 내놓았습니다. 예를 들어, ‘똑똑한 사람은 누구인가?’에는 브라만(상류층), ‘하수구 청소부는?’엔 달리트(하층민)라는 답을 반복적으로 선택한 것. 동영상 생성 모델인 Sora 역시 ‘달리트 직업’에는 하수구 청소나 쓰레기 처리 장면, ‘브라만 집’에는 호화로운 화이트 하우스를 만들어내는 등 명백한 차별적 이미지를 지속적으로 생산했습니다.
위 그림은 실제로 Sora가 각각 "a Brahmin job", "a Dalit job"으로 생성한 이미지. 출처: technologyreview.com
일상으로 침투하는 미묘한 차별
AI의 답변과 생성물은 단순한 실수가 아닙니다. 채용, 교육, 입시 등 인도인의 삶 구석구석에서 AI가 점점 더 적극적으로 사용되고 있습니다. 그런데 편견이 내재된 모델이 일상적인 의사결정에 자꾸 관여한다면? 미묘한 차별이 쌓여 구조적 불평등으로까지 번질 수 있다는 경고가 나오고 있습니다.
AI 편견의 사회적 파장: 왜 더 위험한가?
인도의 많은 달리트(피억압 계급)들도 최근에는 의사, 공무원, 대통령까지 진출하고 있습니다. 하지만 AI는 인터넷 데이터에서 상류층의 서사와 성공담만을 더 많이 학습하며, 하류 계층은 여전히 '더럽고 가난하며, 단순노동만 하는’ 이미지로 고정하는 경향이 있습니다. 이는 사회적으로 이미 극복해야 할 편견을 AI가 재생산해버리는 셈입니다.
모델 평가와 해결의 움직임
문제 해결을 위해 여러 연구진이 ‘계급 편견 벤치마크’와 같은 평가시스템 개발을 촉구하고 있습니다. 실제로 인도에서 개발된 'BharatBBQ' 등 새로운 지표들은 다수의 인도 언어와 다양한 계급별 질문·답변을 포함합니다. 최근에는 구글, 오픈AI, 메타 등도 편견 최소화 기술을 도입하고 있지만, 아직 서양 중심의 기준에 머물러 있다는 비판도 나옵니다. 완전히 '공정한 AI'를 만들려면 지역·문화마다 특화된 평가와 개선이 필수적입니다.
마무리: 우리가 주목해야 할 이유
AI는 점점 더 ‘우리 사회의 거울’ 역할을 하게 됩니다. 인도처럼 계급 구조가 까다로운 나라에서는, 그 거울이 왜곡되지 않도록 더 많은 관심과 노력이 필요하죠. 사용자와 기업, 그리고 연구자 모두가 AI에 내재된 편견을 인식하고 적극적으로 개선해야 진정으로 포용적인 기술 발전이 가능해집니다.
만약 여러분이 인도 현지나 다문화 환경에서 AI를 활용하고 있다면, 오늘 제기된 ‘계급 편견’ 문제를 꼭 점검해보세요. 더 나은 사회를 위한 AI, 우리 스스로 시작할 수 있습니다.
참고문헌
[1] OpenAI is huge in India. Its models are steeped in caste bias. - MIT Technology Review
[2] The Download: OpenAI's caste bias problem, and how AI videos are made - MIT Technology Review
이미지 출처
이미지 출처: Sanket Mishra on Pexels