
인공지능, 인간처럼 생각할 때 더 강력해진다 – Human-aligned AI의 비밀
AI(인공지능)는 이제 우리의 일상을 바꾸는 기술로 자리잡았지만, 정말 ‘인간처럼’ 사고할 수 있을까? 최근 구글 딥마인드와 앤트로픽, 독일 연구진의 연구에 따르면 인간의 인식 구조에 맞춰 ‘정렬된(Human-aligned)’ AI 모델은 훨씬 더 견고하고 신뢰성이 높아지는 것으로 나타났습니다. 오늘은 인간과 닮아갈수록 똑똑해지는 AI의 원리와 그 실제, 그리고 앞으로 우리에게 주는 시사점을 쉽고 재미있게 풀어봅니다.
인간과 AI, 세상을 바라보는 방식이 뭐가 다를까?
사람들은 이미지를 볼 때, 세부 사항부터 광범위한 개념까지 계층적으로 정보를 분류합니다. 예를 들어, 털 달린 개와 비늘 달린 물고기가 생김새는 다르지만 “둘 다 살아있다”는 개념으로 묶습니다. 반면 기존 AI 모델은 개별적이고 지역적인 패턴에 집중하다 보니, 이런 추상적인 범주를 잘 이해하지 못합니다. 그래서 낯선 사진을 보여주면 AI가 당황할 때가 많죠.
AligNet, 인간에 가까운 AI를 만드는 비밀병기
이 간격을 좁히기 위해 연구팀은 ‘AligNet’이라는 시스템을 만들었습니다. 알리그넷의 핵심은 실제로 인간이 판단한 데이터(THINGS 데이터셋)를 기반으로 한 ‘교사 모델(Surrogate Teacher Model)’입니다. 구글의 SigLIP 멀티모달 모델을 미세 조정해 인간이 보는 눈과 유사한 기준을 학습시킨 뒤, 이를 수백만 개의 합성 이미지에 적용해 ‘유사 인간’ 점수를 생성합니다. 이런 점수를 가지고 AI 비전 모델(Vision Transformers, DINOv2 등)을 재훈련하면, 추상적인 비교 작업에서도 인간처럼 더 잘 판단하게 됩니다.
인간과 닮아갈수록, AI가 더 똑똑하고 튼튼해진다
AligNet으로 정렬된 AI 모델은 기존 모델을 압도하는 성능을 보여줍니다. 새로운 데이터셋 ‘Levels’(473명의 실제 사람이 참여한 다층 추상적 분류 작업)에서, AligNet 기반 Vision Transformer 모델은 심지어 인간끼리 평균적으로 일치하는 수준도 넘어설 정도로 정확했습니다. 또 일반화 테스트와 강건성 평가(BREEDS, ImageNet-A 등)에서도 정확도가 최대 두 배 이상 증가하는 등 탁월한 내구성을 보여줬습니다.
믿음직한 AI는 자기 불확실성도 더 현실적으로 추정합니다. 실제 인간의 답변 소요 시간과 AI의 확신 점수가 유사한 패턴을 보이는 것도 확인됐습니다.
개념의 세계를 재정립하는 AI – 의미 중심으로 바뀌는 내부 구조
기존 AI 모델은 ‘색깔’이나 ‘모양’ 등 표면적 특징에 집중해 분류하는 경향이 있었습니다. 하지만 인간처럼 배우기 시작한 AI들은 '의미' 중심으로 사물을 묶어갑니다. 예를 들어 도마뱀이 식물 대신 다른 동물들과 더 가까운 그룹에 포함되는 식이죠. 이런 변화 덕분에 모델의 해석 가능성과 신뢰성이 크게 높아집니다.
확장되는 AI 활용 – 하지만 완벽한 인간 복제는 아닙니다
이번 연구의 모든 데이터와 모델은 누구나 자유롭게 사용할 수 있지만, “완벽하게 인간을 복제하는 것”이 목표는 아닙니다. 인간의 인식 자체도 문화적, 개인적 편견이 섞여 있기 때문입니다. 중요한 건 AI가 인간적 구조와 판단력을 얻음으로써, 예측 가능하고 안전한 방향으로 발전한다는 점입니다.
멀티모달 AI, 더 넓어진 연구의 의미
비단 시각 AI뿐 아니라, 최근에는 인간의 청각·시각 통합 능력까지 모방하는 멀티모달 모델도 나왔습니다. 영국 리버풀대학교의 연구처럼, 소리와 영상 정보를 동물의 뇌처럼 효과적으로 결합할 수 있는 이론적 모델이 개발되고 있습니다. 이런 경향은 모두 ‘인간과 비슷하게’ 처리하는 AI 설계가 실질적으로 더 다양한 환경에서 견고하고 실용적임을 뒷받침합니다.
정리: 지금 필요한 AI, 인간의 눈과 머리를 닮게 만들어라!
AI가 진짜 ‘만능 비서’나 ‘신뢰할 수 있는 동료’로 발전하려면, 인간의 인식 구조에 더 깊이 정렬시켜야 한다는 것이 최신 연구의 결론입니다. 추상적 개념부터 세부 정보, 그리고 불확실성 판단까지 인간의 방식에 맞춘다면, 미래의 AI는 지금보다 훨씬 더 해석 가능하고, 실생활에서 믿고 쓸 수 있을 겁니다.
실생활에서 AI 상품 또는 서비스를 선택할 때도 ‘인간적 기준’에 얼마나 맞추어져 있는지가 중요한 평가 요소가 될 것입니다. 앞으로 AI의 발전을 더욱 신중하게 지켜보며, 우리 각자도 인간다움의 가치에 집중하는 눈을 키워보길 권합니다.
참고
[1] Human-aligned AI models prove more robust and reliable - Decoder
[2] Aligning machine and human visual representations across abstraction levels - Nature
[3] Computer model mimics human audiovisual perception - University of Liverpool