메인 콘텐츠로 건너뛰기

사람들에게 좋은 AI 만드는 법: 경쟁자가 아닌 ‘능력치 버프’로 키우기

인공지능, 이제 뉴스에서 안 보면 허전할 정도죠.
실리콘밸리부터 베이징까지 AI에 수십억 달러가 쏟아지고, 업무용 툴도 하나같이 “AI 탑재”를 외칩니다.

그런데 정작 중요한 질문 하나는 잘 안 합니다.
“우리가 만드는 이 AI, 사람들에게 진짜 좋은가?”

이 글에서는 기술 이야기보다 ‘사람에게 좋은 AI’를 어떻게 만들 것인가에 집중합니다.
AI를 잘 활용하고 싶은 실무자, 제품 기획자, 개발자, 그리고 그냥 ‘AI가 좀 무섭다’ 느끼는 일반 사용자까지 모두를 위한 가이드입니다.

전체 흐름은 이렇습니다.

첫째, 왜 AI 전략은 기술이 아니라 ‘사람’에서 출발해야 하는지.
둘째, 사람을 대체하는 AI가 아니라, 사람을 강화하는 AI를 만드는 방법.
셋째, 편향·프라이버시·일자리 같은 불편한 문제들을 어떻게 다뤄야 하는지.

마지막에는 일과 비즈니스 현장에서 바로 써먹을 수 있는 실천 팁도 정리했습니다.


사람 중심 AI의 출발점: “무엇을 만들까?”가 아니라 “누구를 도울까?”

요즘 기업들이 AI 프로젝트를 시작하는 방식은 대체로 비슷합니다.
“챗봇 하나 깔자.”
“요즘은 에이전트지, 우리도 하나 만들자.”

하지만 사람 중심 AI 전략을 잘 짜는 회사들은 정반대로 움직입니다.
도구 이름이 아니라 사람 이야기를 먼저 꺼냅니다.

예를 들어, 한 IT 컨설팅 회사는 고객사의 AI 전략을 짤 때 제품 설명부터 하지 않습니다. 대신 이런 질문부터 던집니다1.

어떤 일이 가장 시간을 많이 잡아먹나요?
어떤 정보를 찾느라 매번 헤매나요?
어떤 업무가 “왜 아직도 이걸 사람이 일일이 하지?” 싶은가요?

이 질문들은 기술이 아니라 고통과 불편을 겨냥합니다.
사람들이 실제로 힘들어하는 지점을 찾아내야, 거기서 AI가 진짜 가치를 만들 수 있기 때문이죠.

여기서 중요한 포인트가 하나 더 있습니다.
사람들이 “내 말을 들어줬다”는 경험을 하면, 새로운 도구도 훨씬 더 잘 받아들입니다1.

같은 AI라도,

“회사에서 또 뭐 깔래…”
가 아니라
“이거 그때 말한 그 귀찮은 일 대신해 준다던 그거네?”

이렇게 인식되는 순간, 저항이 호기심으로 바뀝니다.
좋은 AI는 이렇게 대화에서 출발합니다.
기술 회의가 아니라, 사람 인터뷰에서요.


사람을 대체하는 AI가 아니라, 사람을 ‘능력치 업그레이드’ 시키는 AI

AI 때문에 일자리가 사라질까 불안해하는 시대지만, 연구들을 보면 그림이 조금 다릅니다.
AI가 업무 시간의 큰 부분을 자동화할 수는 있지만, 직업 자체를 몽땅 없애진 않는다는 분석이 많습니다2.

핵심은 “사라지는 직업”이 아니라, “다르게 일하게 되는 사람”입니다.

한 글로벌 연구에서는 현재 기술로 미국 노동시간의 절반 이상을 자동화할 수 있다고 봅니다. 그런데 그게 “일자리 절반 삭제”가 아니라, 사람이 하는 일의 구성이 바뀐다는 뜻이라고 정리합니다2.

정리하면 이렇습니다.

AI가 잘하는 일
– 데이터 뒤지기
– 정보 정리
– 기본 보고서 초안 만들기
– 반복적이고 규칙 기반인 업무

사람이 계속 잘할 일
– 판단과 우선순위 정하기
– 관계 만들기, 설득하고 조율하기
– 복잡한 상황 속에서 맥락 읽기
– 공감과 감정 관리2

그래서 좋은 AI는 “사람을 빼고 AI만 남기는” 시스템이 아니라,
“AI와 사람이 같이 일하도록 디자인된” 시스템입니다.

예를 들어 고객센터를 떠올려 볼까요.

1단계: 단순 문의(운영시간, 배송 조회)는 AI가 즉시 처리.
2단계: 환불 분쟁, 민감한 컴플레인, 특수 케이스는 사람이 이어받아 응대.

AI는 사람이 더 인간적인 일을 할 수 있도록 ‘자리 비워주는 역할’을 합니다.
이 구조가 되면, 회사는 비용을 줄이면서 만족도는 높이고, 직원은 “전화 노예”에서 벗어나 좀 더 의미 있는 문제를 다룰 수 있게 됩니다.

이런 식의 설계는 제조, 의료, 금융, 교육, 공공 등 거의 모든 산업에 적용할 수 있습니다.
포인트는 하나입니다.

“AI가 할 일”을 먼저 고르는 게 아니라,
“사람이 꼭 해야 할 일”을 먼저 정의한 뒤 나머지를 줄여나가는 것.


신뢰받는 AI의 조건: 속도·성능보다 “믿을 수 있냐”가 먼저

AI를 이야기할 때 자주 나오는 단어는 “속도, 확장성, 자동화”입니다.
그런데 사회적 가치나 공익 분야에서 AI를 쓰는 사람들에게 가장 중요한 건 전혀 다른 단어입니다.
바로 신뢰입니다3.

한 필란트로피·비영리 섹터의 리더는
“AI의 핵심 지표는 속도가 아니라 신뢰”라고 말합니다3.

왜냐하면, 비영리 조직이나 공공 영역에서는
신뢰를 한 번 잃으면 기부자, 시민, 이용자의 마음을 다시 얻기 어렵기 때문입니다3.

신뢰받는 AI에는 몇 가지 공통점이 있습니다.

첫째, 사람이 최종 책임자라는 구조.
AI가 추천하고 분석하고 초안을 써주긴 하지만,
중요한 결정을 혼자 내리지는 않습니다.
“사람이 항상 루프 안에 있다”는 구조가 기본입니다3.

둘째, 어떻게 판단했는지 어느 정도 설명 가능한 구조.
AI가 내놓은 결과를 사람들이 최소한 검증하고 이해할 수 있어야 합니다.
“이건 AI가 그렇게 말했으니까요”로는 책임도, 설득도 할 수 없습니다.

셋째, 보안과 프라이버시를 대놓고 챙기는 태도.
기부나 복지·의료처럼 민감한 정보를 다루는 분야에서, 보안 사고는 곧 신뢰 붕괴입니다3.

기업 분야에서도 흐름은 비슷합니다.
EU AI Act, OECD, UNESCO, WEF 같은 곳에서
“인간 중심, 투명성, 책임성, 공정성”을 공통 원칙으로 내세우고 있고4,
각국 정부와 기업이 이를 기준으로 자사 AI를 설계·검증하려고 움직이고 있습니다.

정리하자면, 좋은 AI는 스스로 이렇게 말할 수 있어야 합니다.

“나는 네 일을 빠르게 도와줄 뿐 아니라,
왜 이렇게 하는지도 설명할 수 있고,
네 데이터를 함부로 쓰지 않을 거야.”

이게 신뢰의 언어입니다.


편향·데이터·일자리: ‘좋은 AI’가 피해 갈 수 없는 세 가지 숙제

사람 중심 AI를 이야기하다 보면 꼭 마주치는 세 가지 불편한 주제가 있습니다.
편향, 데이터/프라이버시, 일자리입니다.

1. 편향: AI는 우리 사회의 ‘거울’이다

AI가 차별적인 결과를 내는 이유는 대부분 간단합니다.
세상을 있는 그대로, 그대로 배웠기 때문입니다.

문제는 “있는 그대로”가 이미 불평등과 편견으로 가득하다는 거죠.
언어 데이터, 채용 데이터, 범죄 데이터 등 현실의 기록 자체가 특정 집단에 불리한 구조를 담고 있는 경우가 많습니다5.

그래서 좋은 AI를 만들려면 단순히 “더 많은 데이터”가 아니라,
“더 다양한 데이터, 더 검증된 데이터”가 필요합니다.

또한 AI 모델을 개발하고 운영하는 단계에서
편향을 찾아내고 모니터링해주는 도구들(공정성 분석, 에러 분석, 설명 가능성 툴 등)이 점점 중요해지고 있습니다6.

결국 편향 문제는 기술 한 번 돌려서 끝나는 게 아니라,
데이터 수집 → 모델 개발 → 서비스 운영 전 과정에서
“이건 누구에게 불리하게 작동할 수 있지?”를 계속 묻는 문화가 필요합니다.

2. 데이터와 프라이버시: 취약한 사람일수록 더 조심해야 한다

AI가 잘 되려면 데이터가 많이 필요합니다.
하지만 사람 중심 AI라면, 특히 취약한 집단의 데이터를 다룰 때 더 엄격해야 합니다.

국제 개발·인도주의 분야에서는 이런 문제의식이 이미 강합니다.
– 저소득 국가에서 수집한 데이터를 선진국 기관이 활용하는 “데이터 식민주의”
– 디지털 문해력이 낮은 사람들에게서 얻은 ‘동의’가 과연 진짜 동의인지
– 특정 알고리즘이 복지 대상, 지원 우선순위를 정할 때 생길 수 있는 불평등4

그래서 여러 국제 프레임워크에서 공통으로 강조하는 건
사전 동의, 최소 수집, 데이터 보호, 설명 가능성, 이의 제기와 구제 수단입니다4.

좋은 AI 개발 팀이라면 이 질문을 회의 안건으로 자주 올려야 합니다.

이 데이터를 꼭 수집해야 하나?
이 수준의 개인정보를 쓰지 않고도 같은 성능을 낼 수는 없을까?
사용자는 이 시스템이 자신에게 어떤 영향을 미치는지 알 수 있을까?
이의 제기를 할 창구가 존재하는가?

기술이 아니라 태도의 문제입니다.
“할 수 있으니 한다”에서 “해도 괜찮은지 먼저 묻자”로의 전환이죠.

3. 일자리: ‘대체’가 아니라 ‘재배치’의 문제로 보기

AI가 반복적이고 위험한 일을 맡는 것은 분명 좋은 일입니다.
하지만 그 과정에서 실제 사람의 일자리가 줄어들 수 있다는 걱정은 현실입니다.

여기서 중요한 건 시간차와 준비입니다.

새로운 기술이 등장하면
– 어떤 일은 빠르게 줄고
– 어떤 일은 더 중요해지고
– 전혀 새로운 일이 생깁니다.

문제는 이 변화 속도와, 사람·사회가 준비하는 속도 사이의 격차입니다.

그래서 기업과 정부, 교육 기관이 해야 할 일은 명확합니다.

단기적으로는
– 사라질 가능성이 높은 업무를 공개적으로 알리고
– 해당 인력이 갈 수 있는 “인접 역할”을 제시하고
– 재교육과 전환 프로그램을 실제 예산·시간을 들여 운영해야 합니다2.

장기적으로는
– 인간 고유 역량(공감, 비판적 사고, 협업, 문제 정의 등)을
교육과 조직 문화의 중심에 놓는 것이 필요합니다2.

AI 시대에 경쟁력 있는 사람은
“코딩 좀 할 줄 아는 사람”이 아니라,
“AI를 도구로 잘 부리는 사람”입니다.

좋은 AI는 결국 이런 사람들을 많이 만들어내는 방향으로 설계되어야 합니다.


사람과 AI가 함께 일하는 구조 설계: ‘파이프’가 아니라 ‘팀’을 만든다는 생각

많은 기업이 AI를 도입할 때 범하는 실수 중 하나는,
기존 업무 흐름에 AI를 대충 덧붙이는 것입니다.

예를 들면,
“보고서 양식 그대로 두고, 중간에 AI 버튼 하나 달기” 같은 방식입니다.

이렇게 하면 성과가 잘 안 납니다. 실제로 많은 기업들이 AI를 도입했지만,
측정 가능한 이익을 내는 곳은 40%도 안 된다는 분석도 있습니다2.

이유는 간단합니다.
일하는 방식을 안 바꾼 채 도구만 바꿨기 때문입니다.

좋은 AI 설계는 이렇게 진행됩니다.

첫째, 업무를 세분화해 봅니다.
이 역할이 하는 일을 “작은 태스크” 단위로 쪼개고,
그중에서 AI가 할 수 있는 것과 사람이 반드시 해야 하는 것을 나눕니다2.

둘째, 사람과 AI의 역할을 ‘연결된 흐름’으로 재설계합니다.
단순 태스크가 AI에게 넘어가면, 다음 단계에서 사람이 이를 검토/활용하기 쉽게 인터페이스를 설계합니다.

셋째, 이 구조를 실제로 써보면서 계속 고칩니다.
어디에서 사람이 너무 많이 개입하고 있는지,
어디에서 사람의 검토가 더 필요했는지,
데이터가 부족해 AI가 실수하는 지점은 어딘지를 계속 관찰합니다2.

이때 중요한 기준은 “AI를 얼마나 많이 돌리느냐”가 아니라,
“사람과 AI가 함께 만들어내는 가치가 얼마나 늘어났는가”입니다.

성과 측정도
– 처리량이 얼마나 늘었는지
– 에러율이 얼마나 줄었는지
– 고객 만족도나 직원 경험이 어떻게 변했는지
같은 지표와 연결해서 보는 것이 좋습니다.


지금 당장 실무에서 할 수 있는 ‘사람 중심 AI’ 실천법

이제 이 모든 이야기를, 실제 일하는 현장에서 쓸 수 있는 체크리스트로 정리해 보겠습니다.

  1. 도입 전에 “사람 인터뷰”부터 하기
    – 팀원들에게 가장 지루한 일, 가장 두려운 일, 가장 의미 있다고 느끼는 일을 물어보세요.
    – AI로 없앨 일을 고를 게 아니라, AI로 보호해야 할 인간적인 일을 먼저 고릅니다.

  2. “AI가 없는 상태에서의 이상적인 하루”를 그려보기
    – “만약 귀찮은 업무가 모두 사라진다면, 하루를 어떻게 쓰고 싶은지” 팀별로 상상해보게 해 보세요.
    – 이 그림이 바로 AI 설계의 목표가 됩니다.

  3. 작은 파일럿으로 시작하고, 책임자를 사람이 되게 만들기
    – 한두 개의 워크플로부터 시작해 AI를 붙여 보되,
    – 결과에 대한 최종 책임은 항상 사람에게 있도록 설계합니다.

  4. 편향·프라이버시·실수에 대한 “레드팀 질문 리스트” 만들기
    – “이 결과가 특정 집단에게 불리하게 작용할 수 있나?”
    – “우리가 정말 필요한 것보다 더 많은 데이터를 모으고 있나?”
    – “AI가 틀렸을 때, 누가 어떻게 알아낼 수 있나?”
    – 이런 질문을 정기 회의 안건에 넣고, 답을 문서로 남깁니다.

  5. AI 교육을 “툴 사용법”이 아니라 “AI와 함께 일하는 법”으로 설계하기
    – 버튼 클릭 튜토리얼보다,
    – “AI에게 어떻게 질문해야 좋은 답을 얻는지”,
    – “AI 답변을 검증하고 보완하는 법” 같은 내용을 교육해야 합니다.

  6. 성과 지표에 “사람의 경험”을 반드시 포함하기
    – 시간 절감, 비용 절감뿐 아니라,
    – “업무 만족도, 번아웃, 협업 만족도”를 같이 측정해 보세요.
    – AI 도입 이후 사람이 더 지치고 있다면, 뭔가 잘못된 설계입니다.


시사점: AI의 품질은 결국 “사람에 대한 태도”에서 결정된다

좋은 AI를 만드는 방법을 한 줄로 줄이면 이렇습니다.

“AI를 얼마나 잘 만들었는가”보다
“사람을 얼마나 깊이 이해하고 존중했는가”가 더 중요하다.

AI는 창조자의 가치를 닮습니다.
초점이 이익과 경쟁에만 맞춰져 있다면,
AI도 사람을 “최적화해야 할 비용”쯤으로 보기 시작할 것입니다.

반대로,
사람의 존엄, 공정성, 신뢰, 협력을 중심에 두고 설계한다면,
AI는 우리의 약점을 파고드는 경쟁자가 아니라
능력을 확장해 주는 파트너가 될 수 있습니다.

기술은 이미 충분히 빠르게 발전하고 있습니다.
이제 필요한 건 기술을 조금 더 빠르게 만드는 방법이 아니라,
사람에게 좋은 방향으로 묶어두는 방법입니다.

우리가 오늘 어떤 질문을 던지고, 어떤 기준으로 AI를 설계하느냐가
앞으로 수십 년간 우리의 일, 교육, 복지, 민주주의의 모양을 바꾸게 될 것입니다.

이 질문은 기술자만의 것이 아닙니다.
사용하는 우리 모두의 질문이기도 합니다.
“내가 쓰는 이 AI는, 나와 우리에게 정말 좋은가?”

당신의 다음 클릭, 다음 프로젝트, 다음 정책이
그 질문에 ‘예’라고 답할 수 있는 방향이길 바랍니다.


참고

1AI Strategy Starts with People, Not Technology

2Human skills will matter more than ever in the age of AI

3Can human-led AI spark a new era of generosity?

4Ethical AI Guidelines

5Ethics of artificial intelligence

6Top 10: Ethical AI Tools

#AI뉴스#인공지능

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.