ChatGPT가 찜찜했다면? 모지의 ‘Confer’가 던진 해답
AI 개인 비서가 편해질수록 “내 대화가 어디로 가는 걸까?”라는 불안도 같이 커지고 있습니다. 업무 메모, 건강 고민, 연애 상담까지… 채팅창은 어느새 ‘디지털 일기장’이 됐는데, 그 일기장이 학습 데이터나 광고 타깃으로 쓰일 수 있다면 마음이 편할 리 없죠.
이런 불신을 정면으로 겨냥한 대안이 등장했습니다. 시그널(Signal) 공동 창립자 모지 말린스파이크(Moxie Marlinspike)가 지난해 12월 공개한 개인정보 보호 중심 AI 서비스 ‘Confer’입니다. 겉보기엔 ChatGPT나 Claude처럼 대화형 인터페이스지만, 속은 “운영자도 못 본다”에 가깝게 설계됐다는 점이 핵심입니다.1
AI 채팅이 특히 위험한 이유: “너무 많은 걸 말하게 된다”
검색창에는 보통 키워드만 던지고 끝납니다. 반면 AI 채팅은 다릅니다. 상황 설명을 길게 하고, 맥락을 풀어놓고, 감정까지 얹습니다. 결국 AI는 사용자의 취향뿐 아니라 관계, 회사 사정, 고민의 결까지 알게 됩니다.
모지는 이 지점을 아주 직설적으로 짚습니다. 채팅 인터페이스는 “사람들에 대해 그 어떤 기술보다 더 많은 것을 안다”는 것이죠.2 그래서 AI의 발전에서 개인정보 보호는 ‘있으면 좋은 옵션’이 아니라, 설계의 출발점이 되어야 한다는 문제의식이 깔려 있습니다.
Confer가 내세우는 한 줄 약속: 대화는 학습·광고에 쓰지 않는다
Confer의 가장 큰 메시지는 단순합니다. “네가 말한 건 네 것”이라는 것.
일반적인 AI 서비스는 품질 개선, 기능 개발, 개인화 같은 명목으로 대화 데이터를 수집·보관할 유인이 큽니다. 게다가 광고가 AI 서비스로 들어오면, 대화 내용이 더 매력적인 ‘타깃팅 재료’가 될 가능성도 커지고요.
Confer는 이 흐름을 반대로 갑니다. 대화 내용이 모델 훈련이나 광고 표적화에 쓰이지 않도록 설계했고, 서비스를 운영하는 호스트 역시 대화 내용을 들여다볼 수 없게 만들었다고 설명합니다.1 “우리가 안 봅니다”가 아니라 “구조적으로 못 봅니다”에 가깝게 접근한 셈입니다.
핵심 기술 1: 패스키(WebAuthn)로 ‘기기에서’ 암호화가 시작된다
“운영자도 못 보는 AI”가 말처럼 쉬운 건 아닙니다. Confer는 여기서 패스키(passkey)를 적극 활용합니다.
패스키는 WebAuthn 기반 로그인 방식으로, 사용자 기기 안에 안전하게 보관되는 키를 이용해 인증합니다. Confer는 이 패스키 시스템을 암호화의 출발점으로 삼아, 대화 메시지가 서버로 가기 전부터 보호되도록 설계했습니다.1 즉 서버에 “풀어볼 열쇠” 자체가 없다는 발상입니다.
사용자 입장에서는 편의성이 중요합니다. 다행히 패스키는 지문/얼굴인식 같은 생체인증이나 기기 잠금 해제로도 이어져서, 보안이 강해질수록 더 불편해지는 전통적인 딜레마를 어느 정도 줄여줍니다.1
핵심 기술 2: 서버에서는 TEE로 ‘보는 척도’ 못 하게 만든다
그렇다면 AI가 답변을 생성하는 과정(추론)은 어디서 이뤄질까요? 결국 서버에서 모델이 돌아가야 하는데, 그 순간 대화가 노출될 수 있지 않을까요?
Confer는 이 구간을 TEE(신뢰 실행 환경)로 감쌉니다. 쉽게 말해, 서버 안에 ‘유리로 된 금고’를 하나 더 만들어 그 안에서만 연산이 일어나게 하는 방식입니다. 서버 관리자가 접근 권한을 갖고 있어도 그 금고 안을 들여다보기 어렵고, 외부 공격도 훨씬 까다로워집니다.1
여기에 원격 검증(원격 attestation) 같은 메커니즘을 붙여, 서버가 “정상적인 상태의 코드로 돌고 있는지”를 확인하는 절차도 활용한다고 알려졌습니다.1 개인 정보 보호를 “선언”이 아니라 “검증 가능한 구조”로 만들려는 방향성이 보입니다.
무료는 하루 20개, 유료는 월 35달러… 비싼데 왜 의미 있나
Confer는 무료 요금제에서 하루 20개 메시지, 활성 채팅 5개 제한이 있습니다.3 무제한과 고급 모델·개인화를 제공하는 유료 플랜은 월 35달러로, 흔히 비교되는 ChatGPT Plus(20달러)보다 비쌉니다.3
그런데 이 가격 차이는 단순히 “프리미엄 모델” 때문이 아니라, 개인정보 보호를 위한 인프라 선택이 만든 비용일 가능성이 큽니다. TEE 기반 처리, 검증 가능한 운영, 데이터 접근을 줄이기 위한 구조는 대개 더 복잡하고 비싸거든요. 결국 Confer는 “데이터로 결제하는 무료” 대신 “현금으로 프라이버시를 산다”는 선택지를 시장에 던진 셈입니다.
ChatGPT와 똑같은 질문을 해도 ‘마음가짐’이 달라진다
흥미로운 지점은 여기입니다. 사람은 기술을 ‘기능’만으로 쓰지 않습니다. “이 공간이 안전하다고 느끼는가”가 대화의 깊이를 바꿉니다.
모지는 실제로 Confer 이용자들이 기존 AI에서는 꺼렸던 개인적·민감한 이야기를 더 솔직하게 풀어놓는 사례가 있었다고 말합니다.1 같은 AI라도 “기록될지 모른다”는 의심이 사라지면, 질문의 질과 대화의 방향이 달라질 수 있다는 겁니다. AI 비서가 ‘유용한 도구’에서 ‘상담에 가까운 동반자’로 가는 길목에서, 프라이버시는 기능이 아니라 토대가 됩니다.
시사점 내용 (핵심 포인트 정리 + 개인적인 생각 또는 실용적 조언)...
AI 개인 비서는 앞으로 더 개인적인 영역으로 들어올 겁니다. 그때 “대화는 데이터 호수로 흘러간다”는 불안이 그대로라면, 많은 사람들은 결국 중요한 질문을 삼키게 되겠죠.
Confer가 던진 메시지는 단순합니다. AI 시대의 신뢰는 ‘약관’이 아니라 ‘구조’에서 시작된다는 것. 당장 Confer를 쓰지 않더라도, AI 서비스를 고를 때 “내 대화가 학습에 쓰이나요?” 같은 질문에서 한 걸음 더 나아가 “운영자가 기술적으로도 못 보게 되어 있나요?”를 묻는 습관이 필요해 보입니다.
참고
1Signal creator Moxie Marlinspike wants to do for AI what he did for messaging - Ars Technica
3Confer Is Moxie Marlinspike's Take on Chatbots That Prioritizes Privacy Above All Else