메인 콘텐츠로 건너뛰기
조회수 6

생성형 AI 도구를 활용하여 작성 및 편집된 노트입니다.

MS 오피스 버그로 Copilot이 ‘기밀 메일’ 요약? 무엇이 문제였나

요약

MS 오피스 버그로 Copilot이 ‘기밀 메일’ 요약? 무엇이 문제였나

최근 Microsoft가 “Office(정확히는 Microsoft 365 Copilot Chat) 버그 때문에 기밀로 표시된 이메일이 Copilot에 의해 요약될 수 있었다”고 확인했습니다.1 겉보기엔 ‘AI가 메일을 좀 읽은’ 해프닝 같지만, 기업이 믿고 쓰는 보안 장치(DLP·민감도 레이블)가 뚫렸다는 점에서 파장이 큽니다. 오늘은 사건을 쉬운 말로 정리하고, 우리 조직이 당장 점검할 포인트까지 연결해보겠습니다.

Microsoft 365 Copilot Chat 버그, 어디까지 벌어졌나

이번 이슈는 관리자 알림 ID ‘CW1226324’로 추적 가능한 건으로, 1월 하순부터 문제가 관측됐고 2월 초부터 수정이 배포되기 시작했다고 알려졌습니다.12 핵심은 Copilot Chat의 “work 탭”에서, 사용자의 ‘보낸 편지함(Sent Items)’과 ‘임시 보관함(Drafts)’에 있는 메일을 가져와 요약하는 과정이 정책 의도와 다르게 동작했다는 점입니다.2

중요한 포인트는 “외부로 이메일이 유출됐다”는 식의 단순 해킹 사건과 결이 다르다는 것입니다. 이 건은 보안 정책이 막아야 할 ‘AI 처리(요약·정리)’가 허용돼 버린 사고에 가깝습니다. 즉, 데이터가 어디로 새나갔는지뿐 아니라 “정해둔 통제선이 실제로 작동했는지”가 기업 입장에서는 더 무섭습니다.

DLP·민감도 레이블이 뚫리면 왜 위험해질까

많은 조직은 Microsoft Purview의 민감도 레이블(예: Confidential)과 DLP(데이터 유출 방지) 정책으로 “이 등급의 문서·메일은 Copilot 같은 자동화 도구가 다루지 못하게” 설계합니다. 그런데 이번 버그는 그 ‘게이트’가 특정 상황(보낸 편지함·임시 보관함)에서 열려버린 셈입니다.2

여기서 현실적인 리스크는 두 가지로 커집니다. 첫째, 사용자는 “어차피 기밀 라벨 붙였으니 AI가 못 읽겠지”라고 믿고 더 과감하게 내용을 적습니다. 둘째, Copilot 요약은 원문을 그대로 보여주지 않아도 핵심을 뽑아주기 때문에, 내부 권한 경계가 복잡한 조직(공유 사서함, 대리 권한, 팀 단위 협업)에서는 ‘요약’만으로도 충분히 민감할 수 있습니다. 기밀을 “복사해 붙여넣기” 한 게 아니라 “요점정리 형태로 재포장”됐다는 점이 오히려 사람의 경계심을 낮출 수도 있고요.

관리자와 보안 담당자가 지금 바로 할 일

가장 먼저, 관리 센터에서 해당 이슈(CW1226324) 상태를 확인하고 “우리 테넌트에 수정이 실제로 적용됐는지”를 검증해야 합니다.1 단순히 ‘패치가 배포 중’이라는 문구만 믿고 넘어가면, 조직 내 일부 사용자/환경에선 잔존할 수 있습니다.

그다음은 재발 방지형 점검입니다. Copilot 사용 그룹(부서·직무)을 다시 나눠서, 고위험 메일박스(임원, 재무, 법무, 인사)에는 Copilot Chat 범위를 더 보수적으로 두는 방식을 검토할 만합니다. 또한 “라벨을 붙이면 끝”이 아니라, 라벨이 붙은 콘텐츠가 실제로 Copilot 응답에서 어떻게 취급되는지 샘플 테스트를 정기 루틴으로 만들면 좋습니다. Office365ITPros는 DLP 정책이 정상일 때 Copilot이 ‘참조는 찾지만 내용은 못 보여준다’는 식으로 동작해야 한다는 점을 테스트 사례로 보여줍니다.2

시사점: ‘AI 도입’보다 ‘AI 통제선 검증’이 먼저다

이번 사건이 주는 교훈은 단순합니다. 생성형 AI는 “권한·정책·레이블이 완벽하게 맞물릴 때” 업무 도구가 됩니다. 반대로 그중 하나가 어긋나면, AI는 조직이 가장 숨기고 싶은 정보를 가장 알아보기 쉽게 요약해주는 존재가 될 수도 있습니다.

실무적으로는 세 가지를 기억하면 좋습니다. 첫째, Copilot을 쓰는 조직이라면 ‘라벨+DLP’가 실제로 Copilot Chat에서 기대대로 작동하는지 정기적으로 확인하세요. 둘째, 임시 보관함·보낸 편지함처럼 “늘 기밀이 섞이는 폴더”는 특히 테스트 우선순위를 높이세요. 셋째, 사용자 교육도 업데이트가 필요합니다. “라벨 붙였으니 안전”이 아니라 “라벨은 안전장치 중 하나일 뿐, 이상 행동을 보면 바로 신고”가 새 기본값이 되어야 합니다.

AI는 생산성을 올리지만, 보안은 ‘설정’이 아니라 ‘검증’에서 완성됩니다. 이번 Copilot 버그는 그 사실을 꽤 비싼 수업료로 다시 상기시켰습니다.

참고

1Microsoft says Office bug exposed customers’ confidential emails to Copilot AI

2Microsoft says bug causes Copilot to summarize confidential emails

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.

틸노트는 사용자가 AI를 활용해 노트를 쉽게 작성하거나 편집할 수 있는 서비스입니다.