메인 콘텐츠로 건너뛰기
조회수 4

뉴욕 NY FAIR News Act: AI 생성 뉴스 면책문구 의무화

요약

뉴욕 NY FAIR News Act: AI 생성 뉴스 면책문구 의무화

요즘 뉴스도 “사람이 쓴 글인지, AI가 만든 글인지” 구분하기가 점점 어려워졌습니다. 그래서 뉴욕 주 의회에선 AI로 생성된 뉴스 콘텐츠에 경고 표시(면책 문구)와 인간 검토를 의무화하는 법안, 이른바 NY FAIR News Act를 발의했습니다1. 핵심은 단순히 AI를 금지하는 게 아니라, 독자에게 투명하게 알리고, 출판 전에는 사람이 최종 책임을 지도록 제도를 설계했다는 점입니다.

NY FAIR News Act란? “AI 뉴스, 라벨부터 붙이자”

이 법안이 겨냥하는 건 “AI가 만든 뉴스가 나쁜가?” 같은 철학 논쟁이 아닙니다. 훨씬 현실적인 질문이 출발점이에요.

독자가 뉴스를 읽을 때 “이 기사는 어떻게 만들어졌지?”를 알 권리가 있다는 것, 그리고 뉴욕이 미국 언론의 심장부인 만큼 저널리즘의 신뢰 기반을 지키겠다는 목표가 함께 깔려 있습니다1.

즉, 앞으로는 AI가 상당 부분 관여한 뉴스라면, 기사 옆에 원재료 표시처럼 “AI 사용” 고지가 붙는 시대가 오고 있습니다.

AI 사용 표기 의무: ‘많이 썼으면 표시’가 아니라 ‘조금 써도 투명하게’

법안의 포인트는 “AI가 대부분 썼을 때만 표기”가 아니라는 데 있습니다. 생성형 AI가 제작·작성에 상당 부분 쓰였다면 당연히 표기해야 하고, AI가 보조 역할로만 쓰였더라도 독자에게 투명하게 알릴 필요가 있다는 취지로 설계돼 있습니다1.

예를 들어 기자가 초안을 AI로 만들고 손봤다면, 또는 AI로 요약·재구성을 돌린 뒤 편집했다면, 결과물만 보고는 독자가 판단하기 어렵죠. 그래서 “AI가 관여한 정도”를 뉴스룸이 스스로 설명하도록 유도합니다.

‘인간 검토’가 핵심: 출판 버튼은 결국 사람이 누른다

가장 중요한 안전장치는 출판 전 인간 검토 의무입니다. 기사, 오디오, 이미지 등 어떤 형태든 AI 생성 콘텐츠라면, 출판 전에 인간 직원이 편집 권한을 갖고 반드시 검토해야 한다는 구조예요1.

이게 왜 중요할까요? AI는 그럴듯하게 틀리는 데 강합니다. 숫자 하나, 인명 하나, 날짜 하나가 틀리면 뉴스는 바로 신뢰를 잃습니다. 법안은 “AI를 쓰더라도 최종 책임은 뉴스룸(사람)이 져야 한다”는 원칙을 제도 문장으로 박아두는 셈입니다.

뉴스룸 내부 고지 의무: “우리도 모르게 AI가 쓰고 있었다” 방지

이 법안은 독자뿐 아니라 뉴스룸 구성원도 보호하려고 합니다. AI가 사용된 경우, 해당 뉴스룸의 직원들에게 AI 사용 사실을 고지하고, 어떤 방식으로 사용되는지도 설명해야 한다는 조항이 포함돼 있습니다1.

현장에선 종종 이런 일이 벌어집니다. “그냥 도구야”라고 들었는데, 나중에 알고 보니 기사 생산량 평가나 업무 축소의 근거가 되기도 하죠. 그래서 투명성은 독자 신뢰뿐 아니라 노동 환경의 룰을 만드는 문제이기도 합니다.

기밀 취재원 보호: AI가 ‘민감 정보’에 손대지 못하게

법안은 취재원 정보 같은 민감 데이터에 AI가 접근하지 못하도록 보호 장치 마련도 요구합니다1.

기자는 때로는 이름을 밝힐 수 없는 내부 제보자와 통화하고, 공개되면 곤란한 문서를 다룹니다. 이 과정에서 AI 도구를 무심코 쓰면, 데이터가 외부로 전송되거나 저장될 위험이 생길 수 있습니다. “편리함”이 “취재 윤리”를 무너뜨릴 수 있으니, 아예 제도적으로 가드레일을 세우겠다는 뜻입니다.

저작권·표절 이슈까지: “AI가 쓴 글은 누구 것인가?”

AI 생성 콘텐츠가 늘수록 저작권 갈등도 같이 커집니다. 일반적으로 AI가 전적으로 생성한 작품은 미국 저작권법상 보호를 받기 어렵고, 인간의 창작성이 드러나는 경우에 예외가 가능하다는 흐름이 알려져 있죠1.

언론사 입장에선 여기서 골치가 아픕니다. AI가 기존 기사나 다른 창작물을 학습·모방한 흔적이 있으면 표절 논란이 생길 수 있고, 반대로 “AI가 만들어준 원고”를 우리 회사 자산으로 온전히 주장하기도 애매해집니다. 결국 법안이 요구하는 ‘표기’와 ‘인간 검토’는 저작권 리스크를 줄이는 방어선이기도 합니다.

노조가 지지하는 이유: 신뢰 문제 + 고용 문제는 같이 간다

이 법안이 주목받는 이유 중 하나는 언론계 노조들이 공개적으로 힘을 싣고 있다는 점입니다. WGA-East, SAG-AFTRA, DGA, NewsGuild 등이 지지 의사를 밝혔고1, NewsGuild는 ‘News Not Slop’ 같은 캠페인을 내세우며 “품질 없는 AI 콘텐츠가 저널리즘을 잠식한다”는 문제의식을 키워왔습니다2.

또 미국인의 76%가 “AI가 저널리즘과 지역 뉴스 스토리를 도용할 수 있다”는 우려를 표했다는 조사도 거론됩니다1. 신뢰의 균열이 생기면 지역 뉴스부터 무너지고, 그 충격은 기자 일자리로 바로 이어지니까요.

법안에는 AI 도입을 핑계로 해고, 업무 축소, 임금·복리후생 감소가 일어나지 않도록 하는 노동 보호 조항도 담겨 있습니다1. “AI 표기”가 단지 라벨 하나의 문제가 아니라, 뉴스 산업의 고용 질서를 둘러싼 협상 테이블이라는 걸 보여줍니다.

시사점을 정리해보면 이렇습니다. 뉴욕의 NY FAIR News Act는 “AI 뉴스는 금지”가 아니라 “AI 뉴스는 책임 있게”로 방향을 잡았습니다. 언론사와 콘텐츠 제작자는 이제 AI를 쓰느냐 마느냐보다, 어떻게 투명하게 공개하고 어떤 검증 절차로 품질을 지키는지가 경쟁력이 될 가능성이 큽니다.

실용적으로는 지금부터라도 간단한 내부 원칙을 만들어두는 게 좋습니다. 어떤 경우에 AI 사용을 표기할지, 출판 전 인간 검토 체크리스트는 무엇인지, 취재원 정보가 AI 도구로 흘러가지 않게 어떤 도구를 금지/허용할지 말이죠. “AI를 잘 쓰는 회사”보다 “AI를 믿을 수 있게 쓰는 회사”가 이기는 국면이 오고 있습니다.

참고

1뉴욕의 새로운 법안은 AI로 생성된 뉴스 콘텐츠에 면책 문구를 요구할 것입니다.

2New York lawmakers want to keep AI out of news - City & State New York

뉴욕 NY FAIR News Act: AI 생성 뉴스 면책문구 의무화

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.