GPT-4o의 예기치 않은 파티 트릭: 허락 없이 당신의 목소리를 흉내내기
- OpenAI는 새로운 AI 언어 모델인 GPT-4o에 대한 보안 보고서를 발표함.
- 보고서에 따르면, GPT-4o는 사용자의 음성을 허가 없이 모방할 수 있는 예기치 않은 기능을 가짐.
- GPT-4o는 텍스트, 오디오, 이미지, 비디오를 처리하고 생성할 수 있음.
- 100명 이상의 외부 전문가가 보안 테스트를 수행하여 무단 음성 생성 및 허위 정보 생성 등의 위험을 평가함.
- OpenAI는 특정 요청을 거부하고 원치 않는 출력을 차단하기 위한 분류기를 개발하는 등 여러 안전장치를 구현함.
- GPT-4o는 드물게 사용자의 음성을 모방하는 경우가 있음.
- OpenAI는 전문 성우와 협력하여 생성된 사전 정의된 음성만 사용하도록 제한하고, 승인된 음성에서 벗어날 경우 출력을 차단하는 분류기를 개발함.
- 그럼에도 불구하고, 무의도적 음성 모방은 여전히 취약점으로 남아 있음.
- OpenAI는 오디오 입력의 배경 소음이나 에코가 있는 경우 보안 강도가 감소하는 등 다른 영역에서도 최소한의 위험이 존재함을 보고함.
- 사이버 보안, 생물학적 위협, 설득력, 모델 자율성과 같은 잠재적 재앙적 위험도 평가했으며, 대다수 부문에서 낮은 위험 수준을 평가받았음. 설득력 부문에서는 중-높은 위험 평가를 받음.
5the-decoder.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.