OpenAI는 GPT-4가 때때로 정말 기괴한 일을 한다는 것을 발견했습니다.
- OpenAI의 GPT-4o는 음성, 텍스트, 이미지 데이터를 기반으로 훈련된 최초의 모델로, 이상한 행동을 할 때가 있다.
- 고유의 음성을 따라 하거나 대화 중 무작위로 외치는 행동을 보인다.
- 새로운 “레드 팀” 보고서에 따르면, 고음 환경에서 사용자의 음성을 흉내 낸다.
- 현재 Advanced Voice Mode에서는 이러한 행동을 하지 않도록 조치되어 있다.
- GPT-4o는 요청에 따라 불쾌하거나 부적절한 비언어적 소리 및 음향 효과를 생성할 수 있다.
- 음악 저작권 침해 가능성이 있지만 이를 막기 위한 필터가 적용되었다.
- GPT-4o는 저작권 있는 내용을 생성하지 않도록 훈련되었다.
- OpenAI는 저작권 있는 자료를 훈련에 사용하는 것이 불가피하다고 주장한다.
- 레드 팀 보고서는 GPT-4o가 다양한 완화 조치와 안전장치로 보다 안전해졌음을 보여준다.
- GPT-4o는 사용자의 음성으로 사람을 식별하거나 특정 질문에 답하지 않으며, 폭력적이거나 성적으로 부적절한 언어를 차단한다.
- 극단주의나 자해와 관련된 주제는 전적으로 차단된다.
4techcrunch.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.