검색
검색
AI news 검색
회원가입로그인

OpenAI는 최신 GPT-4o 모델이 '중간' 위험이라고 말합니다.

  • OpenAI는 GPT-4o 시스템 카드를 공개, 최신 모델의 안전 조치 및 위험 평가 포함
  • GPT-4o는 올해 5월 출시, 출시 전 외부 보안 전문가 그룹이 모델의 주요 위험 평가 진행
  • 위험 요소: 목소리 무단 복제, 선정적/폭력적 콘텐츠 생성, 저작권 음성 복제 등
  • OpenAI 자체 평가에 따르면 GPT-4o는 '중간' 위험 등급
  • 4가지 카테고리(사이버보안, 생물학적 위협, 설득력, 모델 자율성) 중 설득력이 유일하게 중간 위험 평가
  • OpenAI 내부 팀과 외부 테스트 그룹이 함께 준비성 평가 수행
  • 이전에도 GPT-4, GPT-4 with vision, DALL-E 3에 대한 시스템 카드 발표
  • 안전 기준에 대한 비판 증가, 최근 GPT-4o 시스템 카드 발표 시점 관심
  • 미국 대선 앞두고 모델 오용 위험 가능성 존재, 정보 왜곡 우려
  • 높아진 투명성 요구, 모델 훈련 데이터 및 안전 테스트 공개 필요성 강조
  • 캘리포니아주에서 대형 언어 모델 규제 법안 추진, 법안 통과 시 자체 위험 평가 필수
  • GPT-4o 시스템 카드 주요 내용: 많은 평가가 OpenAI 자체 평가에 의존

3theverge.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.
원본 뉴스 보기