검색
검색
AI news 검색
Sign UpLogin

OpenAI는 모델이 안전하게 작동하도록 확인하는 데 필요한 시간을 줄이고 일부 모델의 미세 조정을 자동화하는 방법인 Rule-Based Rewards를 도입했습니다.

  • OpenAI가 안전 정책에 맞춰 AI 모델을 훈련시키는 새로운 방법인 Rules Based Rewards(RBR)를 발표.
  • RBR은 모델 미세 조정을 자동화하고 모델이 의도된 결과를 내는지 확인하는 시간을 단축.
  • 기존에는 인간 피드백 강화 학습에 의존했으나, RBR은 규칙에 기반하여 모델의 응답을 평가.
  • 정신 건강 앱 같은 사례에서는 모델이 안전하지 않은 요청을 거부하고, 판단하지 않으며, 도움을 권장하도록 규칙 설정 가능.
  • RBR 결과는 인간 주도 강화 학습과 비교 가능.
  • 모델이 특정 매개변수 내에서 응답하도록 보장하는 것은 어려우며, 실패 시 논란이 발생.
  • RBR은 인간 평가자의 주관성을 줄여줄 수 있음.
  • RBR은 주관적인 작업, 예를 들어 글쓰기나 창의적인 작업을 처리하는 데 어려움을 겪을 수 있음.
  • OpenAI는 GPT-4 개발하면서 RBR 방법을 탐구하기 시작했으며, 이후 RBR이 많이 발전.
  • OpenAI는 안전에 대한 헌신이 의심받고 있으며, 이전 리더가 회사의 안전 문화와 프로세스를 비판.
  • RBR 사용 시 인종적 편향 등 윤리적 고려 사항을 신중하게 설계해야 한다고 강조.

4venturebeat.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.
원본 뉴스 보기