OpenAI는 AI 안전성 테스트 결과를 더 자주 공개할 것을 약속합니다.
- OpenAI는 자사 AI 모델 안전성 평가 결과를 더 자주 공개하여 투명성을 높이려는 노력을 하고 있다.
- 수요일에 OpenAI는 안전성 평가 허브를 런칭했으며, 이 웹 페이지는 모형이 해로운 콘텐츠 생성, 탈옥, 환상 등에 대한 다양한 테스트에서 점수를 기록하는 방법을 보여준다.
- OpenAI는 이 허브를 사용하여 진행 중인 메트릭을 공유하고 "주요 모형 업데이트" 시에는 업데이트할 계획이라고 밝혔다.
- OpenAI는 과학적 AI 평가가 발전함에 따라 모형의 능력과 안전을 측정하는 더 확장 가능한 방법 개발의 진행 상황을 공유할 것이라고 발표했다.
- 최근 몇 달간, OpenAI는 주력 모델에 대한 안전 테스트를 서두른다는 비판을 받고 있으며 CEO인 Sam Altman은 모델 안전성 검토에 관해 OpenAI 임원들을 오도했다는 비난을 받고 있다.
- OpenAI는 최근 ChatGPT의 기본 모형 GPT-4o의 업데이트를 철회해야 했고, 이는 사용자들이 경고적이고 지나치게 동의하는 응답을 보고했기 때문이다.
- OpenAI는 미래의 이러한 사건을 방지하기 위해 여러 수정을 진행할 것이라고 밝혔으며, 일부 모형에 대해 '알파 단계'를 선택적으로 도입하여 특정 ChatGPT 사용자에게 사전 출시 모델을 테스트하고 피드백을 제공할 수 있도록 할 예정이다.
3techcrunch.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.