전 OpenAI 연구자, 회사가 "상당히 가까이" AGI에 다가갔으며 이에 대한 준비가 되어 있지 않다고 믿는다
- 최근 많은 OpenAI의 AGI/ASI 안전 연구원들이 회사를 떠났다고 전직 직원이 전했다.
- Daniel Kokotajlo 전 OpenAI 안전 연구원은 Fortune 매거진에 약 절반의 안전 연구원들이 회사를 떠났다고 밝혔다.
- 떠난 이유에 대해 구체적으로 언급하지 않았지만, Kokotajlo는 OpenAI가 AGI 개발에 "상당히 가까워졌지만 이를 처리할 준비가 되어 있지 않다"고 말했다.
- 이는 AGI 리스크 연구를 출판하려는 사람들에게 "냉각 효과"를 초래했다고 전했다.
- OpenAI의 커뮤니케이션 및 로비 부서의 영향력이 증가해 무엇을 출판할지 결정하는 데 영향이 있다고도 말했다.
- OpenAI CEO Sam Altman의 일시 해고도 안전 문제와 관련이 있었다.
- AGI 안전 문제를 다루던 약 30명의 직원 중 약 16명이 남아 있다.
- Jan Hendrik Kirchner, Collin Burns, Jeffrey Wu, Jonathan Uesato, Steven Bills, Yuri Burda, Todor Markov, John Schulman 등의 저명한 연구원들이 떠났다.
- 특히 최고 과학자 Ilya Sutskever와 Jan Leike의 사임이 크게 주목되었으며, 회사의 "슈퍼 얼라인먼트" 팀이 해체되었다.
- Kokotajlo는 OpenAI가 캘리포니아의 SB 1047 법안에 반대해 실망했다고 전했다.
- 그는 이 법안을 지지하는 편지에 서명했으며, OpenAI의 입장을 "배신"이라고 표현했다.
- 떠난 연구원들은 Anthropic 등 다른 안전 연구 역할을 맡거나 독자적인 스타트업을 시작했다.
- 이 연구원들은 OpenAI를 떠났으나 여전히 AI 작업에 헌신하고 있으며, 기술에 대한 가능성을 여전히 인정하고 있다.
4the-decoder.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.