OpenAI는 ‘AI 도덕성’에 대한 연구를 지원하고 있습니다.
- OpenAI는 인간의 도덕적 판단을 예측하는 알고리즘에 대한 학술 연구를 자금 지원하고 있음
- OpenAI Inc.는 Duke 대학 연구자들에게 "Research AI Morality"라는 프로젝트 명목으로 보조금을 지급함
- 이 연구는 Duke 대학의 실용 윤리학 교수인 Walter Sinnott-Armstrong가 주도하며, 2025년에 종료될 예정임
- Sinnott-Armstrong와 공동 연구자 Jana Borg는 AI가 인간의 도덕적 판단을 돕는 "도덕적 GPS"로서의 잠재력을 연구한 바 있음
- 연구 목표는 의료, 법률, 비즈니스 상황에서 인간의 도덕적 판단을 예측하는 알고리즘을 훈련시키는 것임
- 그러나, 현재 기술로 도덕성과 같은 복잡한 개념을 구현하는 것은 쉽지 않음
- 비영리 Allen Institute for AI는 2021년에 윤리적 권고를 위한 도구 Ask Delphi를 개발했으나, 약간의 질문 수정만으로도 부적절한 답변을 생성함
- 현대 AI 시스템은 통계적 기계일 뿐 도덕적 개념에 대한 이해가 부족함
- AI는 서부, 교육받은 산업화된 국가의 가치관을 반영하는 경향이 있음
- 많은 사람들이 AI의 답변에 표현되지 않는 가치를 가지고 있어 AI의 답변이 공정하지 않을 수 있음
- 특히 도덕성의 주관성 때문에 OpenAI와 연구자들이 직면한 도전 과제는 매우 큼
- 도덕적 판단을 예측하는 알고리즘을 만들기 위해서는 다양한 윤리적 이론과 관점을 고려해야 함
- 프로젝트가 성공할지는 불확실함
5techcrunch.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.