Meta가 AI로 인간의 위험 평가자를 대체한다고 보도됨
- 메타가 인간 위험 평가자를 AI로 대체할 계획이라고 내부 문서에 따르면 보도됨.
- 메타는 전통적으로 알고리즘 업데이트 및 안전 기능과 같은 신기술이 미치는 잠재적 피해를 평가하기 위해 인간 분석가에 의존했음.
- 회사는 이 작업의 90%를 AI로 자동화하려고 함.
- 내부 문서에 따르면, AI는 이제 AI 안전, 청소년 위험, 통합성, 잘못된 정보 및 폭력적 콘텐츠 조절과 같은 의사 결정에도 사용될 것이라고 함.
- 자동화로 앱 업데이트 및 개발자 릴리스가 빨라질 수 있지만 사용자 데이터 프라이버시에 대한 위협이 증가할 수 있음.
- 메타의 감독 위원회는 "논쟁적인" 발언을 허용하는 회사의 입장을 검증하고 콘텐츠 조절 정책에 대해 비판함.
- 4월에 메타는 인간 팩트체킹 프로그램을 종료하고 커뮤니티 노트 및 콘텐츠 조절 알고리즘에 더 많이 의존하기 시작함.
4mashable.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.