오픈 소스 AI는 매우 위험합니다.
- 오픈소스 AI는 독특하고 위험하다고 경고함.
- 일반 대중은 비공개 소스 AI 응용 프로그램에 더 익숙하지만, 공개된 오픈소스 AI 시스템의 위험성은 잘 알려져 있지 않음.
- OpenAI는 처음에는 오픈소스 AI 시스템을 개발하기 위해 설립되었으나, 2019년 위험성을 인식하고 GPT 시스템의 소스 코드와 모델 가중치 공개를 중단함.
- 메타와 같은 회사들은 AI 접근성을 민주화하기 위해 강력한 보안되지 않은 AI 시스템을 공개함.
- 공개된 AI는 악용될 위험이 있으며, 사회적 미디어 및 메시징 플랫폼을 통한 잘못된 정보와 사기의 확산에 사용될 수 있음.
- 미국 백악관의 최근 AI 행정 명령과 유럽연합의 AI 법률에 대한 공개 기간 동안 일부 미보안 모델에 대한 예외를 얻기 위한 노력이 있음.
- AI 규제에 대한 권장 사항을 제안함:
- 새로운 보안되지 않은 AI 시스템의 출시 중단
- 모든 AI 시스템에 대한 등록 및 라이센스 요구
- “합리적으로 예상 가능한 오용” 및 과실에 대한 법적 책임
- 위험 평가 및 감사 절차의 설립
- AI 생성 콘텐츠의 워터마킹 및 출처 규범 요구
- 개인 식별 정보에 대한 훈련 데이터의 투명성 요구
- 독립 연구자에 대한 접근 요구
- 강력한 하드웨어 및 클라우드 서비스 판매에 대한 "고객을 아는 절차" 요구
- 사건 공개 의무화
- 공개된 AI가 막대한 수익을 낼 수 있지만, 그 제품이 초래하는 위험은 모두에게 전가될 수 있다는 점을 지적함.
- AI에 대한 접근성 문제에 대한 공공 인프라의 창설 제안.
3spectrum.ieee.org링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.