오픈 소스 AI는 매우 위험합니다.

  • 오픈소스 AI는 독특하고 위험하다고 경고함.
  • 일반 대중은 비공개 소스 AI 응용 프로그램에 더 익숙하지만, 공개된 오픈소스 AI 시스템의 위험성은 잘 알려져 있지 않음.
  • OpenAI는 처음에는 오픈소스 AI 시스템을 개발하기 위해 설립되었으나, 2019년 위험성을 인식하고 GPT 시스템의 소스 코드와 모델 가중치 공개를 중단함.
  • 메타와 같은 회사들은 AI 접근성을 민주화하기 위해 강력한 보안되지 않은 AI 시스템을 공개함.
  • 공개된 AI는 악용될 위험이 있으며, 사회적 미디어 및 메시징 플랫폼을 통한 잘못된 정보와 사기의 확산에 사용될 수 있음.
  • 미국 백악관의 최근 AI 행정 명령과 유럽연합의 AI 법률에 대한 공개 기간 동안 일부 미보안 모델에 대한 예외를 얻기 위한 노력이 있음.
  • AI 규제에 대한 권장 사항을 제안함:
    • 새로운 보안되지 않은 AI 시스템의 출시 중단
    • 모든 AI 시스템에 대한 등록 및 라이센스 요구
    • “합리적으로 예상 가능한 오용” 및 과실에 대한 법적 책임
    • 위험 평가 및 감사 절차의 설립
    • AI 생성 콘텐츠의 워터마킹 및 출처 규범 요구
    • 개인 식별 정보에 대한 훈련 데이터의 투명성 요구
    • 독립 연구자에 대한 접근 요구
    • 강력한 하드웨어 및 클라우드 서비스 판매에 대한 "고객을 아는 절차" 요구
    • 사건 공개 의무화
  • 공개된 AI가 막대한 수익을 낼 수 있지만, 그 제품이 초래하는 위험은 모두에게 전가될 수 있다는 점을 지적함.
  • AI에 대한 접근성 문제에 대한 공공 인프라의 창설 제안.

3spectrum.ieee.org링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.
원본 뉴스 보기