검색
검색
AI news 검색
회원가입로그인

펜타곤은 AI가 'kill chain'을 가속화하고 있다고 말합니다.

  • OpenAI와 Anthropic 같은 주요 AI 개발자는 미국 군대에 소프트웨어를 판매하고 있으며, AI가 사람을 죽이지 않게 하는 것이 목표.
  • 현재 AI 도구는 무기로 사용되지 않고 있으며, 국방부는 AI를 통해 위협을 식별, 추적 및 평가하는 데 "상당한 이점"을 얻고 있음.
  • 펜타곤의 디지털 및 AI 책임자인 라다 플럼 박사는 AI가 수행 "살상 체인"의 속도를 높여 지휘관이 적절한 시점에 반응할 수 있게 한다고 언급.
  • "살상 체인"은 위협을 식별, 추적 및 제거하는 군사 과정을 의미하며, AI는 특히 계획 및 전략 단계에서 유용.
  • OpenAI, Anthropic 및 Meta는 2024년에 미국 정보 및 방위 기관의 AI 시스템 사용을 허용했으나, AI가 사람을 해치지 않도록 하는 제한은 여전히 유효.
  • Meta는 록히드 마틴과 Booz Allen과 협력했고, Anthropic은 Palantir와, OpenAI는 Anduril과 유사한 계약을 체결.
  • 플럼 박사는 AI가 다양한 시나리오를 통해 지휘관이 창의적으로 대응 옵션과 잠재적 거래를 생각할 수 있도록 돕는다고 설명.
  • Anthropic의 사용 정책은 AI를 인간 생명을 손상시키는 시스템에 사용하는 것을 금지하고 있어 논란이 있음.
  • 독립형 자율 무기 시스템에 대해 논란이 있지만, 플럼 박사는 인간이 무력 사용 결정을 내리는 데 항상 관여한다고 강조.
  • 군사 파트너십은 기술 산업에서 다양한 반응을 야기했으며, AI 연구자들은 군대와 협력하여 AI 모델의 오용을 방지하는 것이 중요하다고 주장.

4techcrunch.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.
원본 뉴스 보기