검색
검색
공개 노트 검색
회원가입로그인

2024 AI 서울 정상회의 개최 및 보고서 요약

About the AI Seoul Summit 2024

서울서 AI의 미래와 거버넌스 논한다…'AI 서울 정상회의' 개최 | 아주경제

AI Seoul Summit 2024

이번 서밋은 전 세계에서 영향력 있는 AI 전문가들과 정책 결정자들이 참여하는 중요한 회의로, AI 기술의 미래 방향성과 국제 협력의 방향을 모색하는 데 중점을 두고 있습니다. AI 기술의 안전한 사용과 혁신적인 활용 방안, 그리고 이를 통한 사회적 가치 실현이 주요 논의 주제입니다

  • 날짜 및 장소: 2024년 5월 21일과 22일, 영국과 대한민국 공동 주최

  • 목적: AI의 안전, 혁신, 포용성 증진을 통해 글로벌 AI 거버넌스 전략을 모색

서밋의 주요 내용과 목표

  • 첫째 날 주요 활동:

    • Rishi Sunak 영국 총리와 Yoon Suk Yeol 대한민국 대통령이 공동 의장으로 참여하는 가상 리더 세션

    • 글로벌 산업 리더들이 Bletchley Park에서의 약속 이행 상황을 공유

  • 둘째 날 주요 활동:

    • Michelle Donelan 영국 기술 장관과 Lee Jong-Ho 한국 과학기술정보통신부 장관이 공동 주최하는 디지털 장관 회의

핵심 우선 순위

  • 안전: AI 안전에 대한 약속을 재확인하고 AI 안전을 보장하기 위한 로드맵 개발 강조

  • 혁신: AI 개발 내에서 혁신을 촉진하는 중요성 강조

  • 포용성: AI의 기회와 혜택이 공평하게 공유될 수 있도록 하는 것

추가 정보 및 참고 사항

  • AI 서울 서밋은 Bletchley Park에서 개최된 첫 AI 안전 서밋의 유산을 이어받아, AI 안전, 혁신 및 포용성에 초점을 맞춘 글로벌 논의를 진행합니다.

  • 이번 서밋에서는 Advanced AI Safety에 대한 첫 번째 국제 과학 보고서가 발표될 예정입니다.

  • 이번 행사는 국제적인 AI 관련 논의를 촉진하고 AI 기술의 안전한 발전을 위한 전략을 모색하는 장이 될 것입니다

AI Report on safety.pdf 내용 요약

  1. 제품 기능상의 문제로 인한 위험

    • 제품 기능상의 문제는 일반 목적 AI 모델이나 시스템이 무엇을 할 수 있는지에 대한 혼란이나 잘못된 정보 때문에 발생합니다. 이는 현실적인 기대치와 일반 목적 AI 시스템에 대한 지나친 의존을 초래할 수 있으며, 시스템이 기대한 기능을 제공하지 못할 경우 해를 입힐 수 있습니다.

    • 이러한 기능 오해는 AI 모델의 진정한 능력을 독자적으로 평가하는 기술적 어려움이나, 더 큰 시스템의 일부로서의 성능을 예측하는 것에서 발생할 수 있습니다. 광고 및 커뮤니케이션에서의 오도하는 주장들도 이러한 오해에 기여할 수 있습니다​​.

  2. 개인 정보 보호에 대한 위험

    • 일반 목적 AI 모델이나 시스템은 훈련에 사용된 개인의 데이터에 대한 정보를 '유출'할 수 있습니다. 건강이나 금융 데이터와 같은 민감한 개인 데이터로 훈련된 미래 모델의 경우 특히 심각한 개인 정보 유출이 발생할 수 있습니다.

    • 일반 목적 AI 모델은 개인 정보 남용을 증진시킬 수 있습니다. 예를 들어, 대규모 언어 모델은 인터넷 텍스트나 유출된 데이터에서 민감한 데이터를 보다 효율적이고 효과적으로 검색하는 데 도움을 줄 수 있으며, 사용자가 개인에 대한 민감한 정보를 추론할 수 있게 할 수도 있습니다​​.

  3. 가짜 콘텐츠를 통한 개인에 대한 해악

    • 일반 목적 AI 시스템은 사기와 사기의 규모와 정교함을 증가시키는 데 사용될 수 있습니다. 예를 들어, 일반 목적 AI가 향상된 '피싱' 공격을 통해 가능합니다.

    • 일반 목적 AI는 개인의 동의 없이 개인을 특징으로 하는 가짜 타협 콘텐츠를 생성하는 데 사용될 수 있으며, 개인의 프라이버시와 명예에 대한 위협이 될 수 있습니다​​.

  4. 시장 집중 위험과 단일 실패 지점

    • 최첨단 일반 목적 AI 모델을 개발하는 데는 상당한 초기 투자가 필요합니다. 이러한 매우 높은 비용은 진입 장벽을 만들어 주로 대형 기술 회사에 유리하게 작용합니다.

    • 시장의 힘은 소수의 회사들 사이에 집중되어 있으며, 이들은 선도적인 일반 목적 AI 모델을 구축할 수 있는 유일한 회사들입니다.

    • 금융, 사이버 보안, 방위 등의 주요 부문에서 몇 가지 일반 목적 AI 모델과 시스템을 광범위하게 채택함으로써 시스템적 위험을 초래할 수 있습니다. 왜냐하면 지배적인 일반 목적 AI 모델과 시스템의 결함, 취약성, 버그 또는 고유한 편향이 이러한 상호 의존적인 부문에서 동시에 광범위한 실패와 중단을 초래할 수 있기 때문입니다​​.

  5. 저작권 침해

    • 대량의 저작권 데이터를 사용하여 일반 목적 AI 모델을 훈련시키는 것은 전통적인 지적 재산권 법률과 데이터에 대한 동의, 보상, 통제 시스템에 도전을 제기합니다​​.

  6. 사회적 위험 요인

    • 이 섹션은 일반 목적 AI 개발 및 배포의 비기술적 측면으로, 각각 일반 목적 AI로부터 여러 위험에 기여하는 네 가지 교차 사회적 위험 요인을 다룹니다:

      • a. 시장 점유율을 위해 경쟁하는 AI 개발자들은 위험을 완화하는 데 투자할 유인이 제한적일 수 있습니다.

      • b. 일반 목적 AI가 빠르게 발전함에 따라, 규제 또는 집행 노력이 이에 따라가기 어려울 수 있습니다.

      • c. 투명성 부족은 책임 소재를 판단하기 어렵게 만들어 거버넌스와 집행을 방해할 수 있습니다.

      • d. 일반 목적 AI 모델과 시스템이 어떻게 훈련되고, 배포되고, 사용되는지 추적하기가 매우 어렵습니다​​.

  7. 과학적 노력의 이중 사용 위험

    • 일반 목적 AI 시스템은 새로운 과학자를 훈련하고 더 빠른 연구 워크플로우를 가능하게 하는 다양한 과학적 노력에서의 발전을 가속화할 수 있습니다. 이러한 능력은 수많은 유익한 응용 프로그램을 가질 수 있지만, 일부 전문가들은 적절한 대책이 마련되기 전에 더 많은 능력이 곧 개발될 경우 악용될 수 있다는 우려를 표명하고 있습니다​​.

  8. AI 거버넌스

    • 일반 목적 AI 거버넌스 접근 방식은 AI 개발자와 정책 입안자 모두가 일반 목적 AI 시스템이 무엇을 할 수 있는지, 그리고 그 잠재적 영향을 이해하고 측정할 수 있다고 가정합니다.

    • 기술적 방법은 이러한 질문에 대한 답을 제공하는 데 도움이 될 수 있지만 한계가 있습니다. 현재의 접근 방식은 대규모 일반 목적 AI 관련 피해에 대한 강력한 보증을 제공할 수 없습니다

공유하기
카카오로 공유하기
페이스북 공유하기
트위터로 공유하기
url 복사하기
조회수 : 336
heart
T
페이지 기반 대답
AI Chat