2024 AI 서울 정상회의 개최 및 보고서 요약
About the AI Seoul Summit 2024
AI Seoul Summit 2024
이번 서밋은 전 세계에서 영향력 있는 AI 전문가들과 정책 결정자들이 참여하는 중요한 회의로, AI 기술의 미래 방향성과 국제 협력의 방향을 모색하는 데 중점을 두고 있습니다. AI 기술의 안전한 사용과 혁신적인 활용 방안, 그리고 이를 통한 사회적 가치 실현이 주요 논의 주제입니다
날짜 및 장소: 2024년 5월 21일과 22일, 영국과 대한민국 공동 주최
목적: AI의 안전, 혁신, 포용성 증진을 통해 글로벌 AI 거버넌스 전략을 모색
서밋의 주요 내용과 목표
첫째 날 주요 활동:
Rishi Sunak 영국 총리와 Yoon Suk Yeol 대한민국 대통령이 공동 의장으로 참여하는 가상 리더 세션
글로벌 산업 리더들이 Bletchley Park에서의 약속 이행 상황을 공유
둘째 날 주요 활동:
Michelle Donelan 영국 기술 장관과 Lee Jong-Ho 한국 과학기술정보통신부 장관이 공동 주최하는 디지털 장관 회의
핵심 우선 순위
안전: AI 안전에 대한 약속을 재확인하고 AI 안전을 보장하기 위한 로드맵 개발 강조
혁신: AI 개발 내에서 혁신을 촉진하는 중요성 강조
포용성: AI의 기회와 혜택이 공평하게 공유될 수 있도록 하는 것
추가 정보 및 참고 사항
AI 서울 서밋은 Bletchley Park에서 개최된 첫 AI 안전 서밋의 유산을 이어받아, AI 안전, 혁신 및 포용성에 초점을 맞춘 글로벌 논의를 진행합니다.
이번 서밋에서는 Advanced AI Safety에 대한 첫 번째 국제 과학 보고서가 발표될 예정입니다.
이번 행사는 국제적인 AI 관련 논의를 촉진하고 AI 기술의 안전한 발전을 위한 전략을 모색하는 장이 될 것입니다
AI Report on safety.pdf 내용 요약
제품 기능상의 문제로 인한 위험
제품 기능상의 문제는 일반 목적 AI 모델이나 시스템이 무엇을 할 수 있는지에 대한 혼란이나 잘못된 정보 때문에 발생합니다. 이는 현실적인 기대치와 일반 목적 AI 시스템에 대한 지나친 의존을 초래할 수 있으며, 시스템이 기대한 기능을 제공하지 못할 경우 해를 입힐 수 있습니다.
이러한 기능 오해는 AI 모델의 진정한 능력을 독자적으로 평가하는 기술적 어려움이나, 더 큰 시스템의 일부로서의 성능을 예측하는 것에서 발생할 수 있습니다. 광고 및 커뮤니케이션에서의 오도하는 주장들도 이러한 오해에 기여할 수 있습니다.
개인 정보 보호에 대한 위험
일반 목적 AI 모델이나 시스템은 훈련에 사용된 개인의 데이터에 대한 정보를 '유출'할 수 있습니다. 건강이나 금융 데이터와 같은 민감한 개인 데이터로 훈련된 미래 모델의 경우 특히 심각한 개인 정보 유출이 발생할 수 있습니다.
일반 목적 AI 모델은 개인 정보 남용을 증진시킬 수 있습니다. 예를 들어, 대규모 언어 모델은 인터넷 텍스트나 유출된 데이터에서 민감한 데이터를 보다 효율적이고 효과적으로 검색하는 데 도움을 줄 수 있으며, 사용자가 개인에 대한 민감한 정보를 추론할 수 있게 할 수도 있습니다.
가짜 콘텐츠를 통한 개인에 대한 해악
일반 목적 AI 시스템은 사기와 사기의 규모와 정교함을 증가시키는 데 사용될 수 있습니다. 예를 들어, 일반 목적 AI가 향상된 '피싱' 공격을 통해 가능합니다.
일반 목적 AI는 개인의 동의 없이 개인을 특징으로 하는 가짜 타협 콘텐츠를 생성하는 데 사용될 수 있으며, 개인의 프라이버시와 명예에 대한 위협이 될 수 있습니다.
시장 집중 위험과 단일 실패 지점
최첨단 일반 목적 AI 모델을 개발하는 데는 상당한 초기 투자가 필요합니다. 이러한 매우 높은 비용은 진입 장벽을 만들어 주로 대형 기술 회사에 유리하게 작용합니다.
시장의 힘은 소수의 회사들 사이에 집중되어 있으며, 이들은 선도적인 일반 목적 AI 모델을 구축할 수 있는 유일한 회사들입니다.
금융, 사이버 보안, 방위 등의 주요 부문에서 몇 가지 일반 목적 AI 모델과 시스템을 광범위하게 채택함으로써 시스템적 위험을 초래할 수 있습니다. 왜냐하면 지배적인 일반 목적 AI 모델과 시스템의 결함, 취약성, 버그 또는 고유한 편향이 이러한 상호 의존적인 부문에서 동시에 광범위한 실패와 중단을 초래할 수 있기 때문입니다.
저작권 침해
대량의 저작권 데이터를 사용하여 일반 목적 AI 모델을 훈련시키는 것은 전통적인 지적 재산권 법률과 데이터에 대한 동의, 보상, 통제 시스템에 도전을 제기합니다.
사회적 위험 요인
이 섹션은 일반 목적 AI 개발 및 배포의 비기술적 측면으로, 각각 일반 목적 AI로부터 여러 위험에 기여하는 네 가지 교차 사회적 위험 요인을 다룹니다:
a. 시장 점유율을 위해 경쟁하는 AI 개발자들은 위험을 완화하는 데 투자할 유인이 제한적일 수 있습니다.
b. 일반 목적 AI가 빠르게 발전함에 따라, 규제 또는 집행 노력이 이에 따라가기 어려울 수 있습니다.
c. 투명성 부족은 책임 소재를 판단하기 어렵게 만들어 거버넌스와 집행을 방해할 수 있습니다.
d. 일반 목적 AI 모델과 시스템이 어떻게 훈련되고, 배포되고, 사용되는지 추적하기가 매우 어렵습니다.
과학적 노력의 이중 사용 위험
일반 목적 AI 시스템은 새로운 과학자를 훈련하고 더 빠른 연구 워크플로우를 가능하게 하는 다양한 과학적 노력에서의 발전을 가속화할 수 있습니다. 이러한 능력은 수많은 유익한 응용 프로그램을 가질 수 있지만, 일부 전문가들은 적절한 대책이 마련되기 전에 더 많은 능력이 곧 개발될 경우 악용될 수 있다는 우려를 표명하고 있습니다.
AI 거버넌스
일반 목적 AI 거버넌스 접근 방식은 AI 개발자와 정책 입안자 모두가 일반 목적 AI 시스템이 무엇을 할 수 있는지, 그리고 그 잠재적 영향을 이해하고 측정할 수 있다고 가정합니다.
기술적 방법은 이러한 질문에 대한 답을 제공하는 데 도움이 될 수 있지만 한계가 있습니다. 현재의 접근 방식은 대규모 일반 목적 AI 관련 피해에 대한 강력한 보증을 제공할 수 없습니다