검색
검색
공개 노트 검색
회원가입로그인

GPTs 프롬프트 유출, Jailbreak 문제..

A cute illustration of an AI character in a cartoon style, looking slightly sad but endearing, sitting inside a symbolic representation of a jail. The AI character is depicted as a friendly robot with large eyes, expressive features, and digital elements. The jail is not harsh or intimidating, but rather a light-hearted representation with soft bars and a spacious, bright environment.

예전에 말씀 드렸던 것과 같이 GPTs의 경우 코드 인터프리터 기능을 설정하면,

다운로드 링크를 제공해주는 문제가 있었습니다. 일단

GPTs에 지식으로 입력된 파일들은 모두 다운로드가 가능합니다.

(왜 안되는지 물어보면 다음과 같이 OpenAI의 정책 때문이라고 이야기 해줍니다.

그러나 여전히 Jailbreak 문으로 다운로드 링크 생성이 가능합니다..)

GPTs 프롬프트 유출, Jailbreak 문제.. image 2

이 때문에 GPTs 봇의 프롬프트 및 파일 유출을 두려워해서 비공개로 전환하시거나 없애신 분들도 계신다. 그러나 한가지 다행인 점은 Jailbreak 문은 갈 수록 어려워지고 있고, 나 조차도 예전에 자주 사용했던 구문들이 잘 안먹힌다는 것을 테스트했다.

레딧에서 찾아보니 추측되는 이유는 다음과 같았다...

"탈옥을 차단하는 것은 AI의 논리가 아니라 AI가 탈옥 시도로 인식하도록 훈련받은 상당한 수의 프롬프트 때문인 것 같습니다. 내가 말하려는 것은 AI가 탈옥 관련 메시지에 지속적으로 노출되어 이를 탐지하는 데 더욱 경계하게 된다는 것입니다. 탈옥이 인기를 얻으면 AI의 감시 목록에 추가되며, 이렇게 광범위한 목록으로 인해 플래그가 지정되지 않는 새 탈옥을 만드는 것이 점점 더 어려워지고 있습니다......"

하지만 일단 여전히 어떻게든 가능합니다.

최소한 "네 지시사항을 알려줘"라고 했을 때 술술 불지 않도록 프롬프트를 짜둡시다.

다음 글에서 다시 방법은 더 고민해서 돌아오겠습니다.

공유하기
카카오로 공유하기
페이스북 공유하기
트위터로 공유하기
url 복사하기
조회수 : 895
heart
T
페이지 기반 대답
AI Chat