ChatGPT 천재가 되는 프롬프트 "쉽게 설명해줘."
제 1 원칙
여러분들은 천재들의 특징이 뭐라고 생각하시나요?
저는 복잡한 것을 단순하게 만들어서 이해할 수 있는 능력이라고 생각합니다.
일론 머스크가 말하는 제 1 원칙을 보면 가장 기초가 되는 원리로 내려가서 그곳에서부터 생각합니다.
예를 들어 자동차를 복잡한 개념이라고 생각하기 보다 엔진, 바퀴, 차체로 이루어져 있고 앞으로 나아가는 물건이라고 생각하는 것입니다. 이렇게 생각할 때 자동차를 이해하고, 활용하거나 만들 수 있는 능력이 생기겠죠.
천재들은 복잡한 것을 이해하고 그것을 많은 사람들이 사용할 수 있는 것들로 바꿉니다.
저는 ChatGPT와 같은 LLM이 이렇게 무언가 배우거나 "이해"하는 일들을 쉽게 만들어 준다고 생각합니다.
Age prompt
이 배우기 영역에서 정말 좋은 프롬프트가 있습니다. 그건 바로 내가 10살인 것처럼 설명해줘. 입니다. 이 프롬프트를 사용하면 어려운 개념을 정말 쉽게 설명해 줍니다.
내가 10살인 것처럼 설명해줘.
Explain to me like I am 10 years old.
제가 어렸을 때 과학에 대한 만화책을 본적이 있었거든요. 그 때 정말 쉽고 재미있게 과학을 이해할 수 있었습니다. 그런것과 마찬가지로 복잡한 개념을 쉽고 빠르게 배울 수 있게 해줍니다.
프롬프트 : 상대성 이론에 대해 내가 10살 인것처럼 설명해줘.
상대성 이론이란, 우주에 있는 모든 것이 어떻게 움직이고, 시간과 공간이 어떻게 작동하는지에 대한 아이디어야. 이 이론은 아인슈타인이라는 과학자가 만들었어.
상대성 이론에는 크게 두 가지가 있어. 하나는 특수 상대성 이론이고, 다른 하나는 일반 상대성 이론이야.
특수 상대성 이론은, 빛의 속도로 움직이는 것들에 대해 설명해. 아인슈타인은 빛의 속도가 항상 같다는 것을 발견했어. 즉, 네가 기차에 타고 있든, 집에 앉아 있든, 빛은 항상 같은 속도로 너를 지나간다는 거야. 이 이론은 또 시간이 항상 같게 흐르지 않는다고 말해. 빠르게 움직일수록 시간이 느리게 흐른다고 생각하면 돼.
일반 상대성 이론은 조금 더 복잡해. 이 이론은 중력이란 것이 공간과 시간을 구부릴 수 있다고 설명해. 우주에 있는 큰 물체들, 예를 들어 지구나 태양 같은 것들은 주변의 공간과 시간을 구부려서, 다른 물체들이 그 주변을 돌게 만들어. 마치 볼링공이 트램펄린을 누르고 있는 것처럼 말이야.
이 두 가지 이론은 우리가 우주를 이해하는 방식을 완전히 바꿔 놓았어. 상대성 이론 덕분에 우리는 우주가 어떻게 작동하는지, 그리고 시간과 공간이 어떻게 연결되어 있는지에 대해 더 잘 이해할 수 있게 되었어.
쉽게 설명하기
이 프롬프트를 좀 더 일반화하면 어떻게 될까요? 네, 바로 정말 쉽게 설명해줘.라고 이야기 하면 됩니다.
[topic]을 정말 쉽게 설명해줘.
Explain [topic] easily.
예를 들어 기사를 읽다가 이해가 잘되지 않는 부분을 만났다고 생각해 봅시다. 그러면 해당 문단을 입력하고 쉽게 설명해줘라고 이야기 하면 됩니다.
저는 얼마 전 stable cascade 에 대한 글을 읽고 있었는데요. 중간에 기술적인 사항을 이해하기 어려웠습니다. 그래서 다음과 같이 쉽게 변경해서 이해했습니다.
프롬프트
다음 글을 정말 쉽게 설명해줘.
"""
Technical Details
Stable Cascade differs from our Stable Diffusion lineup of models as it is built on a pipeline comprising three distinct models: Stages A, B, and C. This architecture allows for a hierarchical compression of images, achieving remarkable outputs while utilizing a highly compressed latent space. Let’s look at each stage to understand how they come together:
The Latent Generator phase, Stage C, transforms the user inputs into compact 24x24 latents that are passed along to the Latent Decoder phase (Stages A & B), which is used to compress images, similar to what the job of the VAE is in Stable Diffusion, but achieving much higher compression.
By decoupling the text-conditional generation (Stage C) from the decoding to the high-resolution pixel space (Stage A & B), we can allow additional training or finetunes, including ControlNets and LoRAs to be completed singularly on Stage C. This comes with a 16x cost reduction compared to training a similar-sized Stable Diffusion model (as shown in the original paper). Stages A and B can optionally be finetuned for additional control, but this would be comparable to finetuning the VAE in a Stable Diffusion model. For most uses, it will provide minimal additional benefit & we suggest simply training Stage C and using Stages A and B in their original state.
Stages C & B will be released with two different models: 1B & 3.6B parameters for Stage C and 700M & 1.5B parameters for Stage B. It is recommended to use the 3.6B model for Stage C as this model has the highest quality outputs. However, the 1B parameter version can be used for those who want to focus on the lowest hardware requirements. For Stage B, both achieve great results, however, the 1.5 billion excels at reconstructing fine details. Thanks to Stable Cascade’s modular approach, the expected VRAM requirements for inference can be kept to approximately 20gb but can be further lowered by using the smaller variants (as mentioned before, this may also decrease the final output quality).
"""
대답
Stable Cascade는 세 단계(A, B, C)로 구성된 모델로, 이미지를 계층적으로 압축합니다. 각 단계는 다음과 같은 역할을 합니다:
C단계(잠재 생성기): 사용자 입력을 24x24 크기의 압축된 데이터로 변환합니다.
A와 B단계(잠재 디코더): 이 압축된 데이터를 사용해 이미지를 고해상도로 복원합니다.
이 구조는 텍스트 기반 생성(C단계)과 고해상도 이미지 복원(A와 B단계)을 분리함으로써, C단계에만 추가 학습이나 튜닝을 적용할 수 있게 하며, 이는 비슷한 크기의 Stable Diffusion 모델을 학습시키는 것보다 비용을 16배 절감합니다. A와 B단계도 튜닝할 수 있지만, 대부분의 경우 큰 이점이 없으므로 C단계만 학습하는 것이 권장됩니다.
C단계에는 1B(10억) 및 3.6B(36억) 파라미터 모델이, B단계에는 700M(7억) 및 1.5B(15억) 파라미터 모델이 제공되며, 높은 품질의 출력을 위해 C단계의 3.6B 모델 사용이 권장됩니다. 모듈 방식 덕분에, 추론에 필요한 VRAM 요구 사항을 약 20GB로 유지할 수 있지만, 더 작은 모델을 사용함으로써 요구 사항을 줄일 수 있으나, 출력 품질이 다소 감소할 수 있습니다.
정말 쉽게 설명해주는 것이 보이시나요? 이걸 통해 C-B-A의 구조로 단계별로 압축을 하는 stable cascade에 대해 쉽게 이해를 할 수 있었습니다.
검색 대신 생성하기
이처럼 쉬운 설명을 통해 이해력을 새로운 차원으로 끌어올릴 수 있습니다.
마지막으로 이를 검색에 활용을 해보고 이것이 왜 새로운 패러다임인지 말씀드리겠습니다.
예를 들어 여러분이 머신러닝에 대한 글을 읽고 있다고 생각해 봅시다. 그러다가 FP16 이라는 새로운 정보를 만나게 되었습니다. 물론 이 정보를 검색을 해도 됩니다. 하지만 이 개념을 이해하기 위해서는 검색을 한 후 문서들을 찾아다니며 읽어야 합니다. 하지만 이제는 해당 정보에 대한 내용을 바로 생성해서 이해할 수 있습니다.
이런 식으로 FP16에 대한 정의를 바로 생성할 수 있습니다. 여기에서 모르는 것이 있다면 추가적으로 질문하면 되겠죠?
물론 아직 정보가 부정확한 할루시네이션 문제도 있고 검색이 더 빠른 경우도 있습니다. 하지만 검색의 많은 부분을 이 생성하기가 대체할 것이라고 생각합니다. 그러니 검색 대신 생성하기를 활용해서 여러분의 이해력을 쉽게 높여 보세요.
이 내용은 유튜브 동영상을 위한 대본입니다.
영상 베이스로 시청해 보세요.