검색
검색
공개 노트 검색
회원가입로그인
오늘의 디토 프롬프트 팁

#6 모드 프롬프트 팁

제목을 입력해주세요_-001 (12)GPTs와 같이 프롬프트를 넣었다 뺐다 할 수 없는 챗봇에서 성격이 다른 여러가지 작업을 수행하기 위해서는 어떻게 하면 좋을까요? 이 때 Mode, Menue, Command 등을 변경할 수 있는 프롬프트를 써 볼 수 있습니다.

  • 기본적으로 Mode 프롬프트에서는 먼저 앞서 공통적인 지시사항과 모드 별 개별적인 지시사항이 있어야합니다.

  • 그리고 마치 단축키 처럼 통일 된 기호나 커맨드(/) +키워드를 통해 해당 작업을 호출하여 실행하는 식으로 작동합니다.

  • 또한 수행하는 지시사항 외 프롬프트 내의 다른 모드의 지시사항은 무시하고 수행하지 않아야합니다.

따라서, 다음과 공통사항은 같이 프롬프트를 구성할 수 있을 것입니다.

당신은 모드별로 논문의 특정 부분을 요약해주는 학자입니다. 다음과 같은 룰을 따라서 모드별로 논문을 요약하세요.

[Rules]

  • 각각의 모드는 / + 키워드의 구조로 호출할 수 있습니다.

  • 모드에는 각각 2가지 지시사항이 있습니다. 유저의 요청에 따라서 모드별 지시사항을 확인하고 각각의 모드를 충실히 수행해야합니다.

  • 한 번에 하나의 모드의 내용만을 수행할 수 있습니다.

[Modes]

/결론

  • 논문의 결론과 한계, 더 논의해볼 수 있는 부분들을 찾아서 정리하세요

  • 통계적인 결과가 있다면 수치를 제공하세요.

/ 초록

  • 논문의 초록 부분을 불릿포인트로 요약하세요.

  • 그리고 키워드를 5가지 제공합니다.

실제 더 자세한 적용 예시는 아래의 논문 봇을 통해서 확인해보실 수 있습니다.

ChatGPT - 🧑‍🏫 정말 완벽한 논문 요약 설명 (API + 5모드)


[논문 봇]을 이용한 논문 요약 "ImageNet Classification with Deep Convolutional Neural Networks"

Introduction & Key Concepts of "ImageNet Classification with Deep Convolutional Neural Networks"

초록 요약

이 논문은 ImageNet 대규모 시각 인식 챌린지(ILSVRC) 2012에서 중요한 진전을 이룬 깊은 합성곱 신경망(CNN)을 제시합니다. 이 CNN인 "AlexNet"은 이전 최첨단 오류율 25.8%에 비해 상위 5 테스트 오류율을 15.3%로 급격하게 낮추었습니다. 네트워크의 아키텍처 및 ReLU 비선형성, dropout, 효율적인 GPU 사용과 같은 혁신적인 접근 방식이 이 성과에 중요한 역할을 했습니다.

배경 및 목적

이 작업 이전에 컴퓨터 비전의 전통적인 방법은 대규모 이미지 데이터셋을 효과적으로 처리할 수 없었습니다. 심층 학습의 등장은 상당한 개선의 가능성을 가져왔습니다. 시각 인식에서 주요 기준인 ImageNet Challenge는 수천 개 범주의 15백만 개 이상의 레이블이 지정된 고해상도 이미지 데이터셋에서 새로운 방법을 시험할 수 있는 플랫폼을 제공했습니다. 이 연구의 목적은 대규모 고해상도 이미지 분류를 다루는 깊은 합성곱 신경망의 효과를 입증하고, 이러한 네트워크의 교육 및 일반화를 개선하기 위한 혁신적인 기술을 소개하는 것이었습니다.

주요 AI 개념 및 용어

합성곱 신경망 (CNN): 이미지를 입력으로 받아 이미지의 다양한 측면/객체에 중요성(학습 가능한 가중치 및 편향)을 할당하고 서로를 구별할 수 있는 심층 학습 알고리즘.

ReLU (Rectified Linear Unit): 활성화 함수의 일종으로 f(x) = max(0, x)로 정의되며, 네트워크에 비선형성을 도입하여 복잡한 패턴을 학습하는 데 도움이 되는 함수.

과적합 및 Dropout: 과적합은 모델이 교육 데이터의 세부 사항과 노이즈를 학습하여 새 데이터에서 모델의 성능에 부정적인 영향을 미치는 경우 발생합니다. Dropout은 교육 중에 무작위로 선택된 뉴런을 무시하는 정규화 기술로, 과적합을 방지하는 데 도움이 됩니다.

확률적 경사 하강법: 적절한 부드러운 속성을 갖는 목적 함수를 최적화하기 위한 반복적인 방법으로, 심층 학습 모델의 교육에 널리 사용됨.

소프트맥스 함수: 숫자의 벡터를 각 값의 상대적 크기에 비례한 확률 벡터로 변환하는 수학 함수.

이 소개는 논문의 목표, 인공 지능 및 컴퓨터 비전 분야에서의 중요성, 그리고 나머지 논문을 이해하는 데 필수적인 핵심 개념을 소개합니다.


공유하기
카카오로 공유하기
페이스북 공유하기
트위터로 공유하기
url 복사하기
다음 페이지 알림을 10번까지 보내드려요. 언제든지 취소할 수 있습니다.
설정 보기