공식 GPT-4 사용자 가이드가 공개되었습니다!
맞게 들었습니다. 이번에는 직접 메모할 필요가 없습니다. OpenAI가 개인적으로 정리했습니다.
모두의 6개월간 사용 경험을 모아 당신과 나, 그 사람의 노하우가 모두 집약되어 있다고 합니다.
요약하면 6가지 주요 전략만 있지만 세부 사항이 모호해서는 안 됩니다.
일반 GPT-4 사용자만이 이 치트북에서 팁과 요령을 얻을 수 있을 뿐만 아니라 애플리케이션 개발자도 영감을 얻을 수 있습니다.
네티즌들은 속속 댓글을 달며 '읽고 난 후의 반성'을 남겼습니다.
너무 흥미롭네요! 요약하면, 이러한 기술의 핵심 아이디어에는 두 가지 주요 사항이 포함됩니다. 먼저, 좀 더 구체적으로 작성하고 몇 가지 자세한 팁을 제공해야 합니다. 둘째, 이러한 복잡한 작업의 경우 완료하라는 작은 프롬프트로 나눌 수 있습니다.
OpenAI는 이 가이드가 현재 GPT-4에만 적용된다고 밝혔습니다. (물론 다른 GPT 모델에도 사용 가능할까요?)
이 비밀책에 어떤 좋은 내용이 있는지 서둘러 확인해보세요.
모델은 "마음을 읽을" 수 없다는 점을 알아야 하므로 요구 사항을 명확하게 작성해야 합니다.
모델 출력이 너무 장황해지면 간결하고 명확하게 답변하도록 요청할 수 있습니다. 반대로, 출력이 너무 단순하면 전문적인 수준에서 작성해 달라고 당당하게 요청할 수 있습니다.
GPT 출력 형식이 만족스럽지 않다면 먼저 예상하는 형식을 보여주고 같은 방식으로 출력하도록 요청하세요.
간단히 말하면, GPT 모델이 스스로 의도를 추측하지 않도록 하여 결과가 기대에 부응할 가능성을 높이세요.
실용 팁:
1. 세부 정보가 있어야만 더 관련성 높은 답변을 얻을 수 있습니다.
출력과 입력이 강한 상관 관계를 갖도록 하려면 모든 중요한 세부 정보를 모델에 제공할 수 있습니다.
예를 들어 GPT-4에서 회의록 요약
을 수행하도록 하려면 명령문에 가능한 많은 세부정보를 추가할 수 있습니다.
회의록을 텍스트 단락으로 요약합니다. 그런 다음 참석자와 참석자의 주요 사항을 나열하는 마크다운 목록을 작성합니다. 마지막으로 참석자가 다음 단계에 대한 제안 사항이 있으면 이를 나열하십시오.
2. 모델에게 특정 역할을 요청하세요
시스템 메시지(시스템 메시지)를 변경하면 GPT-4가 대화에서 요청하는 것보다 더 쉽게 특정 역할을 수행하고 더 진지하게 받아들일 수 있습니다.
파일에 응답하도록 지정된 경우 파일의 각 단락에는 흥미로운 설명이 있어야 합니다.
3 구분 기호를 사용하여 입력의 다른 부분을 명확하게 표시합니다.
"" 구분 기호를 사용합니다. "삼중 따옴표""",
4. 작업을 완료하는 데 필요한 단계를 명확하게 지정하세요
일부 작업은 단계별로 완료하면 더 효과적입니다. 따라서 모델이 보다 쉽게 단계를 따르고 원하는 결과를 출력할 수 있도록 일련의 단계를 명확하게 지정하는 것이 좋습니다. 예를 들어 시스템 메시지에 응답할 단계를 설정합니다.
5. 예제 제공
모델 출력이 잘 설명되지 않은 특정 스타일을 따르도록 하려면 예제를 제공할 수 있습니다. 예를 들어, 예제를 제공한 후 "인내심을 가르쳐 주세요"라고 말하면 예제의 스타일에 따라 생생하게 설명됩니다.
6. 필요한 출력 길이를 지정하세요
모델에 단어, 문장, 단락, 글머리 기호 등을 구체적으로 생성하도록 요청할 수도 있습니다. 그러나 모델이 특정 수의 단어/문자를 생성하도록 요청하면 정확하지 않을 수 있습니다.
난해한 주제, 인용문, URL 등에 관한 경우 GPT 모델은 심각하게 말도 안되는 말을 할 수 있습니다.
허위 답변의 발생을 줄이고 답변 내용의 신뢰성을 높일 수 있는 GPT-4에 대한 참고 텍스트를 제공하세요.
실용 팁:
1. 모델이 참고 자료를 참조하여 답변하도록 합니다.
질문과 관련된 신뢰할 수 있는 정보를 모델에 제공할 수 있으면 제공된 정보를 사용하여 정리하도록 지시할 수 있습니다. 대답.
2. 모델이 답변할 참고 자료를 인용하도록 합니다.
위 대화 입력에서 관련 정보가 보완되었다면, 답변에 제공된 정보를 모델에게 직접 인용하도록 요청할 수도 있습니다. .
여기서는 출력에서 참조된 부품을 확인하도록 모델을 프로그래밍할 수 있다는 점에 유의해야 합니다.
반면, GPT-4는 복잡한 작업을 처리할 때 오류율이 더 높습니다.
그러나 이러한 복잡한 작업을 일련의 간단한 작업 흐름으로 다시 나누는 영리한 전략을 채택할 수 있습니다.
이런 방식으로 이전 작업의 출력을 사용하여 후속 작업의 입력을 구성할 수 있습니다.
소프트웨어 엔지니어링에서 복잡한 시스템을 모듈식 구성 요소 집합으로 분해하는 것과 마찬가지로 작업을 여러 모듈로 분해하면 모델 성능이 향상될 수도 있습니다.
실용 팁:
1. 의도 분류
다양한 상황을 처리해야 하는 다수의 독립적인 작업의 경우 먼저 이러한 작업을 분류할 수 있습니다.
그런 다음 분류에 따라 필요한 지침을 결정합니다.
예를 들어 고객 서비스 애플리케이션의 경우 쿼리를 분류할 수 있습니다(청구, 기술 지원, 계정 관리, 일반 쿼리 등).
사용자가 묻는 경우:
인터넷을 다시 작동시켜야 합니다.
사용자 쿼리 분류에 따라 사용자의 특정 요구 사항이 잠길 수 있으며 다음 단계를 위해 보다 구체적인 지침 세트가 GPT-4에 제공될 수 있습니다.
예를 들어, 사용자가 '문제 해결'에 도움이 필요하다고 가정해 보겠습니다.
다음 단계를 설정할 수 있습니다.
사용자에게 라우터의 모든 케이블이 연결되어 있는지 확인하도록 요청하세요...
2. 이전 대화를 요약하거나 필터링합니다.
GPT로 인해 - 4개의 대화창은 제한되어 있으며, 대화창 내에서 내용이 너무 길거나 무한정 계속될 수 없습니다.
하지만 해결책이 없습니다.
이를 수행하는 한 가지 방법은 이전 대화를 요약하는 것입니다. 입력 텍스트의 길이가 미리 결정된 임계값에 도달하면 대화의 일부를 요약하는 쿼리가 트리거될 수 있으며 요약된 부분은 시스템 메시지의 일부가 될 수 있습니다.
또한 대화 중에 이전 대화를 배경에서 바로 요약할 수 있습니다.
또 다른 접근 방식은 효율적인 지식 검색을 위해 임베딩 기반 검색을 사용하여 이전 대화를 검색하는 것입니다.
3. 긴 문서를 문단별로 요약하고 재귀적으로 완전한 요약을 구성하세요
문제는 텍스트가 너무 길다는 것입니다.
예를 들어 GPT-4가 책을 요약하도록 하려면 일련의 쿼리를 사용하여 책의 각 부분을 요약할 수 있습니다.
그런 다음 부분 개요를 연결하여 요약하고 일반적인 답변을 구성하세요.
이 과정은 책 전체가 요약될 때까지 반복적으로 수행될 수 있습니다.
그러나 일부 부분은 다음 부분을 이해하기 위해 이전 부분의 정보를 빌려야 할 수도 있습니다.
현재 내용을 요약할 때는 본문에서 현재 내용 이전의 내용을 함께 요약하여 요약을 작성하세요.
간단히 말하면 이전 섹션 + 현재 섹션의 "요약"을 사용한 다음 요약합니다.
OpenAI는 이전에 책 요약의 효과를 연구하기 위해 GPT-3를 기반으로 훈련된 모델을 사용하기도 했습니다.
17 곱하기 28을 계산하라는 요청을 받으면 바로 답을 알 수 없지만 시간이 좀 지나면 계산할 수 있습니다.
마찬가지로 GPT-4는 질문을 받으면 신중하게 생각할 시간을 갖지 않고 즉시 답변을 주려고 하므로 추론에 오류가 발생할 수 있습니다.
따라서 모델에게 답변을 요청하기 전에 먼저 추론을 통해 정답에 도달할 수 있도록 일련의 추론 과정을 수행하도록 요청할 수 있습니다.
실용 팁:
1. 모델이 솔루션을 공식화하도록 합니다.
결과에 대한 결론에 도달하기 전에 첫 번째 원칙을 추론하도록 모델에 명시적으로 지시하면 더 나은 결과를 얻을 수도 있습니다.
예를 들어 모델이 수학 문제에 대한 학생의 해결책을 평가하기를 원한다고 가정해 보겠습니다.
가장 직접적인 방법은 단순히 모델에게 학생의 답이 맞는지 물어보는 것입니다.
위 그림에서 GPT-4는 학생의 답이 옳다고 생각합니다.
하지만 사실 학생의 계획은 틀렸어요.
이때 모델이 이를 성공적으로 인식할 수 있도록 자체 솔루션을 생성하도록 모델에 요청할 수 있습니다.
모델은 자체 솔루션과 추론을 생성한 후 이전 학생의 솔루션이 틀렸다는 것을 깨달았습니다.
2. 숨겨진 추론 과정
위에서 언급했듯이 모델이 추론을 수행하고 솔루션을 제공하도록 합니다.
그러나 일부 애플리케이션에서는 모델이 최종 답에 도달하는 추론 과정이 사용자와 공유하기에 적합하지 않습니다.
예를 들어, 숙제 지도에서 우리는 학생들이 문제에 대한 자신만의 해결책을 공식화하고 정답에 도달하도록 격려하고 싶습니다. 그러나 학생의 해결 방법에 대한 모델의 추론을 통해 학생의 답이 드러날 수도 있습니다.
이때 사용자에게 숨겨야 하는 출력 부분을 구조화된 형식으로 모델이 넣을 수 있도록 하는 "내부 독백" 전략을 구현하는 모델이 필요합니다.
그런 다음 출력이 구문 분석되고 사용자에게 표시되기 전에 출력의 일부만 표시됩니다.
다음 예와 같습니다.
먼저 모델이 자체 솔루션을 공식화하도록 한 다음(학생의 솔루션이 틀릴 수 있으므로) 이를 학생의 솔루션과 비교합니다.
학생이 답의 어느 단계에서든 실수를 하면 학생에게 완전한 정답을 제시하는 대신 모델이 이 단계에 대한 힌트를 제공하도록 하세요.
학생이 여전히 틀렸다면 이전 단계로 진행하세요.
마지막 단계를 제외한 모든 쿼리의 출력이 사용자에게 숨겨지는 "쿼리" 전략을 사용할 수도 있습니다.
먼저 모델에게 스스로 문제를 해결하도록 요청할 수 있습니다. 이 초기 쿼리에는 학생 솔루션이 필요하지 않으므로 생략할 수 있습니다. 이는 또한 모델의 솔루션이 학생 솔루션 편향의 영향을 받지 않는다는 추가적인 이점을 제공합니다.
다음으로 모델이 사용 가능한 모든 정보를 사용하여 학생 해법의 정확성을 평가하도록 할 수 있습니다.
마지막으로 모델이 자체 분석을 사용하여 멘토 역할을 구성하도록 할 수 있습니다.
당신은 수학 교사입니다. 학생이 틀리게 답한 경우 답을 공개하지 않고 학생에게 메시지를 표시합니다. 학생이 정답을 맞히면 격려의 말을 해주세요.
3. 모델에 콘텐츠가 누락되었는지 물어보세요.
GPT-4에 특정 문제와 관련된 소스 파일 발췌문을 나열하도록 요청한다고 가정해 보겠습니다. 모델은 계속해서 작성할지 여부를 결정해야 합니다. . 발췌 또는 정지.
소스 파일이 큰 경우 모델이 조기에 중지되어 관련 발췌문을 모두 나열하지 못하는 경우가 많습니다.
이 경우 이전 처리에서 누락된 발췌문을 찾기 위해 모델이 후속 쿼리를 수행하도록 하는 것이 가능한 경우가 많습니다.
즉, 모델에서 생성된 텍스트가 매우 길어서 한 번에 생성할 수 없기 때문에 확인하고 누락된 내용을 채워넣을 수 있습니다.
GPT-4는 강력하지만 전능하지는 않습니다.
GPT-4의 단점을 보완하기 위해 다른 도구를 사용할 수 있습니다.
예를 들어 텍스트 검색 시스템과 결합하거나 코드 실행 엔진을 사용합니다.
GPT-4에게 질문에 답하도록 요청할 때 다른 도구로 더 안정적이고 효율적으로 수행할 수 있는 작업이 있으면 해당 작업을 해당 도구에 오프로드할 수 있습니다. 이를 통해 각각의 장점을 최대한 발휘할 수 있을 뿐만 아니라 GPT-4가 최상의 성능을 발휘할 수 있습니다.
실용 팁:
1. 임베딩 기반 검색을 사용하여 효율적인 지식 검색을 달성하세요
이 팁은 위에서 언급되었습니다.
모델 입력에 추가 외부 정보가 제공되면 모델이 더 나은 답변을 생성하는 데 도움이 됩니다.
예를 들어 사용자가 특정 영화에 대해 질문하는 경우 영화에 대한 정보(예: 배우, 감독 등)를 모델 입력에 추가하는 것이 유용할 수 있습니다.
임베딩을 사용하면 효율적인 지식 검색이 가능하며, 모델이 실행되는 동안 관련 정보를 모델 입력에 동적으로 추가할 수 있습니다.
텍스트 임베딩은 텍스트 문자열의 관련성을 측정하는 벡터입니다. 유사하거나 관련된 문자열은 관련되지 않은 문자열보다 더 밀접하게 연결됩니다. 이는 빠른 벡터 검색 알고리즘의 존재와 결합되어 임베딩을 사용하여 효율적인 지식 검색을 달성할 수 있음을 의미합니다.
특히 텍스트 코퍼스는 여러 부분으로 나누어 각 부분을 내장하여 저장할 수 있습니다. 그런 다음 쿼리가 주어지면 벡터 검색을 수행하여 쿼리와 가장 관련성이 높은 코퍼스에 포함된 텍스트 부분을 찾을 수 있습니다.
2. 보다 정확한 계산을 위해 코드 실행을 사용하거나 외부 API를 호출하세요
정확한 계산을 모델 자체에만 의존할 수는 없습니다.
원하는 경우 자율 계산을 수행하는 대신 코드를 작성하고 실행하도록 모델에 지시할 수 있습니다.
실행할 코드를 지정된 형식으로 입력하도록 모델에 지시할 수 있습니다. 출력이 생성된 후 코드를 추출하여 실행할 수 있습니다. 출력이 생성된 후 코드를 추출하여 실행할 수 있습니다. 마지막으로, 필요한 경우 코드 실행 엔진(예: Python 인터프리터)의 출력을 다음 입력으로 사용할 수 있습니다.
코드 실행을 위한 또 다른 훌륭한 애플리케이션 시나리오는 외부 API를 호출하는 것입니다.
API의 올바른 사용법이 모델에 전달되면 해당 API를 사용하는 코드를 작성할 수 있습니다.
모델에게 문서 및/또는 코드 예제를 보여줌으로써 API 사용 방법을 가르칠 수 있습니다.
여기서 OpenAI는 특별한 경고를 발행합니다 ⚠️:
모델 생성 코드를 실행하는 것은 본질적으로 안전하지 않으며 이를 시도하는 모든 애플리케이션에서는 예방 조치를 취해야 합니다. 특히 신뢰할 수 없는 코드로 인해 발생할 수 있는 피해를 제한하려면 샌드박스 코드 실행 환경이 필요합니다.
때때로 변경으로 인해 시스템이 더 좋아질지 나빠질지 판단하기 어려울 때가 있습니다.
몇 가지 예를 보면 어느 것이 더 나은지 알 수 있지만, 표본 크기가 작기 때문에 진정한 개선이 있는지 아니면 단지 운이 좋았는지 구분하기 어렵습니다.
이 "변화"는 일부 입력의 효율성을 향상시킬 수 있지만 다른 입력의 효율성을 감소시킬 수 있습니다.
평가 절차(또는 "평가")는 시스템 설계를 최적화하는 데 매우 유용합니다. 좋은 평가에는 다음과 같은 특징이 있습니다.
1) 실제 사용(또는 최소한 다양한 사용)을 나타냅니다.
2) 더 큰 통계적 검정력을 달성하기 위한 많은 테스트 사례가 포함되어 있습니다(아래 표 참조)
3 ) 자동화 또는 반복
출력 평가는 컴퓨터, 사람 또는 둘의 조합으로 이루어질 수 있습니다. 컴퓨터는 객관적인 기준을 사용하여 자동으로 평가할 수도 있고, 모델을 사용하여 모델을 평가하는 등 주관적이거나 모호한 기준을 사용할 수도 있습니다.
OpenAI는 자동 평가 생성 도구를 제공하는 오픈 소스 소프트웨어 프레임워크인 OpenAI Evals를 제공합니다.
모델 기반 평가는 동일한 품질의 일련의 출력이 있을 때 유용합니다.
실용 팁:
1. 최적의 답변을 참조하여 모델 출력을 평가하세요
알려진 질문에 대한 정답은 알려진 사실의 특정 집합을 참조해야 한다고 가정합니다.
그런 다음 모델에게 답변에 필수 사실이 몇 개 포함되어 있는지 물어볼 수 있습니다.
예를 들어, 다음 시스템 메시지를 사용하면
필요한 확립된 사실을 제공합니다.
Neil Armstrong은 달에 발을 디딘 최초의 사람입니다.
닐 암스트롱이 처음 달에 착륙한 날짜는 1969년 7월 21일이었습니다.
답변에 주어진 사실이 포함되어 있으면 모델은 "예"라고 대답합니다. 그렇지 않으면 모델은 "아니요"라고 대답하고 마지막으로 모델이 "예"라고 대답한 수를 계산하게 합니다.
다음은 확립된 두 가지 사실(이벤트 및 시간 모두)을 포함하는 입력 예시입니다.
확립된 사실(시간 없음)만 만족시키는 입력 예:
다음 입력 예에는 확립된 사실이 포함되어 있지 않습니다.
이 모델 기반에는 여러 가지가 있습니다. 평가방법의 변형이 가능하며, 후보답안과 표준답변의 중복 정도를 추적하고, 후보답안이 표준답안과 충돌하는지 여부를 추적하는 것이 필요하다.
표준 이하의 답변이 포함되어 있지만 전문가 답변(표준 답변)과 모순되지 않는 아래 입력 예시와 같습니다.
다음은 답변이 전문가와 일치하는 입력 예시입니다. 대답 대답은 정반대입니다(닐 암스트롱이 달에 발을 디딘 두 번째 사람이라고 생각하세요):
마지막 것은 정답이 포함된 샘플 입력으로, 필요한 것보다 더 많은 세부 정보도 제공합니다(시간은 정확히 02:56이며 이것이 인류 역사상 기념비적인 사건임을 지적합니다):
포털: https://github.com/openai/evals(OpenAI Evals)
위 내용은 GPT-4를 위한 가장 완벽한 전략이 여기에 있습니다! OpenAI 정식 출시, 6개월간 축적된 경험 모두 담았다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!