Heim >Backend-Entwicklung >Python-Tutorial >So rufen Sie die GPT3.5-Schnittstelle in Python auf
Die GPT3.5-Schnittstellenaufrufmethode umfasst hauptsächlich vier Teile: OpenAI-Installation, api_requestor.py-Ersatz, Schnittstellenaufruf und Beispielprogrammbeschreibung.
Die Python-Openai-Bibliothek kann direkt über pip install openai installiert werden. Wenn openai installiert wurde, nachfolgende Eingabeaufforderungen jedoch darauf hinweisen, dass ChatCompletion nicht gefunden werden kann, verwenden Sie bitte den Befehl „pip install -U openai“, um openai zu aktualisieren.
Nach der Installation von Python openai wird die Datei api_requestor.py generiert. Die Datei befindet sich im Dateiverzeichnis der Python-Umgebungsbibliothek „site-packagesopenaiapi_requestor.py“, wie unten gezeigt. Ersetzen Sie die Datei und antworten Sie auf api35 im öffentlichen Konto der Lele Sensing Academy, um die Datei zum Ersetzen zu erhalten.
pt-3.5-turbo-0301 . . (3) Temperatur: Steuert die Zufälligkeit des Ergebnisses. 0,0 bedeutet, dass das Ergebnis fest ist. Wenn die Zufälligkeit hoch ist, kann sie auf 0,9 eingestellt werden. (4) max_tokens: Die maximale Anzahl zurückgegebener Wörter (einschließlich Fragen und Antworten). Normalerweise machen chinesische Zeichen zwei Token aus. Angenommen, es ist auf 100 eingestellt. Wenn die Eingabefrage 40 chinesische Zeichen enthält, enthält das zurückgegebene Ergebnis bis zu 10 chinesische Zeichen. Die von der ChatGPT-API maximal zulässige Anzahl von Token beträgt 4096, d. h. die maximale Einstellung von max_tokens beträgt 4096 minus der Anzahl der Token in der Frage. (5) top_p: Auf 1 setzen. (6) Frequenz_Strafe: Einfach auf 0 setzen. (7) Anwesenheit_Strafe: Auf 0 setzen. (8) Stream: Kontinuierliche Ausgabe oder vollständige Ausgabe steuern. Es ist zu beachten, dass die oben genannten Eingabeparameter einen Stream hinzufügen, dh ob der Kontrollfluss für die Ausgabe verwendet werden soll. Wenn der Wert von stream False ist, werden alle Textergebnisse vollständig zurückgegeben, was über Response.choices[0].delta['content'] gelesen werden kann. Je größer die Anzahl der Wörter ist, desto länger ist jedoch die Wartezeit für die Rückgabe. Beim Lesen des Kontrollflusses kann die Zeit bis zu 4 Wörter/Sekunde betragen. Wenn der Wert von Steam True ist, ist das zurückgegebene Ergebnis ein Python-Generator, der durch Iteration erhalten werden muss. Der Durchschnitt liegt bei etwa 4 Wörtern pro Sekunde (134 Wörter in 33 Sekunden und 157 Wörter in 39 Sekunden). Das Leseprogramm lautet wie folgt. 4 Nachricht Das Nachrichtenfeld besteht aus zwei Teilen: Rolle und Inhalt, wie unten gezeigt:Windows:
C:ProgramDataAnaconda3Libsite-packagesopenaiapi_requestor.py
oder
C:ProgramDataAnaconda3envsxxxlibsite-packagesopenaiapi_requestor.py
Linux
/root/miniconda3/lib/pythonxx/site-packages/openaiapi _requestor.py
oder
/root/miniconda3 /envs/xxx/lib/pythonxx/site-packages/openaiapi_requestor.py
Ersetzen Sie diese Datei im öffentlichen Konto Lele Perception School, um die Ersatzdatei zu erhalten. 3. Beschreibung der Schnittstellenaufrufe: Die Aufrufmethode der Schnittstelle bleibt unverändert und stimmt mit der eigenen Aufrufmethode von Openai überein. Die Eingabe enthält hauptsächlich 7 Parameter.
model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Who won the world series in 2020?"}, {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."}, {"role": "user", "content": "Where was it played?"} ]Im gpt-3.5-turbo-Modell umfasst die Rolle System, System und Inhalt . Es gibt drei Arten von Assistenten und Benutzern. Die Systemrolle entspricht der Angabe, welche Rolle zur Beantwortung der Frage verwendet werden soll. Sie müssen die spezifische Rolle und den Frageninhalt im Inhalt angeben. Der Hauptunterschied zwischen gpt-3.5-turbo-0301 besteht darin, dass es dem Inhalt des Problems mehr Aufmerksamkeit schenkt und dem spezifischen Rollenteil keine besondere Aufmerksamkeit schenkt. Das Modell gpt-3.5-turbo-0301 ist bis zum 1. Juni gültig und gpt-3.5-turbo wird weiterhin aktualisiert. Der Assistent Assistent und der Benutzerbenutzer entsprechen der Angabe der Rolle, und der Inhalt kann direkt in das betreffende Problem geschrieben werden. 5 Beispielprogramm
Das obige ist der detaillierte Inhalt vonSo rufen Sie die GPT3.5-Schnittstelle in Python auf. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!