Heim  >  Artikel  >  OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße

OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße

WBOY
WBOYOriginal
2024-07-31 09:11:09497Durchsuche

OpenAI sieht sich Berichten zufolge mit einer Geldknappheit konfrontiert, aber das hält das führende Unternehmen für generative KI nicht davon ab, weiterhin einen stetigen Strom neuer Modelle und Updates zu veröffentlichen.

OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße

OpenAI hat in aller Stille eine neue Variante seines großen Sprachmodells GPT-4o mit dem Namen GPT-4o Long Output angekündigt. Dieses neue Modell verfügt über eine massiv erweiterte Ausgabegröße und kann im Vergleich zu den 4.000 Tokens des ursprünglichen GPT-4o bis zu 64.000 Tokens generieren. Dies bedeutet eine 16-fache Steigerung der Produktionskapazität.

Tokens, um Ihr Gedächtnis schnell aufzufrischen, sind numerische Darstellungen von Konzepten, grammatikalischen Konstruktionen und Kombinationen aus Buchstaben und Zahlen, die auf der Grundlage ihrer semantischen Bedeutung hinter den Kulissen eines LLM organisiert werden.

Das Wort „Hallo“ ist zum Beispiel ein Zeichen, aber auch „Hallo“. Hier können Sie eine interaktive Demo von Tokens in Aktion über den Tokenizer von OpenAI sehen. Der Forscher für maschinelles Lernen, Simon Willison, verfügt auch über einen großartigen interaktiven Token-Encoder/Decoder.

Dieses neue Modell soll der Kundennachfrage nach längeren Ausgabekontexten gerecht werden. Ein OpenAI-Sprecher erklärte gegenüber VentureBeat: „Wir haben von unseren Kunden das Feedback gehört, dass sie sich einen längeren Ausgabekontext wünschen.“ Wir testen ständig neue Wege, um die Bedürfnisse unserer Kunden bestmöglich zu erfüllen.“

Das Modell durchläuft derzeit einige Wochen lang eine Alpha-Testphase, in der OpenAI Daten darüber sammeln wird, wie effektiv die erweiterte Ausgabe die Benutzerbedürfnisse erfüllt.

Diese erweiterte Funktion ist besonders vorteilhaft für Anwendungen, die eine detaillierte und umfangreiche Ausgabe erfordern, wie z. B. Codebearbeitung und Schreibverbesserung. Durch die Bereitstellung erweiterter Ausgaben kann das GPT-4o-Modell umfassendere und differenziertere Antworten liefern, was diesen Anwendungsfällen erheblich zugute kommen kann.

Bereits seit dem Start bot GPT-4o ein maximales Kontextfenster von 128.000 – die Menge an Token, die das Modell in einer Interaktion verarbeiten kann, einschließlich Eingabe- und Ausgabe-Token. Für GPT-4o Long Output bleibt dieses maximale Kontextfenster bei 128.000.

Wie kann OpenAI also die Anzahl der Ausgabe-Tokens um das 16-fache von 4.000 auf 64.000 Token erhöhen und gleichzeitig das Gesamtkontextfenster bei 128.000 halten?

Der Aufruf beruht auf einer einfachen Rechnung: Obwohl das ursprüngliche GPT-4o vom Mai ein Gesamtkontextfenster von 128.000 Tokens hatte, war seine einzelne Ausgabenachricht auf 4.000 begrenzt.

Ähnlicherweise beträgt der Gesamtkontext für das neue GPT-4o-Minifenster 128.000, aber die maximale Ausgabe wurde auf 16.000 Token erhöht.

Das bedeutet für GPT-4o, dass der Benutzer in einer einzigen Interaktion bis zu 124.000 Token als Eingabe bereitstellen und bis zu 4.000 maximale Ausgabe vom Modell erhalten kann. Sie können auch mehr Token als Eingabe bereitstellen, aber weniger als Ausgabe erhalten, während sie insgesamt immer noch 128.000 Token ergeben.

Für GPT-4o mini kann der Benutzer bis zu 112.000 Token als Eingabe bereitstellen, um eine maximale Ausgabe von 16.000 Token zurückzuerhalten.

Für die GPT-4o-Langausgabe ist das gesamte Kontextfenster immer noch auf 128.000 begrenzt. Doch jetzt kann der Benutzer Eingaben im Wert von bis zu 64.000 Tokens im Austausch für maximal 64.000 Tokens zurückgeben – das heißt, wenn der Benutzer oder Entwickler einer darauf aufbauenden Anwendung längere LLM-Antworten priorisieren und gleichzeitig die Eingaben begrenzen möchte .

In jedem Fall muss der Benutzer oder Entwickler eine Wahl treffen oder einen Kompromiss eingehen: Möchte er einige Eingabetoken zugunsten längerer Ausgaben opfern und trotzdem bei insgesamt 128.000 Token bleiben? Für Benutzer, die längere Antworten wünschen, bietet der GPT-4o Long Output dies jetzt als Option an.

Das neue GPT-4o Long Output-Modell kostet wie folgt:

Vergleichen Sie das mit dem regulären GPT-4o-Preis, der 5 US-Dollar pro Million Input-Tokens und 15 US-Dollar pro Million Output beträgt, oder sogar dem neuen GPT-4o mini mit 0,15 US-Dollar pro Million Input und 0,60 US-Dollar pro Million Output, und Sie sehen, dass der Preis höher ist aggressiv und setzt OpenAIs jüngsten Grundsatz fort, leistungsstarke KI erschwinglich und für weite Teile der Entwicklernutzerbasis zugänglich machen zu wollen.

Derzeit ist der Zugriff auf dieses experimentelle Modell auf eine kleine Gruppe vertrauenswürdiger Partner beschränkt. Der Sprecher fügte hinzu: „Wir führen einige Wochen lang Alpha-Tests mit einer kleinen Anzahl vertrauenswürdiger Partner durch, um zu sehen, ob längere Ausgaben ihren Anwendungsfällen helfen.“

Abhängig von den Ergebnissen dieser Testphase erwägt OpenAI möglicherweise die Ausweitung des Zugangs auf eine breitere Kundenbasis.

Der laufende Alpha-Test wird wertvolle Einblicke in die praktischen Anwendungen und potenziellen Vorteile des erweiterten Ausgabemodells liefern.

Wenn das Feedback der ersten Gruppe vorliegt

Das obige ist der detaillierte Inhalt vonOpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn