Heim > Artikel > Technologie-Peripheriegeräte > OpenAI kündigt eine offene API an, damit Entwickler ChatGPT in ihre Produkte integrieren können
Am 2. März gab OpenAI bekannt, dass es Drittentwicklern nun ermöglicht, ChatGPT über eine API in ihre Anwendungen und Dienste zu integrieren. Dies wird viel kostengünstiger sein als die Verwendung vorhandener Sprachmodelle.
Darüber hinaus gab das Unternehmen bekannt, dass es die API für Whisper, ein KI-gestütztes Speech-to-Text-Modell, öffnet und einige wichtige Änderungen an den Nutzungsbedingungen für Entwickler vornimmt.
OpenAI gibt an, dass seine ChatGPT-API für mehr als nur die Erstellung einer KI-gestützten Chat-Schnittstelle verwendet werden kann, gab jedoch auch zu, dass mehrere Unternehmen sie für ähnliche Zwecke verwendet haben, darunter Anfang dieser Woche die My AI-Funktion von Snap angekündigt, ebenso wie die zuvor von Microsoft eingeführte Chat-Funktion für Bing.
Es ist erwähnenswert, dass dieses von OpenAI geöffnete Modell möglicherweise nicht das von Bing verwendete ist, da Microsoft es ein „neues OpenAI-Großsprachenmodell der nächsten Generation“ nennt, das besser ist als ChatGPT und GPT- 3,5" Schneller, genauer, leistungsstärker“.
Angesichts der Tatsache, dass Microsoft stark in OpenAI investiert hat, ist es natürlich nicht verwunderlich, dass das Unternehmen Zugriff auf Technologien hat, die über den Zuständigkeitsbereich gewöhnlicher Entwickler hinausgehen, und Microsoft verwendet in Bing auch seine eigene Technologie.
Natürlich verbessert OpenAI auch ständig das öffentliche ChatGPT-Modell, und Entwickler haben auch die Flexibilität, bestimmte Versionen auszuwählen, wie zum Beispiel gpt-3.5-turbo-0301, das heute veröffentlicht wurde. Es wird mindestens bis zum 1. Juni unterstützt, wobei gpt-3.5-turbo im April auf eine stabile Version aktualisiert wird.
Berichten zufolge wird OpenAI 1.000 Token zu einem Preis von 0,002 US-Dollar anbieten, „was 90 % günstiger ist als unser bestehendes GPT-3.5-Modell“, was teilweise auf „eine Reihe systemweiter Optimierungen“ zurückzuführen ist. .
▲Anfrage
▲Antwort
▲ Bindung von Python
Obwohl 1000 Token klingen wie eine Menge, aber normalerweise kann das Senden eines Textausschnitts mehrere Token erfordern . (Der hier erwähnte „Token“ bezieht sich auf die Textblöcke, in die das System Sätze und Wörter zerlegt, um vorherzusagen, welcher Text als nächstes ausgegeben werden soll.)
Laut der offiziellen OpenAI-Dokumentation ist der Wortsatz „ChatGPT“ großartig !" erfordert ein Token mit sechs Wörtern – die API unterteilt es in „Chat“, „G“, „PT“, „is“, „great“ und „!“.
Natürlich stellt das Unternehmen Entwicklern auch ein Tool zur Verfügung, mit dem sie überprüfen können, wie viele Token zur Interpretation einer Textzeichenfolge benötigt werden. Als allgemeine Faustregel gilt: „Ein Token entspricht normalerweise etwa 4 Zeichen“ im Englischen, sagten sie.
Entwickler können auch eine dedizierte ChatGPT-Instanz erhalten, wenn sie große Datenmengen über die API ausführen, so das Unternehmen. Dadurch haben Sie angeblich eine bessere Kontrolle über Parameter, etwa wie lange es dauert, auf eine Anfrage zu antworten und wie lange eine Konversation mit dem Bot dauern kann.
Das obige ist der detaillierte Inhalt vonOpenAI kündigt eine offene API an, damit Entwickler ChatGPT in ihre Produkte integrieren können. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!