Heim  >  Artikel  >  Backend-Entwicklung  >  GPT-mini: kompakt und leistungsstark?

GPT-mini: kompakt und leistungsstark?

WBOY
WBOYOriginal
2024-07-20 03:14:091234Durchsuche

GPT-mini: compact and powerful?

Eines meiner Hauptprobleme in letzter Zeit ist die Kontextfenstergröße von GPT-3.5 Turbo und der Preis von GPT-4o. Die von mir erstellte App verwendet mehr als 300.000 Token pro Konversation. Rechnet man noch die Sprachkosten mit ein, wird es etwas teuer.

Außerdem ist GPT-3.5 nicht das intelligenteste Modell und ich habe mit Claude Haiku bessere Ergebnisse erzielt. Das Problem bei Haiku sind die niedrigen API-Limits und einige seltsame Stabilitätsprobleme.

Ich hatte jedoch keine andere Wahl, da GPT-4 für meinen Anwendungsfall angesichts der Menge an Token, die ich verwende, zu teuer war.

Ich habe GPT-4o mini ausprobiert und war ziemlich beeindruckt. Die Argumentation ist viel besser als bei GPT-3.5 und das Kontextfenster ist 128 KB groß – was für meinen Anwendungsfall gut genug ist (... und der niedrige Preis hilft auch ).

Haben Sie Mini schon verwendet und was sind Ihre Gedanken und Erfahrungen bisher?

Das obige ist der detaillierte Inhalt vonGPT-mini: kompakt und leistungsstark?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Vorheriger Artikel:Python – FunktionenNächster Artikel:Python – Funktionen