Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Warum der One-Million-Token-Kontext von Gemini 1.5 bahnbrechend ist

Warum der One-Million-Token-Kontext von Gemini 1.5 bahnbrechend ist

王林
王林Original
2024-06-14 15:13:23928Durchsuche

Google Gemini 1.5 verfügt jetzt über ein riesiges Kontextfenster mit einer Million Token, das seine direkte Konkurrenz in ChatGPT, Claude und anderen KI-Chatbots in den Schatten stellt.

Es klingt nach einer gewaltigen Verbesserung und könnte Gemini von anderen abheben. Es ist ein wenig schwierig, das volle Ausmaß zu erfassen – aber das enorme Kontextfenster von Gemini könnte bahnbrechend sein.

Was ist ein Kontextfenster?

Bei der Beantwortung Ihrer Fragen, etwa der Erläuterung eines Konzepts oder der Zusammenfassung eines Textes, ist die Datenmenge, die KI-Modelle für die Generierung einer Antwort berücksichtigen können, begrenzt. Die Begrenzung der Textgröße, die berücksichtigt werden kann, wird als Kontextfenster bezeichnet.

Hier ist eine andere Sichtweise. Nehmen wir an, Sie gehen in ein Lebensmittelgeschäft, um Lebensmittel einzukaufen, ohne Ihre Einkaufsliste dabei zu haben. Die Grenze dafür, an wie viele Lebensmittel Sie sich beim Einkaufen erinnern, ist Ihr Kontextfenster. Je mehr Lebensmittel Sie sich merken können, desto höher ist die Chance, dass Sie Ihre Einkaufspläne nicht durcheinander bringen. Je größer das Kontextfenster eines KI-Modells ist, desto höher ist die Wahrscheinlichkeit, dass sich das Modell alles merkt, was es braucht, um Ihnen die besten Ergebnisse zu liefern.

Zum Zeitpunkt des Schreibens ist das 200.000 Kontextfenster von Claude 2.1 von Anthropic das größte Kontextfenster aller allgemein verfügbaren KI-Modelle. Darauf folgt GPT-4 Turbo mit einem 128k-Kontextfenster. Google Gemini 1.5 bietet ein Kontextfenster von einer Million, viermal größer als alles auf dem Markt. Dies führt zu der großen Frage: Was ist die große Sache mit einem Kontextfenster von einer Million Token?

Warum das Kontextfenster von Gemini 1.5 eine große Sache ist

Why Gemini 1.5's One Million Token Context Is a Game Changer

Um es klarer auszudrücken: Das 200.000-Kontextfenster von Claude AI bedeutet, dass es ein Buch mit etwa 150.000 Wörtern verarbeiten und Antworten darauf liefern kann. Das ist gewaltig. Aber Googles Gemini 1.5 wäre in der Lage, 700.000 Wörter auf einmal zu verarbeiten!

Wenn Sie einen großen Textblock in KI-Chatbots wie ChatGPT oder Gemini einspeisen, versucht dieser, so viel Text wie möglich zu verarbeiten, aber wie viel er verarbeiten kann, hängt von seinem Kontextfenster ab. Wenn Sie also eine Konversation mit 100.000 Wörtern auf einem Modell führen, das nur 28.000 Wörter verarbeiten kann, und dann anfangen, Fragen zu stellen, die vollständige Kenntnisse über die gesamte Konversation mit 100.000 Wörtern erfordern, ist das Scheitern wahrscheinlich.

Stellen Sie sich vor, Sie sehen sich nur 20 Minuten eines einstündigen Films an, werden aber gebeten, den gesamten Film zu erklären. Wie gut wären Ihre Ergebnisse? Sie weigern sich entweder zu antworten oder erfinden einfach Dinge, was genau das wäre, was ein KI-Chatbot tun würde, was zu KI-Halluzinationen führen würde.

Wenn Sie nun denken, dass Sie noch nie 100.000 Wörter in einen Chatbot einspeisen mussten, ist das nicht die ganze Überlegung. Das Kontextfenster geht über den Text hinaus, den Sie einem KI-Modell in einer einzigen Eingabeaufforderung zuführen. KI-Modelle berücksichtigen das gesamte Gespräch, das Sie während einer Chat-Sitzung geführt haben, um sicherzustellen, dass ihre Antworten so relevant wie möglich sind.

Auch wenn Sie kein Buch mit 100.000 Wörtern füttern, tragen Ihre hin- und hergehenden Gespräche und die Antworten, die es liefert, zur Berechnung des Kontextfensters bei. Sie fragen sich, warum ChatGPT oder Googles Gemini immer wieder die Dinge vergisst, die Sie ihm zuvor in einem Gespräch gesagt haben? Wahrscheinlich ging ihm der Platz im Kontextfenster aus und es begann, Dinge zu vergessen.

Ein größeres Kontextfenster ist besonders wichtig für Aufgaben, die ein tiefes Verständnis des Kontexts erfordern, wie zum Beispiel das Zusammenfassen langer Artikel, das Beantworten komplexer Fragen oder die Aufrechterhaltung einer kohärenten Erzählung im generierten Text. Möchten Sie einen Roman mit 50.000 Wörtern schreiben, der durchgehend eine einheitliche Erzählung aufweist? Möchten Sie ein Model, das eine einstündige Videodatei „ansehen“ und Fragen dazu beantworten kann? Sie benötigen ein größeres Kontextfenster!

Kurz gesagt: Das größere Kontextfenster von Gemini 1.5 kann die Leistung seines KI-Modells erheblich verbessern, Halluzinationen reduzieren und die Genauigkeit und Fähigkeit, Anweisungen besser zu befolgen, deutlich erhöhen.

Wird Gemini 1.5 den Erwartungen gerecht?

Why Gemini 1.5's One Million Token Context Is a Game Changer

Wenn alles wie geplant verläuft, könnte Gemini 1.5 möglicherweise die besten KI-Modelle auf dem Markt übertreffen. Angesichts der vielen Fehler von Google beim Aufbau eines stabilen KI-Modells ist jedoch Vorsicht geboten. Allein die Vergrößerung des Kontextfensters eines Modells führt nicht automatisch zu einer Verbesserung des Modells.

Ich habe das 200k-Kontextfenster von Claude 2.1 seit seiner Veröffentlichung monatelang verwendet, und eines ist mir klar: Ein größeres Kontextfenster kann zwar die Kontextsensitivität verbessern, aber Probleme mit der Leistung des Kernmodells können einen größeren Kontext zu einem Problem machen sein eigenes.

Wird uns Google Gemini 1.5 einen Game-Changer bescheren? Die sozialen Medien sind derzeit voller begeisterter Rezensionen von Early-Access-Benutzern zu Gemini 1.5. Die meisten 5-Sterne-Bewertungen stammen jedoch aus überstürzten oder vereinfachten Anwendungsfällen. Ein guter Ort, um zu überprüfen, wie Gemini 1.5 in freier Wildbahn funktionieren würde, ist der technische Bericht zu Gemini 1.5 von Google [PDF]. Der Bericht zeigt, dass das Modell selbst bei „kontrollierten Tests“ nicht alle winzigen Details von Dokumenten innerhalb der Größe seines Kontextfensters abrufen konnte.

Ein Kontextfenster mit einer Million Token ist in der Tat eine beeindruckende technische Leistung, aber ohne die Möglichkeit, die Details eines Dokuments zuverlässig abzurufen, ist ein größeres Kontextfenster von geringem praktischen Wert und könnte sogar zur Ursache für sinkende Genauigkeit und Halluzinationen werden.

Das obige ist der detaillierte Inhalt vonWarum der One-Million-Token-Kontext von Gemini 1.5 bahnbrechend ist. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn