Heim > Artikel > Technologie-Peripheriegeräte > Wenn ChatGPT eine kostenpflichtige Version auf den Markt bringt, muss jemand für die Rechenleistung bezahlen.
Am Mittwoch Ortszeit startete OpenAI ChatGPT Plus, eine kostenpflichtige Abonnementversion von ChatGPT, die 20 US-Dollar pro Monat kostet (ca. 135 Yuan basierend auf dem Wechselkurs vom 2. Februar).
Obwohl OpenAI erklärt hat, dass es weiterhin eine kostenlose Version anbieten wird, werden kostenpflichtige Projekte auch besser „so vielen Menschen wie möglich helfen, kostenlose Dienste zu nutzen“. Die „New York Times“ wies jedoch auch darauf hin, dass „während der Hauptverkehrszeiten die Anzahl der Besucher der kostenlosen Version begrenzt sein wird“. Offensichtlich sind die Verkehrsbeschränkungen, Mengenbeschränkungen und andere Maßnahmen, die in der kostenlosen Version von ChatGPT häufig vorkommen werden voraussichtlich weiterhin bestehen bleiben.
Gerade als wir das chinesische Neujahr feiern, ist der generative KI-Chatbot ChatGPT populär geworden. Nur zwei Monate nach seiner Öffnung für die Öffentlichkeit hat ChatGPT bereits das „kleine Ziel der KI-Studenten“ erreicht – monatlich aktive Nutzer von über 100 Millionen. In den letzten zwei Monaten haben Internetnutzer auf der ganzen Welt diesen intelligenten Chatbot mit Begeisterung „trainiert“, aber der erste, der es nicht ertragen konnte, war der Besitzer von ChatGPT. Für eine längerfristige Entwicklung hat OpenAI die kostenpflichtige Abonnementversion von ChatGPT Plus angekündigt.
Laden ist eine unvermeidliche Wahl für die langfristige Entwicklung von KI-Diensten. Zuvor hatte Greg Brockman, der Präsident und Vorsitzende von OpenAI, öffentlich einen Beitrag gepostet, in dem er Benutzer um Vorschläge zum Thema „Wie man mit ChatGPT Geld verdient“ bat.
Die Hauptursache liegt darin, dass hinter der „zunehmenden Intelligenz“ von KI wie ChatGPT enorme Kosten stecken. Unter ihnen sind die Kosten für die Rechenleistung am wichtigsten und auch der Teil, bei dem keine Abstriche gemacht werden können.
Daten zeigen, dass der gesamte Rechenleistungsverbrauch von ChatGPT etwa 3640PF-Tage beträgt. Für einen intuitiveren Vergleich können wir uns einige aktuelle Neuigkeiten zum Bau eines Rechenzentrums ansehen, z. B. ein Rechenzentrumsprojekt mit einer Gesamtinvestition von 3,02 Milliarden Euro und einer Rechenleistung von 500 P. Wir wissen, dass dafür mindestens 7 benötigt werden -8 Stunden zur Unterstützung des Betriebs von ChatGPT. Um ein solches Rechenzentrum zu unterstützen, belaufen sich die Investitionen in die Infrastruktur auf zweistellige Milliardenbeträge. Natürlich lässt sich die Infrastruktur durch Miete lösen, aber der Kostendruck durch die Nachfrage nach Rechenleistung ist immer noch enorm. Laut der Analyse des Soochow Securities Research Report ist die Optimierung von ChatGPT hauptsächlich auf die Erweiterung des Modells und die daraus resultierende Steigerung der Rechenleistung zurückzuführen. Die Anzahl der Parameter von GPT, GPT-2 und GPT-3 (die aktuelle offene Version ist GPT-3.5) ist von 117 Millionen auf 175 Milliarden gestiegen, und die Menge der vorab trainierten Daten ist von 5 GB auf 45 TB gestiegen einer einzelnen Trainingseinheit für GPT-3 beträgt bis zu 4,6 Millionen US-Dollar.
Rechenleistung! Rechenleistung! Rechenleistung!
Aber egal wer teilnimmt, er muss eine Frage beantworten: Wie lassen sich die Kosten für die Rechenleistung lösen?
Vielleicht liegt die Antwort in Chinas Projekt „Nummerierung im Osten und Zählung im Westen“, das mit Hochdruck vorangetrieben wird.
Das Projekt „Eastern Data and Western Computing“ baut ein neues landesweites integriertes Rechenleistungsnetzwerk auf, optimiert das Layout des Rechenzentrumsbaus und lenkt den Rechenleistungsbedarf geordnet von Ost nach West. Dabei werden die Ressourcenvorteile genutzt des Westens, um kostengünstige Rechenleistung für die Entwicklung von Digital China bereitzustellen, kostengünstige und hochwertige Rechenleistung.
Für die KI-Branche kann „Digitalisierung im Osten und Informatik im Westen“ auch zu „Digitalisierung im Osten und Ausbildung im Westen“ werden, d Das westliche Rechenzentrum mit geringeren Rechenleistungskosten und vorteilhafterer Skalierung ist im Gange.
Dementsprechend werden auch diese Rechenzentren, in denen intelligente Schulungen stattfinden, gezielt umgestaltet, um sie besser an die Anforderungen intelligenter Schulungen anzupassen. Beispielsweise sind sie hinsichtlich Energieversorgung, Wärmeableitungsstruktur, Schrankform usw. besser geeignet Verwendung einer großen Anzahl intelligenter Trainingschips usw.
Daraus können wir auch den neuen Weg für die zukünftige Entwicklung von Rechenzentren erkennen. Anwendungen wie „Östliche Daten und westliche Schulung“, „Östliche Daten und westliche Darstellung“, „Östliche Daten und westliche Speicherung“ werden ebenfalls zur Mainstream-Richtung werden. Der Bau von Rechenzentren wird sich ebenfalls von der allgemeinen Ära der Ausstechformen verabschieden und in das Szenario eintreten -geführte und anwendungsorientierte „Spezialisierte“ Ära.
Das obige ist der detaillierte Inhalt vonWenn ChatGPT eine kostenpflichtige Version auf den Markt bringt, muss jemand für die Rechenleistung bezahlen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!