Heim > Artikel > Technologie-Peripheriegeräte > Wird KI eine neue Rechenzentrumsinfrastruktur erfordern?
Die Rechenzentrumsinfrastruktur, die in den letzten Jahren erweitert wurde, um das explosive Wachstum von Cloud Computing, Video-Streaming und 5G-Netzwerken zu unterstützen, wird nicht ausreichen, um die nächste Stufe der digitalen Transformation zu unterstützen, die offiziell mit der weit verbreiteten Einführung künstlicher Intelligenz beginnen wird.
Tatsächlich wird die digitale Infrastruktur der künstlichen Intelligenz ein anderes Cloud-Computing-Framework erfordern, das das aktuelle Rechenzentrumsnetzwerk neu definieren wird, einschließlich des Standorts bestimmter Rechenzentrumscluster und der spezifischen Funktionen dieser Einrichtungen.
Im November ging Amazon Web Services, der weltweit führende Anbieter von Cloud-Computing, eine Partnerschaft mit StabilityAI ein, und Google verfügt Berichten zufolge über ein Chatgtp-ähnliches System namens Lambda. Der Suchmaschinenriese hat die Gründer Larry Page und Sergey Brin mit der Leitung beauftragt Start.
Letzten Monat kündigte Meta an, den Ausbau von Rechenzentren auf der ganzen Welt auszusetzen und diese Serverfarmen neu zu konfigurieren, um den Datenverarbeitungsanforderungen der künstlichen Intelligenz gerecht zu werden.
Der Datenverarbeitungsbedarf von Plattformen für künstliche Intelligenz ist enorm. Die OpenAI-Entwickler von ChatGPT haben die Plattform im November letzten Jahres gestartet, und sie wird ohne die bevorstehende Aktualisierung der Azure-Cloud-Plattform von Microsoft nicht weiter betrieben werden können.
ChatGPT erklärt dies vielleicht besser, aber es stellt sich heraus, dass das mikroverarbeitende „Gehirn“ der KI-Plattform, in diesem Fall die Rechenzentrumsinfrastruktur, die diese digitale Transformation unterstützt, wie das menschliche Gehirn in zwei Hemisphären organisiert sein wird oder Lappen. Ja, ein Blatt muss viel stärker sein als das andere.
Eine Hemisphäre der digitalen Infrastruktur für künstliche Intelligenz wird dem sogenannten „Training“ dienen, der Rechenleistung, die erforderlich ist, um bis zu 300 Milliarden Datenpunkte zu verarbeiten, um den von ChatGPT generierten Wortsalat zu erstellen. Bei ChatGPT handelt es sich um jedes Pixel im Internet, seit Al Gore es erfunden hat.
Das Trainingsblatt nimmt Datenpunkte auf und ordnet sie im Modell neu, genau wie die Synapsen des Gehirns. Es handelt sich um einen iterativen Prozess, in dem die digitale Einheit ihr „Verstehen“ weiter verfeinert und sich im Wesentlichen selbst beibringt, eine Welt voller Informationen aufzunehmen und die Essenz dieses Wissens in präziser menschlicher Grammatik zu vermitteln.
Trainingslobes erfordern leistungsstarke Rechenleistung und modernste GPU-Halbleiter, aber in Rechenzentrumsclustern, die Cloud-Computing-Dienste und 5G-Netzwerke unterstützen, ist derzeit nur wenig Konnektivität erforderlich.
Die Konzentration auf das „Training“ der Infrastruktur jeder KI-Plattform wird einen enormen Strombedarf erzeugen, der die Ansiedlung von Rechenzentren in der Nähe von Gigawatt erneuerbarer Energie, die Installation neuer Flüssigkeitskühlsysteme sowie neu gestaltete Notstromversorgungen und Generatorsysteme erfordert. unter anderem neue Designmerkmale.
Künstliche Intelligenzplattformen Die andere Hemisphäre des Gehirns, die höher funktionierende digitale Infrastruktur, die als „Inferenz“-Modus bekannt ist, unterstützt interaktive „generative“ Plattformen, die innerhalb von Sekunden nach der Eingabe der Anfrage Antworten auf Fragen oder Anweisungen generieren in die modellierte Datenbank eingefügt und Ihnen mit überzeugender menschlicher Syntax geantwortet.
Heutige hypervernetzte Rechenzentrumsnetzwerke, wie zum Beispiel Nordamerikas größter Rechenzentrumscluster „Data Center Alley“ in Nord-Virginia, der auch über das umfangreichste Glasfasernetz des Landes verfügt, können die nächste Stufe der KI-Gehirn-„Inferenz“ ermöglichen Allerdings müssen diese Einrichtungen auch modernisiert werden, um die erforderliche enorme Verarbeitungskapazität zu erfüllen, und sie müssen näher an den Umspannwerken liegen.
Der größte Cloud-Computing-Anbieter bietet KI-Startups, die nach Datenverarbeitungsleistung hungern, Datenverarbeitungsleistung an, da diese Startups das Potenzial haben, langfristige Kunden zu werden. Ein VC, der in KI investiert, verglich es mit einem „Stellvertreterkrieg“ zwischen Supermächten, die um die KI-Vorherrschaft konkurrieren.
Unter den großen Cloud-Computing-Unternehmen herrscht ein Stellvertreterkrieg. Sie sind wirklich die einzigen, die in der Lage sind, wirklich große KI-Plattformen mit vielen Parametern zu bauen.
Neue Chatbots mit künstlicher Intelligenz sind „furchtbar gut“, aber sie sind keine sehr empfindungsfähigen Wesen und können nicht mit den Millionen von Jahren der Evolution mithalten, die Milliarden präziser synaptischer Sequenzen hervorgebracht haben. Diese Synapsen feuern innerhalb derselben Millisekunde im Frontallappen.
Das obige ist der detaillierte Inhalt vonWird KI eine neue Rechenzentrumsinfrastruktur erfordern?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!