Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Hou Zhenyu gab bekannt, dass Baidu eine Reihe nativer KI-Cloud-Produkte auf den Markt gebracht hat und sich für die Neugestaltung großer Modelltechnologien im Cloud Computing einsetzt.

Hou Zhenyu gab bekannt, dass Baidu eine Reihe nativer KI-Cloud-Produkte auf den Markt gebracht hat und sich für die Neugestaltung großer Modelltechnologien im Cloud Computing einsetzt.

WBOY
WBOYnach vorne
2024-01-15 21:48:061194Durchsuche

Hou Zhenyu gab bekannt, dass Baidu eine Reihe nativer KI-Cloud-Produkte auf den Markt gebracht hat und sich für die Neugestaltung großer Modelltechnologien im Cloud Computing einsetzt.

Auf der Baidu Cloud Intelligence Conference·Intelligent Computing Conference 2023 veröffentlichte Baidu gleichzeitig neue Produkte wie die heterogene AI-Computing-Plattform „Baige 3.0“, die Intelligent Computing Network Platform und die selbst entwickelte Cloud-native-Datenbank GaiaDB 4.0

Unter anderem hat Baige 3.0 umfassende Spezialoptimierungen und Upgrades für native KI-Anwendungen sowie das Training und die Inferenz großer Modelle durchgeführt. Es unterstützt ultragroßes KI-Cluster-Computing auf Wanka-Ebene; im Hinblick auf Modelltraining und Inferenz wird der maximale Durchsatz um 30 % bzw. 60 % erhöht; Baige 3.0 kann ein extrem hohes effektives Cluster-Trainingszeitverhältnis von bis zu 98 % und eine effektive Netzwerkbandbreitennutzungsrate von 95 % erreichen, wodurch die effektive Rechenleistung des Clusters vollständig freigesetzt wird

Um das Problem des Ausgleichs von Angebot und Nachfrage intelligenter Rechenleistung im Zeitalter der KI zu lösen, unterstützt die Plattform für intelligente Computernetzwerke den globalen Zugriff auf intelligente Rechenknoten wie intelligente Rechenzentren, Supercomputing-Zentren und Edge-Knoten, die von gebaut wurden Baidu und Dritte. Durch die Verbindung verteilter und heterogener Computerressourcen entsteht ein einheitlicher Computernetzwerk-Ressourcenpool. Gleichzeitig nutzt Baidu den von Baidu unabhängig entwickelten fortschrittlichen Rechenleistungsplanungsalgorithmus, um den Status, die Leistung, die Auslastung und andere Indikatoren verschiedener Rechenleistungsressourcen intelligent zu analysieren und eine einheitliche Planung durchzuführen. Dadurch kann die Auslastungsrate der Ressourcen der intelligenten Computerbranche effektiv verbessert werden

GaiaDB 4.0 ist eine Cloud-native Datenbank, die das Problem von Engpässen bei der Datenverarbeitung auf einzelnen Maschinen löst, indem sie die Möglichkeiten paralleler Abfragen verbessert. Es implementiert eine maschinenübergreifende parallele Multi-Core-Abfrage und verbessert die Leistung in Geschäftsszenarien mit gemischter Last und Echtzeitanalyse um mehr als das Zehnfache

Hou Zhenyu, Vizepräsident der Baidu Group, betonte, dass im Zeitalter der nativen KI das Infrastruktursystem für große Modelle umfassend rekonstruiert werden muss, um eine solide Grundlage für den Aufbau eines florierenden nativen KI-Ökosystems zu schaffen.

Hou Zhenyu sagte: „Cloud Computing für die Rekonstruktion großer Modelle spiegelt sich hauptsächlich auf drei Ebenen wider: Die KI-native Cloud wird das Muster des Cloud-Computing verändern, Model as a Service (MaaS) wird zu einem neuen Basisdienst und KI-native Anwendungen werden entstehen.“ zu einem neuen Forschungs- und Entwicklungsparadigma

Führen Sie im Hinblick auf die Rechenleistung intelligentere Berechnungen durch

In der Cloud-Infrastrukturschicht basierte in der Vergangenheit, von Internetanwendungen bis hin zu mobilen Internetanwendungen, die unterste Schicht auf CPU-Rechenchips. Da jedoch die Nachfrage nach GPU- oder heterogenem Computing in Anwendungen der künstlichen Intelligenz erheblich gestiegen ist, hat die zugrunde liegende Rechenleistung im Cloud-Markt begonnen, sich in Richtung GPU-basierter

zu verlagern

Im dritten Quartal 2023 übertraf der Umsatz von NVIDIA den von Intel und der jüngste Marktwert von NVIDIA überstieg Intels 1 Billion US-Dollar. In Zukunft wird das Wachstum der GPU das der CPU bei weitem übertreffen. Angesichts dieses Trends müssen wir das Cloud-Computing-Infrastruktursystem für große Modelle umfassend neu aufbauen, um die Implementierung nativer KI-Anwendungssysteme zu unterstützen

Konkret wird sich der umfassende Umbau des Cloud Computing in drei Bereichen widerspiegeln, nämlich der umfassenden Modernisierung der modellorientierten intelligenten Computerinfrastruktur, der datenorientierten Dateninfrastruktur und der anwendungsorientierten Cloud-Infrastruktur, damit das Computing intelligenter wird

Auf der Modellebene werden große Modelle allgemeiner, d. h. Model as a Service (MaaS)

MaaS wird die Schwelle für die Implementierung von Al deutlich senken und echte inklusive Vorteile für Al erzielen. Die neue IT-Infrastruktur, auf die es sich stützt, wird auch die bestehende Cloud-Computing-Marktstruktur auf der untersten Ebene weiter untergraben.

Laut den praktischen Erfahrungen mit Baidu Smart Cloud hat sich die API der Baidu Smart Cloud Qianfan-Großmodellplattform (von Baidu Smart Cloud gestartete MaaS-Plattform) in den letzten 4 Monaten seit der vollständigen Eröffnung von Wenxinyiyan am 31. August verzehnfacht . Die Kunden kommen hauptsächlich aus verschiedenen Branchen wie Internet, Bildung, E-Commerce, Marketing, Mobiltelefone und Automobile. Es ist deutlich zu erkennen, dass viele Unternehmen in den letzten sechs Monaten wirklich begonnen haben, große Modelle in großem Umfang einzusetzen

Auf der Anwendungsebene hat sich die Art und Weise der Anwendungsentwicklung völlig verändert

Die einzigartigen Fähigkeiten des Verständnisses, der Generierung, der Logik und des Speichers von groß angelegten Modellen werden ein neues Paradigma in der nativen Anwendungsentwicklung einleiten und den gesamten Anwendungstechnologie-Stack, den Datenfluss und den Geschäftsfluss verändern.

In der Vergangenheit wurde die CPU-basierte Anwendungsentwicklung hauptsächlich durch Geschäftslogik vorangetrieben, während die traditionelle Forschung und Entwicklung im Bereich der künstlichen Intelligenz die Beschaffung von Daten für jedes unabhängige Szenario bzw. das Training des Modells von Grund auf erforderte. Heutzutage basieren native Anwendungen für künstliche Intelligenz hauptsächlich auf leistungsstarken Funktionen für große Modelle und datengesteuerter Entwicklung. Unternehmen können Szenendaten direkt zur Feinabstimmung basierend auf dem grundlegenden großen Modell verwenden, ein dediziertes großes Modell generieren und die Modellfunktionen nutzen, um native Anwendungen für künstliche Intelligenz zu entwerfen, ohne das große Modell neu zu trainieren. Mit zunehmender Geschäftsausweitung des Unternehmens werden mehr Wettbewerbsszenendaten gesammelt, wodurch die Auswirkungen von Modellen und Anwendungen verbessert werden und ein datengesteuerter positiver Kreislauf entsteht

Insbesondere das neue Paradigma der groß angelegten modellgesteuerten KI-nativen Anwendungsentwicklung weist mehrere neue Veränderungen auf:

Zuerst ist die „neue Szene“.

Das generative große Sprachmodell hat über die Erwartungen hinausgehende Fähigkeiten in mehreren Dimensionen wie Verstehen, Generieren, Denken und Gedächtnis gezeigt und zur Entstehung von Intelligenz geführt, was zu vielen neuen Geschäftsszenarioanwendungen geführt hat, die implementiert werden können, wie z Persönliche Assistenten, Smartphones usw. Erstellung von Texten, GBI (intelligente Geschäftsanalyse), Codierungsassistent usw.

Das zweite ist „neue Architektur“. Großes Modell Insbesondere wurden im Zuge der Implementierung dieser neuen Szenarien auch viele neue Systemarchitekturen erstellt, z. B. Abrufverbesserungen zur Generierung von RAG, intelligente Agenten usw.

Das dritte ist „neue Entwicklungsökologie“. Mit großen Modellen als Kern sind auch einige neue Tools in der Entwickler-Tool-Ebene aufgetaucht, darunter das Orchestrierungstool LangChain, das AI-Anwendungsentwicklungstool PromptFlow, das Datenframework Llamalndex usw.

Unterstützt durch Daten und Algorithmen. In Bezug auf große Modelle müssen wir eine leistungsstarke Deep-Learning-Modellbibliothek aufbauen und eine Vielzahl nativer A-Anwendungsmodelle bereitstellen, um den Anforderungen verschiedener Szenarien gerecht zu werden. Im Hinblick auf intelligente Rechenleistung müssen wir die Rechenkapazitäten von Prozessoren und GPUs stärken und effiziente Rechenressourcen bereitstellen, um die komplexen Rechenaufgaben der nativen Anwendungen von A zu unterstützen. In Bezug auf die Daten müssen wir eine große Menge nativer A-Anwendungsdaten sammeln, Data Mining und Analysen durchführen und genaue personalisierte Dienste bereitstellen. In Bezug auf Algorithmen müssen wir fortschrittliche Algorithmen für maschinelles Lernen entwickeln, um das Intelligenzniveau der nativen Anwendungen von A zu verbessern. Nur durch diese Unterstützung können wir ein wirklich erfolgreiches Ökosystem für native Anwendungen aufbauen

Die drei Elemente des neuen Paradigmas der KI-nativen Anwendungsentwicklung sind voneinander abhängig. Große Modelle sind der Kern nativer KI-Anwendungen, und intelligentes Computing bietet eine solide Unterstützung dafür. Das neue Forschungs- und Entwicklungsparadigma hilft Entwicklern, Anwendungen effizient zu entwickeln, die auf Funktionen großer Modelle basieren. Das Datenschwungrad ist eine notwendige Voraussetzung für erfolgreiche native KI-Anwendungen und ermöglicht die schnelle Iteration großer Modellfunktionen, um das Produkterlebnis kontinuierlich zu verbessern

Hou Zhenyu sagte: „Ich glaube, dass im Jahr 2024 wirklich brillante native KI-Anwendungen geboren werden

.“

Das obige ist der detaillierte Inhalt vonHou Zhenyu gab bekannt, dass Baidu eine Reihe nativer KI-Cloud-Produkte auf den Markt gebracht hat und sich für die Neugestaltung großer Modelltechnologien im Cloud Computing einsetzt.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen