Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Baidu-CTO Wang Haifeng: Große Sprachmodelle läuten den Beginn der allgemeinen künstlichen Intelligenz ein

Baidu-CTO Wang Haifeng: Große Sprachmodelle läuten den Beginn der allgemeinen künstlichen Intelligenz ein

王林
王林nach vorne
2023-08-18 13:05:051292Durchsuche

Am 16. August 2023, Pekinger Zeit, fand die WAVE SUMMIT Deep Learning Developer Conference vom National Engineering Research Center for Deep Learning Technology and Applications statt. Bei diesem Treffen sagte Baidu Chief Technology Officer und Direktor des National Engineering Research Center for Deep Lerntechnologie und -anwendungen Wang Haifeng hielt eine Grundsatzrede. Wang Haifeng erklärte zum ersten Mal öffentlich, dass große Sprachmodelle bereits über die grundlegenden Grundfähigkeiten künstlicher Intelligenz wie Verständnis, Generierung, Logik und Gedächtnis verfügen, was neue Hoffnung für die Entwicklung allgemeiner künstlicher Intelligenz bringt

8 Millionen Entwickler haben Flying Paddle verwendet und mehr als 800.000 Modelle erstellt

WAVE SUMMIT Deep Learning Developer Conference findet seit April 2019 statt. Auf der ersten Konferenz wies Wang Haifeng darauf hin, dass Deep Learning eine breite Anwendbarkeit hat und die Merkmale der Standardisierung, Automatisierung und Modularisierung der industriellen Produktion aufweist, was den Eintritt der künstlichen Intelligenz in die Industrialisierungsphase gefördert hat. Nach vier Jahren der Entwicklung hat der Fortschritt der Deep-Learning-Technologie und -Anwendungen diesen Standpunkt vollständig bestätigt. Der Anwendungsbereich der Deep-Learning-Technologie wird immer größer, die Standardisierungs-, Automatisierungs- und Modularitätsmerkmale von Deep-Learning-Plattformen werden immer offensichtlicher und der Aufstieg vorab trainierter großer Modelle hat die Tiefe und Breite künstlicher Intelligenz weiter erweitert Geheimdienstanwendungen. Daher hat die künstliche Intelligenz das Stadium der industriellen Produktion erreicht

Im Hinblick auf die Standardisierung haben wir gemeinsam Frameworks und Modelle optimiert, um sie einheitlich an eine Vielzahl von Hardware anzupassen und Anwendungsmodelle zu vereinfachen. Dadurch haben wir die Schwelle für Anwendungen mit künstlicher Intelligenz im Hinblick auf die Automatisierung erheblich gesenkt und die Effizienz des gesamten Prozesses verbessert Die Forschung und Entwicklung im Bereich der künstlichen Intelligenz, vom Training über die Anpassung bis hin zum Einsatz von Inferenzen, ist im Hinblick auf die Modularität vollständig automatisiert. Wir bieten eine umfangreiche Modellbibliothek auf industrieller Ebene, um die schnelle Anwendung künstlicher Intelligenz in verschiedenen Szenarien zu erleichtern

Baidu-CTO Wang Haifeng: Große Sprachmodelle läuten den Beginn der allgemeinen künstlichen Intelligenz einFeiPaddles industrietaugliche Deep-Learning-Open-Source-Open-Plattform und Wenxins großes Modell fördern sich gegenseitig, machen das FeiPaddle-Ökosystem erfolgreicher, ziehen 8 Millionen Entwickler an, bieten Dienstleistungen für 220.000 Unternehmen und Institutionen und schaffen 800.000 Projekte auf Basis des FeiPaddle-Modells. Wang Haifeng erklärte die tiefe Bedeutung des chinesischen Namens der Flying Paddle-Entwicklergemeinschaft AI Studio „Galaxy Community“: „Wenxin und Flying Paddle betreten gemeinsam die Galaxie.“ Unter der Leitung von Fei Piao und Wen Xin arbeiten wir mit allen Entwicklern zusammen, um die Galaxy-Community aufzubauen und die endlosen Möglichkeiten der allgemeinen künstlichen Intelligenz zu erkunden

Baidu-CTO Wang Haifeng: Große Sprachmodelle läuten den Beginn der allgemeinen künstlichen Intelligenz ein

Groß angelegte Sprachmodelle bringen neue Hoffnung für allgemeine künstliche Intelligenz

Wang Haifeng glaubt, dass die grundlegenden Grundfähigkeiten der allgemeinen künstlichen Intelligenz Verständnis, Generierung, Logik und Gedächtnis umfassen, und das große Sprachmodell verfügt über diese vier Fähigkeiten, was Hoffnung auf die Verwirklichung der allgemeinen künstlichen Intelligenz bringt

Konkret basieren die typischen Fähigkeiten der künstlichen Intelligenz, wie Kreation, Programmierung, Problemlösung und Planung, auf grundlegenden Grundfähigkeiten, einschließlich Verständnis, Generation, Logik und Gedächtnis, obwohl sie sich im Grad der Abhängigkeit unterscheiden können. Beispielsweise erfordert der Problemlösungsprozess den umfassenden Einsatz von Verständnis, Gedächtnis, Logik und generativen Fähigkeiten, vom Lesen der Frage über das Lösen der Frage bis hin zum schließlichen Schreiben der Antwort

Wie erlangt man diese Fähigkeiten? Am Beispiel von Wen Xinyiyan trainieren wir zunächst ein großes vorab trainiertes Modell durch Fusionslernen von Billionen Daten und Hunderten Milliarden Wissen. Anschließend wird es mithilfe von Techniken wie überwachter Feinabstimmung, verstärkendem Lernen mit menschlichem Feedback und Eingabeaufforderungen weiter optimiert. Darüber hinaus bietet dieses Modell auch technische Vorteile wie Wissenserweiterung, Abrufverbesserung und Dialogverbesserung

Technische Innovationen wie die Optimierung von Datenquellen und Datenverteilung durch mehrere Strategien, Langtextmodellierung von Grundmodellen, überwachte Feinabstimmung mit mehreren Typen und mehreren Stufen, adaptive überwachte Feinabstimmung mit mehreren Aufgaben sowie mehrstufige und mehrstufige -Granularitätsbelohnungsmodelle verbessern grundlegende allgemeine Fähigkeiten umfassend. Auf der Grundlage der Abrufverbesserung und Wissenserweiterung wird die Fähigkeit, Weltwissen zu beherrschen und anzuwenden, durch Wissenspunktverbesserung verbessert; logische Fähigkeiten werden durch den Aufbau umfangreicher logischer Daten, logische Wissensmodellierung, multigranulare semantische Wissenskombination und symbolische Neuronen verbessert Netzwerk; Gewährleisten Sie die Sicherheit großer Modelle durch den Aufbau eines umfassenden Sicherheitssystems, das Daten-, Inhalts-, Modell- und Systemsicherheit umfasst

Durch die durchgängige adaptive Hybrid-Parallel-Trainingstechnologie von Fei Paddle und die gemeinsam optimierte Komprimierung, Inferenz und Servicebereitstellung wurde die Trainingsgeschwindigkeit des großen Modells von Wenxin um das Dreifache und die Inferenzgeschwindigkeit um mehr als das 30-fache erhöht

Durch datengesteuerte, zeitnahe Konstruktion und Plug-In-Verbesserung haben wir Szenenanpassungen und kollaborative Optimierungen in Anwendungen durchgeführt. Wir haben fünf Plug-ins eingeführt: Wen Xin Yi Yan, Baidu Search, Browsing Documents, E Yan Yi Tu, Shuo Tu Jie Hua und Yijing Liuying. Mit diesen Plug-Ins können unsere Modelle in Echtzeit präzise Informationen, lange Textzusammenfassungen und Fragen und Antworten, Dateneinblicke und Diagrammerstellung, bildbasierte Erstellung und Fragen und Antworten sowie Vincent-Videos generieren. Die Einführung des Plug-In-Mechanismus erweitert die Funktionsgrenzen großer Modelle und erfüllt die Anforderungen verschiedener Szenarien besser. Wang Haifeng sagte, dass Baidu in Zukunft mit Entwicklern zusammenarbeiten werde, um ein Plug-in-Ökosystem aufzubauen und technologische Innovationsergebnisse auszutauschen

Künstliche Intelligenz, repräsentiert durch große Sprachmodelle, dringt in Tausende von Branchen ein und beschleunigt die industrielle Modernisierung und das Wirtschaftswachstum. In diesem Prozess bilden technologische Innovation und Anwendungsimplementierung einen positiven Kreislauf. Fähigkeiten wie Verständnis, Generierung, Logik und Gedächtnis nehmen weiter zu. Die Breite und Tiefe industrieller Anwendungen bringt immer neue Hoffnung künstliche Intelligenz.

Das obige ist der detaillierte Inhalt vonBaidu-CTO Wang Haifeng: Große Sprachmodelle läuten den Beginn der allgemeinen künstlichen Intelligenz ein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen