Heim >Technologie-Peripheriegeräte >KI >Hinter der Geburt von Tongyi Tingwu steht die erste Aufnahme einer großen KI-Antwortanwendung

Hinter der Geburt von Tongyi Tingwu steht die erste Aufnahme einer großen KI-Antwortanwendung

WBOY
WBOYnach vorne
2023-06-05 13:50:32611Durchsuche

Hinter der Geburt von Tongyi Tingwu steht die erste Aufnahme einer großen KI-Antwortanwendung Bild von Canva

Zu Beginn des Jahres 2023 weckte die explosionsartige Popularität von ChatGPT schnell die Aufmerksamkeit der Branche auf generative KI-Anwendungen, und der Wettbewerb um große KI-Modelle hat sich verschärft.

Als wichtiger Akteur stellte Alibaba Cloud erstmals das Großmodell Tongyi Qianwen auf dem Alibaba Cloud Summit am 11. April vor. Unmittelbar nach dem 1. Juni gab Alibaba Cloud den Fortschritt des Tongyi-Großmodells bekannt. Das neue KI-Produkt „Tongyi Listening“ mit Schwerpunkt auf Audio- und Videoinhalten wurde offiziell eingeführt und war damit das erste groß angelegte Modellanwendungsprodukt in China, das der Öffentlichkeit zugänglich gemacht wurde Dies bedeutet, dass das groß angelegte Sprachmodell von Alibaba Cloud einen weiteren großen Schritt in Richtung Front-End-Anwendungen gemacht hat. Gleichzeitig kommt die Veröffentlichung seiner KI-basierten Großmodellanwendung der Veröffentlichung eines Blockbusters auf dem derzeit umstrittenen „Großmodell-Nahkampf“ gleich.

Der Tausend-Modell-Krieg steht vor der Tür

In den letzten Monaten haben große Silicon Valley-Unternehmen wie Microsoft, Google und Amazon große Modelle und AIGC-Fortschritte angekündigt und den KI-Wettbewerb durch eine Reihe von Anwendungen wie KI-Suchmaschinen und KI-Bürosoftware ins Leben gerufen Auch Cloud-Unternehmen haben sukzessive die Armee angegriffen. Nicht nur große Hersteller, sondern auch viele Start-ups, VC/PE-Institutionen und Giganten aus verschiedenen Branchen strömen in die große KI-Modellbahn und versuchen, einen Teil des Geschehens zu bekommen. Unvollständigen Statistiken zufolge gibt es derzeit nicht weniger als 50 große Unternehmen, die Pläne zur Einführung groß angelegter KI-Modelle angekündigt haben, und es gibt unzählige weitere Teilnehmer.

Aus Mustersicht haben sich die von „BATH“ und anderen vertretenen Internet-Technologieunternehmen aufgrund ihrer umfassenden Stärken wie Szenarien, Rechenleistung und umfassenden technischen Fähigkeiten fest etabliert Branchenunternehmen der zweiten Stufe, wie SenseTime, China Telecom, JD.com, 360 usw., haben sich auf ihren Einfluss in verwandten Bereichen verlassen, um auf der zweiten Stufe der Branche zu landen, dicht gefolgt von verschiedenen Branchenriesen, darunter Meituan Mitbegründer Wang Huiwen, ehemaliger CEO von Sogou. Bekannte Unternehmer wie Wang Xiaochuan verfügen über Wissen, institutionelle Unterstützung und relevante Hintergründe, aber da sie sich noch in der Anfangsphase befinden, werden sie im Gedränge großer KI vorübergehend auf der dritten Stufe eingestuft Modelle.

Aus Klassifizierungssicht hat jedes Unternehmen seine eigene Positionierung und Arbeitsteilung rund um allgemeine Großmodelle und spezielle Großmodelle. Brancheninsidern zufolge lassen sich die aktuellen inländischen Großmodelle hauptsächlich in zwei Kategorien einteilen: Das eine ist ein allgemeines Großmodell, das GPT-Benchmarks durchführt und sich auf Unternehmen auf Basisebene wie Alibaba, Baidu und andere Unternehmen konzentriert Wir trainieren große vertikale Modelle auf der Plattform und konzentrieren uns dabei auf Unternehmen in vertikalen Branchen, wie z. B. große vertikale Modelle, die in den Bereichen Finanzen, medizinische Versorgung, Transport und anderen Bereichen eingesetzt werden. Aufgrund der hohen technischen Anforderungen und hohen Kosten ersterer haben viele Branchen begonnen, mit allgemeinen großen Modellunternehmen zusammenzuarbeiten, um vertikale Großmodelle zu trainieren, die für ihre eigene Branche auf der Grundlage ihrer eigenen Bedingungen geeignet sind.

Aus Sicht der Industriekette sind Hersteller von Rechenleistung, Hersteller von Cloud-Diensten und Hersteller von Front-End-Anwendungen beteiligt. Das System ist vollständig, eng miteinander verbunden und hat einen breiten Umfang. Derzeit beteiligen sie sich alle aktiv an der Technologieforschung und -entwicklung sowie der Szenarioimplementierung großer KI-Modelle, darunter der Rechenleistungshersteller NVIDIA, der Cloud-Dienstleister Alibaba Cloud und Front-End-Anwendungshersteller wie Kingsoft Office, UFIDA und Yuncong Technology. Kurz gesagt, der aktuelle Nahkampf um große KI-Modelle verschärft sich plötzlich.

Tongyi Tingwu hat die erste Aufnahme einer großen Model-Bewerbung gestartet

Aus Sicht der an großen KI-Modellen beteiligten Ebenen kann es hauptsächlich in vier Ebenen unterteilt werden: Anwendungsschicht, Modellschicht, Framework-Schicht und Chipschicht. Derzeit befinden sich die meisten Unternehmen auf dem Markt noch auf der Modellebene Wenn es um die Erforschung der Framework-Schicht und der Chip-Schicht geht, sind in der Branche derzeit keine Front-End-Anwendungen verfügbar. Als branchenweit erstes groß angelegtes Modellanwendungsprodukt in der öffentlichen Betaphase ist der Demonstrationseffekt von Tongyi Tingwu äußerst offensichtlich.

Einerseits wird der Wert der Technologie in der Nähe des Anwendungs-Frontends im Vergleich zur zugrunde liegenden Technologie einfallsreicher sein. Wenn man sich die gesamte Geschichte der Technologieentwicklung anschaut, ist es nicht schwer festzustellen, dass der Kernwert der Technologie in der Popularität ihrer Anwendung und dem Grad, in dem sie Benutzerprobleme löst, liegt. Aus diesem Grund haben Frontend-Anwendungen, die diese Verantwortung und Mission übernehmen, oft mehr Spielraum für Fantasie.

Nehmen Sie Tongyi Listening, das am 1. Juni von Alibaba Cloud eingeführt wurde. Durch die Verbindung mit Alibabas großem Tongyi-Modell ist es nicht nur ein einfaches Tool für die Audio- und Videotranskription, sondern eine effiziente KI Assistent für Menschen in Audio- und Video-Szenarien. Es bietet Benutzern eine Vielzahl von Bürodiensten, z. B. das automatische Erstellen von Notizen, das Organisieren von Interviews und das Extrahieren von PPT. Außerdem kann es Audio- und Videoinhalte in grafische Inhalte umwandeln, Kapitel für Kapitel zusammenfassen und Meinungen im Volltext zusammenfassen verfügt über eine „menschenähnliche“ effiziente Such- und Klassifizierungsfähigkeit.

Darüber hinaus verfügt es in unterteilten Szenarien auch über viele „Schatz“-Funktionen. Beispielsweise können Fremdsprachenlerner und Hörgeschädigte jederzeit Videos ohne Untertitel ansehen und überall. Bei Terminkonflikten kann Tingwu auch zu einem „Meeting-Vertreter“ für Profis werden. Wenn die KI unter stummgeschalteten Bedingungen an einem Meeting teilnimmt, kann sie die Transkriptionsergebnisse in ihrem Namen aufzeichnen können als Untertiteldateien heruntergeladen werden, um die Video-Postproduktion durch Tingwu Reviews zu erleichtern. Die von Tingwu Reviews sortierten Fragen und Antworten ermöglichen es Reportern, Analysten, Anwälten, der Personalabteilung und anderen Gruppen, Interviews effizienter zu organisieren. Kurz gesagt, in Bezug auf seine Fähigkeit, bestimmte Szenenprobleme zu lösen, hat es die Fähigkeiten bestehender Audio- und Videoanwendungen übertroffen und auch die Obergrenze der bisherigen Benutzererfahrung aktualisiert. Es wird definitiv für großes Aufsehen in der Branche sorgen.

Andererseits wurde gerade das große Modell Tongyi Qianwen von Alibaba Cloud selbst eingeführt und kann schnell technische Anwendungen basierend auf dem großen AI-Modell starten, was zeigt, dass Alibaba Cloud AI groß ist Das Modell ist in der Tat relativ ausgereift und verfügt über abgeleitete KI-Anwendungsfunktionen.

Von der Modellebene bis zur Anwendungsebene, vom großen KI-Modell bis zur Geburt großer Modellanwendungen scheint es einfach, aber tatsächlich ist es nicht einfach zu implementieren. Im Allgemeinen werden vertikale Anwendungen basierend auf der technischen Basis des allgemeinen Großmodells implementiert. Abgesehen vom allgemeinen Großmodell sind diese normalerweise nicht umsetzbar, und dies setzt voraus, dass das allgemeine Großmodell, auf dem es basiert, ausgereift genug ist, andernfalls ist es nicht möglich, es zu implementieren wird sehr schwierig zu implementieren sein. Es ist schwierig, Anwendungen auf den Markt zu bringen, die relativ einfach zu verwenden sind und die Fähigkeiten bestehender Produkte übertreffen. Nehmen wir als Beispiel Tongyi Tingwu: Seine technische Stärke wird nicht von allen Akteuren der Branche geteilt.

Eine umfassende KI-Infrastruktur ist der Schlüssel zum Sieg

Aus der Perspektive der Hunderten Milliarden Parameter-Trainingsanforderungen, die das große KI-Modell selbst erfordert, können die Schwierigkeit und Komplexität seiner Weiterentwicklung weit über das hinausgehen, was sich die Außenwelt vorstellt. Langfristig werden nur Unternehmen mit umfassenden technischen Fähigkeiten und Infrastrukturkapazitäten für KI-Großmodelle in der Lage sein, weiterzukommen.

Da die Entwicklungsgeschwindigkeit der generativen KI die externen Erwartungen bei weitem übertrifft, hat der Fortschritt eines einzelnen Links nur begrenzte Auswirkungen auf die Förderung des gesamten Trainings großer Modelle. Laut den Berechnungen von OpenAI hat sich die weltweite Nachfrage nach Rechenleistung für das Training von KI-Modellen seit 2012 in drei bis vier Monaten verdoppelt, mit einer jährlichen Wachstumsrate von bis zu dem Zehnfachen. Nach dem Mooreschen Gesetz kann sich die Chip-Rechenleistung jedoch nur alle 18 bis 24 Monate verdoppeln, was bedeutet, dass die Chip-Leistung bei weitem nicht mit den Entwicklungsanforderungen großer KI-Modelle mithalten kann. Speziell in verwandten Bereichen ist es für CPU-basierte Computersysteme schwierig, die Anforderungen an die Netzwerkübertragung mit hoher Bandbreite und geringer Latenz für das Training großer Modelle zu erfüllen. Diese Probleme können kurzfristig nicht effektiv gelöst werden, indem man sich auf einen einzigen „Stapel an Rechenleistung“ verlässt " und möglicherweise nicht wirtschaftlich. Wir müssen auf eine mehrstufige Gesamtsystemunterstützung durch Algorithmen, Rechenleistung, Frameworks usw. angewiesen sein, um diesen Wandel besser bewältigen zu können.

Zweitens ist der Schwellenwert selbst aufgrund der großen Rechenleistung, die für die Entwicklung allgemeiner großer Modelle erforderlich ist, der hohen Inferenztrainingskosten und der hohen Datenvolumenanforderungen sehr hoch und es gibt kein Full-Stack-Entwicklungsszenario für große Modelle Implementierungsfähigkeiten und ökologische Offenheit Unternehmen mit begrenzten Fähigkeiten haben es schwer, eine schnelle Fluktuationsrate aufrechtzuerhalten und können leicht eliminiert werden. Um ein erfolgreiches Allzweck-Großmodell zu erstellen, das zur externen Kommerzialisierung exportiert werden kann, müssen Hersteller laut einer Analyse von Brancheninsidern über umfassende Schulungs- und F&E-Fähigkeiten für Großmodelle, Erfahrung in der Implementierung von Geschäftsszenarien, KI-Sicherheits-Governance-Maßnahmen usw. verfügen Ökologische Offenheit und andere Kernkompetenzen, und es ist für normale Unternehmen schwierig, diese Fähigkeiten vollständig zu besitzen.

Als führender Cloud-Computing-Dienstleister in Asien und drittgrößter weltweit verfügt Alibaba Cloud über das stärkste System zur Unterstützung der Rechenleistung in China. Beispielsweise kann das Betriebssystem Alibaba Cloud Feitian eine einzelne Clustergröße von 100.000 Einheiten und eine Rechenkapazität von 100 Milliarden Dateien erreichen, die eine 90-prozentige parallele Effizienz von 1.000 Karten erreichen kann 10.000 Skalierungskarten bieten überlastungsfreie, leistungsstarke Cluster-Kommunikationsfunktionen. Alibaba Clouds eigene Deep-Learning-Plattform PAI kann die Rechenressourcenauslastung um mehr als das Dreifache, die KI-Trainingseffizienz um das Elffache und die Inferenzeffizienz um das Sechsfache steigern . Darüber hinaus hat Alibaba Cloud auch die Führung beim Aufbau der größten KI-Modell-Service-Community in China, „Magic“, übernommen, um die Kosten für die Entwicklung großer Modelle zu senken und die KI-Integration in Bezug auf Algorithmen zu unterstützen. Modale Fähigkeiten, ultragroße Modelle und universelle einheitliche Modelle. In vielen technischen Dimensionen steht es in China an erster Stelle. Dies ist der Hauptgrund, warum Ali Tongyis großes Modell schnell „aus dem Kreis ausbrechen“ kann.

Drittens werden Unternehmen mit umfassenden KI-Infrastrukturfunktionen aus Sicht der Geschäftsmöglichkeiten nach der Einführung von MaaS (Model as a Service) einen größeren Geschäftswert haben und einen größeren „Spielraum“ im Hinblick auf den Marktwettbewerb haben . ". Nehmen Sie Alibaba Cloud als Beispiel: Sie können nicht nur allgemeine große Modelldienste anbieten, um Plattform-Servicegebühren zu erhalten, sondern auch Rechenleistung vermieten und Schulungsplattformen fördern, um Miete zu verdienen. Im Marktwettbewerb können Sie die Produktpreise je nach Situation flexibel anpassen, um betrieblichen Herausforderungen zu begegnen.

Die Branche läutet das Zeitalter der KI-HP ein

Mit der Geburt groß angelegter KI-Modellanwendungen beginnt nach und nach eine neue Ära, die durch eine tiefe KI-Integration gekennzeichnet ist. KI ist tief in Industrieunternehmen verankert und wird zu einem unumkehrbaren Branchentrend werden.

Einerseits bestimmen die hohe Schwelle allgemeiner Großmodelle und das breite Spektrum differenzierter Bedürfnisse in vertikalen Bereichen, dass exklusive Großmodelle und auf allgemeinen Großmodellen basierende Industrieanwendungen zur Mainstream-Anwendungsrichtung werden In Zukunft beschleunigt die Förderung von KI ihren Einzug in Tausende von Branchen. Wie oben erwähnt, führt die hohe Schwelle für große Allzweckmodelle dazu, dass nur wenige Unternehmen im In- und Ausland große Allzweckmodelle herstellen können. Und da KI-Modelle größer werden, verändert sich die KI-Branche eine Leichtindustrie, die aus „handgefertigten Werkstätten“ besteht. Der Übergang zu einer intensiven Produktion erfordert eine leistungsstarke, kostengünstige systematische Infrastruktur zur Vervollständigung der industriellen Produktion.

Nicht nur viele kleine und mittlere Unternehmen verfügen nicht über diese Fähigkeit, sondern selbst für führende Unternehmen in verschiedenen Branchen ist die Optimierung der Schulung großer Modelle von 0 auf 1 an sich nicht wirtschaftlich. Alle Lebensbereiche benötigen eine KI-Infrastruktur ist in den Kosten niedrig genug. Und für bestehende Hersteller ist es nicht notwendig, weiterhin in diesem Bereich einzusteigen und „das Rad neu zu erfinden“. Im Gegensatz dazu sind die Schulungskosten für große vertikale Modelle relativ niedrig, und einige Unternehmen mit umfangreichen Datenszenarien in Berufsfeldern verfügen über bessere Bedingungen für den Aufbau großer vertikaler Modelle und eine bessere Datenqualität, und die von ihnen eingeführten Produkte sind besser an die vertikale Branche anpassbar. Daher könnte GPT in verschiedenen vertikalen Branchen in Zukunft zu Mainstream-Großmodellanwendungen werden und die schnelle Durchdringung von KI in der Branche fördern.

Andererseits liegt der kurzfristige Engpass bei der Entwicklung großer KI-Modelle in der Rechenleistung und langfristig in den Daten. Daher können hochwertige Front-End-Anwendungen dazu beitragen, die Anhäufung von Unternehmen zu beschleunigen Bereitstellung ausreichender Datenbestände und Stärkung ihrer langfristigen Wettbewerbsbemühungen zur Beschleunigung des Prozesses einer integrativen industriellen Anwendung. Derzeit zwingt die schnelle Iteration und Weiterentwicklung großer Modelle alle teilnehmenden Akteure dazu, kontinuierlich Rechenressourcen zu akkumulieren und Konfigurationen unter verschiedenen Aspekten wie Chips und Cloud-Diensten zu optimieren, um die für das Training großer Modelle erforderliche Rechenleistungsunterstützung sicherzustellen. Längerfristig wird der Algorithmus zum Trainieren großer KI-Modelle jedoch immer noch kontinuierlich optimiert und angepasst. Durch Durchbrüche im Algorithmus wird die Rechenleistung möglicherweise kein Engpass mehr sein und hochwertige Datenressourcen werden knapp Ressource. wird mehr Aufmerksamkeit erhalten.

Als branchenweit erste Anwendung, die auf großen KI-Modellen basiert, wird die Einführung von Tongyi Tingwu Alibaba dabei helfen, die Anhäufung hochwertiger Datenressourcen zu beschleunigen, den Prozess der industriellen Integration zu beschleunigen und eine gute Grundlage für eine längerfristige Entwicklung zu legen .

Das obige ist der detaillierte Inhalt vonHinter der Geburt von Tongyi Tingwu steht die erste Aufnahme einer großen KI-Antwortanwendung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:sohu.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen