Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Peking plant, die Bereitstellung der für das KI-Training erforderlichen Rechenleistung zu koordinieren und große chinesische Modellkorpora zu integrieren

Peking plant, die Bereitstellung der für das KI-Training erforderlichen Rechenleistung zu koordinieren und große chinesische Modellkorpora zu integrieren

王林
王林nach vorne
2023-05-18 10:19:23926Durchsuche

北京拟对 AI 训练所需的算力推行统筹供给,整合大模型中文语料库

Laut Nachrichten vom 17. Mai hat Peking am 12. Mai die „Mehrere Maßnahmen Pekings zur Förderung der innovativen Entwicklung der allgemeinen künstlichen Intelligenz (2023-2025) (Entwurf zur Stellungnahme)“ herausgegeben (im Folgenden als „Aufforderung“ bezeichnet). Draft) „Opinion Draft“) ist eine Ankündigung zur öffentlichen Einholung von Meinungen und plant die Implementierung einer koordinierten Bereitstellung von Rechenleistung, die für das KI-Training erforderlich ist.

北京拟对 AI 训练所需的算力推行统筹供给,整合大模型中文语料库

Der „Draft for Comments“ schlägt vor, die Gesamtversorgungskapazität von Rechenressourcen zu stärken, die Zusammenarbeit mit Marktteilnehmern wie führenden Public-Cloud-Anbietern zu stärken, das Rechenleistungspartnerprogramm umzusetzen, die erste Gruppe von Partnerprogrammmitgliedern zu identifizieren, und klären technische Versorgungsstandards, Software- und Hardware-Serviceanforderungen, Umfang der Rechenleistungsversorgung, Vorzugsstrategien usw. und kündigen eine Gruppe hochwertiger Rechenleistungslieferanten für Universitäten, Institutionen sowie kleine und mittlere Unternehmen in Peking an.

Im „Draft for Comments“ heißt es, dass die Nutzung des einheitlichen Zugangs der Regierung die Kosten für die Beschaffung öffentlicher Clouds senken, kleinen und mittleren Unternehmen zugute kommen und gleichzeitig die Kommunikationskosten für Unternehmen im Umgang mit verschiedenen Cloud-Anbietern senken wird. Um den Bedarf an elastischer Rechenleistung zu decken, bauen Sie eine einheitliche Multi-Cloud-Rechenleistungsplanungsplattform auf, um eine einheitliche Verwaltung und einen einheitlichen Betrieb heterogener Rechenleistungsumgebungen zu erreichen und es Unternehmen zu ermöglichen, verschiedene Rechenaufgaben mit künstlicher Intelligenz in verschiedenen Cloud-Umgebungen nahtlos, wirtschaftlich und effizient auszuführen . Bauen Sie ein grundlegendes optisches Übertragungsnetzwerk auf, das die Rechenleistungscluster direkt zwischen Peking und Hebei, Tianjin, Shanxi, der Inneren Mongolei und anderen Provinzen (Städten) verbindet, um die Fähigkeit der Plattform, Rechenleistungsressourcen an den vier Orten wahrzunehmen und Rechenleistungstransaktionen zu untersuchen, weiter zu verbessern.

Im „Draft for Comments“ heißt es außerdem, dass angesichts des Problems, dass der derzeitige Anteil hochwertiger chinesischer Korpusse für die Ausbildung großer Modelle zu gering ist, was dem kontextuellen Ausdruck und der industriellen Anwendung Chinas nicht förderlich ist, dies erforderlich ist Integrieren Sie die vorhandenen chinesischen Open-Source-Datensätze vor dem Training und hochwertige chinesische Internetdaten und führen Sie eine Compliance-Bereinigung durch. Gleichzeitig werden wir weiterhin hochwertige multimodale Datenquellen ausbauen, konforme und sichere große Modell-Pre-Training-Korpora in Chinesisch, Bild-Text-Paaren, Audio, Video usw. erstellen und sie gezielt zugänglich machen und bedingte Nutzung über den Social-Data-Bereich des Beijing International Big Data Exchange.

IT Home fügt das vollständige Dokument „Pekings verschiedene Maßnahmen zur Förderung der Innovation und Entwicklung der allgemeinen künstlichen Intelligenz (2023-2025) (Entwurf für Kommentare)“ bei: Klicken Sie hier, um es anzusehen


Das obige ist der detaillierte Inhalt vonPeking plant, die Bereitstellung der für das KI-Training erforderlichen Rechenleistung zu koordinieren und große chinesische Modellkorpora zu integrieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen