Heim > Artikel > Technologie-Peripheriegeräte > Der Intel Meteor Lake-Prozessor integriert NPU und bringt die KI-Ära auf PCs
Intel hat heute seine neuesten Meteor-Lake-Prozessoren und die integrierte NPU von Meteor Lake im Detail veröffentlicht
Intel sagte, dass Al in jeden Aspekt des Lebens der Menschen eindringt. Obwohl Cloud Al skalierbare Rechenleistung bietet, weist es auch einige Einschränkungen auf. Es ist auf eine Netzwerkverbindung angewiesen, hat eine höhere Latenz und ist teurer in der Implementierung, weist aber auch Datenschutzprobleme auf. MeteorLake führt Al auf dem Personalcomputer des Kunden ein und bietet Al-Computing-Funktionen mit geringer Latenz und besseren Datenschutz bei geringeren Kosten
Intel sagte, dass Intel ausgehend von MeteorLake Al in großem Umfang in PCs einführen wird, was Hunderte Millionen PCs in die Al-Ära führen wird, und dass das riesige x86-Ökosystem eine breite Palette von Softwaremodellen und Tools bereitstellen wird.
IT-Startseite mit detaillierter Erklärung der Intel NPU-Architektur:
Hostschnittstelle und Geräteverwaltung – Der Bereich Geräteverwaltung unterstützt das neue Treibermodell von Microsoft namens Microsoft Computing Driver Model (MCDM). Dies ermöglicht es den NPUs von Meteor Lake, MCDM auf überlegene Weise zu unterstützen und gleichzeitig die Sicherheit zu gewährleisten, während die Speicherverwaltungseinheit (MMU) für Isolation in mehreren Szenarien sorgt und die Energie- und Arbeitslastplanung unterstützt, was eine schnelle Konvertierung von Zuständen mit geringem Stromverbrauch ermöglicht.
Multi-Engine-Architektur – Die NPU besteht aus einer Multi-Engine-Architektur, die mit zwei neuronalen Computer-Engines ausgestattet ist, die gemeinsam eine einzelne Arbeitslast oder jeweils unterschiedliche Arbeitslasten bewältigen können. In der Neural Compute Engine gibt es zwei Hauptkomponenten für die Datenverarbeitung. Die eine ist die Inferenzpipeline – sie ist der Kerntreiber für energieeffizientes Rechnen und verarbeitet häufig große Berechnungen, indem sie Datenbewegungen minimiert und Operationen mit festen Funktionen nutzt, um Energieeffizienz zu erreichen bei der Ausführung neuronaler Netzwerke. Der überwiegende Teil der Berechnungen erfolgt in der Inferenzpipeline, einer Pipeline-Hardware mit festen Funktionen, die Standardoperationen neuronaler Netzwerke unterstützt. Die Pipeline besteht aus einem MAC-Array (Multiply-Accumulate Operation), einem Aktivierungsfunktionsblock und einem Datenkonvertierungsblock. Der zweite ist SHAVEDSP – ein hochoptimierter VLIW DSP (Very Long Instruction Word/Digital Signal Processor), der speziell für Al entwickelt wurde. Die Streaming Hybrid Architecture Vector Engine (SHAVE) kann mit Inferenzpipelines und DMA-Engines (Direct Memory Access) gepipelinet werden, um wirklich heterogenes Computing parallel auf der NPU zu ermöglichen und die Leistung zu maximieren.
DMA-Engine ist eine Engine, die die Datenbewegung optimiert und die Energieeffizienzleistung verbessert
Schreiben Sie den Inhalt neu, ohne die ursprüngliche Bedeutung zu ändern. Die Sprache, die umgeschrieben werden muss, ist Chinesisch, und der Originalsatz muss nicht erscheinen
Das obige ist der detaillierte Inhalt vonDer Intel Meteor Lake-Prozessor integriert NPU und bringt die KI-Ära auf PCs. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!