Maison  >  Article  >  Périphériques technologiques  >  Le processeur Intel Meteor Lake intègre NPU, apportant l'ère de l'IA aux PC

Le processeur Intel Meteor Lake intègre NPU, apportant l'ère de l'IA aux PC

王林
王林avant
2023-09-20 20:57:061095parcourir

Intel a publié aujourd'hui les derniers processeurs Meteor Lake et le NPU intégré de Meteor Lake

英特尔Meteor Lake处理器集成NPU,为PC带来AI时代

Intel a déclaré qu’Al pénétrait dans tous les aspects de la vie des gens. Bien que Cloud Al offre des capacités informatiques évolutives, il existe certaines limites. Il repose sur une connexion réseau, présente une latence plus élevée et est plus coûteux à mettre en œuvre, tout en présentant également des problèmes de confidentialité. MeteorLake présente Al à l'ordinateur personnel du client, offrant des capacités informatiques Al à faible latence et une meilleure protection de la confidentialité des données à moindre coût

Intel a déclaré qu'à partir de MeteorLake, Intel introduirait largement Al dans les PC, conduisant des centaines de millions de PC dans l'ère Al, et que l'immense écosystème x86 fournirait une large gamme de modèles et d'outils logiciels.

IT Home avec explication détaillée de l'architecture Intel NPU :

Interface hôte et gestion des périphériques - La zone de gestion des périphériques prend en charge le nouveau modèle de pilote de Microsoft appelé Microsoft Computing Driver Model (MCDM). Cela permet aux NPU de Meteor Lake de prendre en charge MCDM de manière supérieure tout en garantissant la sécurité, tandis que l'unité de gestion de la mémoire (MMU) assure l'isolation dans plusieurs scénarios et prend en charge la planification de l'alimentation et de la charge de travail, permettant une conversion rapide des états de faible consommation.

Architecture multimoteur - Le NPU se compose d'une architecture multimoteur équipée de deux moteurs de calcul neuronal qui peuvent traiter conjointement une seule charge de travail ou gérer chacun des charges de travail différentes. Dans le moteur de calcul neuronal, il existe deux composants informatiques principaux. L'un est le pipeline d'inférence : il s'agit du principal moteur du calcul économe en énergie et gère les grands calculs courants en minimisant le mouvement des données et en exploitant les opérations à fonction fixe. dans l'exécution de réseaux neuronaux. La grande majorité des calculs s'effectuent dans le pipeline d'inférence, un matériel de pipeline à fonction fixe qui prend en charge les opérations de réseau neuronal standard. Le pipeline se compose d'un tableau d'opérations de multiplication-accumulation (MAC), d'un bloc fonctionnel d'activation et d'un bloc de conversion de données. Le second est SHAVEDSP - un VLIW DSP (Very Long Instruction Word/Digital Signal Processor) hautement optimisé conçu spécifiquement pour Al. Le Streaming Hybrid Architecture Vector Engine (SHAVE) peut être pipeline avec des pipelines d'inférence et des moteurs d'accès direct à la mémoire (DMA) pour permettre un calcul véritablement hétérogène en parallèle sur le NPU afin d'optimiser les performances.

Le moteur DMA est un moteur qui optimise le mouvement des données et améliore les performances d'efficacité énergétique

Réécrivez le contenu sans changer le sens original. La langue qui doit être réécrite est le chinois et la phrase originale n'a pas besoin d'apparaître

.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer