Maison  >  Article  >  Périphériques technologiques  >  Lorsqu’il s’agit d’infrastructure d’IA, devriez-vous choisir la périphérie ou le cloud ?

Lorsqu’il s’agit d’infrastructure d’IA, devriez-vous choisir la périphérie ou le cloud ?

王林
王林avant
2023-05-08 23:58:071356parcourir

​L’informatique de pointe est un sujet brûlant de nos jours. Salué comme le virage technologique le plus excitant de ces dernières années, on parle beaucoup de son pouvoir de transformation !

Avec des algorithmes d'IA/ML de plus en plus puissants redéfinissant « l'intelligence » et la disponibilité d'appareils « de pointe » moins chers et plus puissants, le battage médiatique est en grande partie réel. Mais si l’on réfléchit à l’histoire de l’Edge Computing, elle est bien antérieure à ce que l’intérêt récent pourrait nous laisser croire.

Lorsqu’il s’agit d’infrastructure d’IA, devriez-vous choisir la périphérie ou le cloud ?

En fait, l'informatique et l'intelligence ont commencé à la périphérie, lorsque la connectivité réseau à haut débit était presque inexistante pour la plupart des applications. Même à la fin des années 1990, les équipements de mesure critiques déployés à distance dans les usines ou les champs disposaient souvent d’une puissance de calcul dédiée au traitement des données entrantes des capteurs. Cependant, les algorithmes de ces appareils ne sont que rudimentaires en termes « d’intelligence » : principalement le traitement du signal ou la conversion des données.

L'informatique basée sur le cloud a commencé à gagner du terrain à la fin des années 2000, à mesure que les capacités du réseau et la connectivité augmentaient. Dans le même temps, de puissants algorithmes d’intelligence artificielle gagnent du terrain comme moyen d’extraire des informations significatives à partir de grandes quantités de données structurées et non structurées. En seulement dix ans, l’IA cloud est devenue le choix incontournable pour les applications d’IA.

Cependant, le passage au cloud entraîne également plusieurs enjeux : coûts de chargement et de téléchargement des données, fiabilité du réseau et sécurité des données, etc. Dans le même temps, les compromis entre la puissance de traitement et le coût ou l’espace au sol de l’informatique de pointe diminuent avec la montée en puissance d’appareils de pointe abordables mais puissants. Il semble que nous soyons à nouveau considérés comme « l’informatique de pointe » comme une option viable et attrayante pour créer des applications intelligentes.

Alors que le débat fait rage sur ce qui est le meilleur, l'IA de pointe ou l'IA cloud, toute personne familiarisée avec les deux frameworks est susceptible de répondre "Ça dépend !". La raison en est que les infrastructures Edge et Cloud ne sont pas des cadres concurrents, mais complémentaires.

Les deux ont connu un développement et un perfectionnement considérables au cours des dernières années, notamment en tant que base pour le développement et le déploiement de l'IA. Comme pour tout choix technologique, le choix dépend en réalité de l’application spécifique : objectifs, facteurs de valeur, aspects économiques et éventuelles contraintes en matière de consommation d’énergie, de taille et de connectivité. Il est donc important de comprendre les avantages et les inconvénients de l’IA cloud et de pointe avant d’essayer de mettre en place la bonne infrastructure.

Lorsque vous recherchez flexibilité, évolutivité et facilité de déploiement, l'IA basée sur le cloud est une option intéressante. Aujourd'hui, la plupart des fournisseurs de services cloud proposent des cadres puissants pour la formation et le déploiement de modèles d'IA et proposent des packages de paiement à l'utilisation avec peu d'engagement ou d'investissement initial. Le cloud offre des options de calcul et de stockage pratiquement illimitées, ce qui le rend particulièrement adapté aux grands modèles d'IA.

Mais pour les applications en temps réel qui nécessitent une évaluation continue des données de capteurs ou d'images, cela peut devenir une option lourde car elles doivent transmettre des données dans les deux sens, ce qui entraîne des coûts énormes. Ce transfert de données rend également le cloud largement inadapté aux applications à faible latence qui nécessitent un contrôle en boucle fermée ou une action immédiate.

D'un autre côté, Edge AI est un choix raisonnable pour l'analyse de données en temps réel pour les alarmes automatiques ou le contrôle en boucle fermée. Même si l’infrastructure Edge nécessite un investissement initial dans du matériel Edge, les coûts d’exploitation sont bien inférieurs à ceux du cloud.

Aujourd'hui, il existe une variété d'options matérielles d'IA de pointe disponibles, notamment les NPU (Neural Processing Units), les TPU (Tensor Processing Units) et les SOC (Systems on Chips) et SoM (On-Modules) avec système d'accélérateurs d'IA dédié) . Le matériel peu coûteux et à faible consommation pour l’intelligence artificielle est un domaine de recherche actif et a le potentiel d’offrir de meilleures options. D’un autre côté, les applications grand public basées sur l’IA doivent gérer une gamme assez diversifiée d’appareils de pointe (téléphones, tablettes, PC, etc.), ce qui rend le déploiement en périphérie d’une perspective potentiellement intimidante.

Ainsi, l’infrastructure de pointe n’est peut-être pas propice au prototypage rapide ni facile à mettre à l’échelle. Si le concept d'apprentissage fédéré, formation distribuée des modèles d'IA, permet la formation et le déploiement en périphérie, le cloud reste le choix logique pour la formation de grands modèles nécessitant une puissance de calcul suffisante.

Mais la solution ne doit pas nécessairement être un choix entre l’un ou l’autre. À mesure que les applications évoluent vers des architectures davantage basées sur les microservices, elles peuvent être décomposées en fonctions ou microservices plus petits avec leurs propres cadres de déploiement spécifiques. Ainsi, au lieu d’avoir à choisir entre le cloud et la périphérie, l’accent peut être mis sur l’utilisation optimale des deux pour des applications spécifiques.

Par exemple, une application peut démarrer comme un prototype rapide sur le cloud. Au fur et à mesure de son évolution, les fonctions qui nécessitent une faible latence et une prise de décision en temps réel peuvent être déplacées vers la périphérie, tandis que celles qui nécessitent évolutivité et flexibilité peuvent rester dans le cloud. La formation ou le recyclage des modèles peut être géré de manière centralisée dans le cloud, tandis qu'un certain apprentissage fédéré en périphérie peut améliorer la précision localement. De même, les données sensibles peuvent être traitées en périphérie et les données plus générales peuvent être déplacées vers le cloud.

Les organisations, les développeurs et les praticiens feraient bien de ne pas considérer le cloud et la périphérie comme des alternatives distinctes, mais plutôt comme un continuum allant de la périphérie au cloud, avec de nombreuses options d'infrastructure différentes entre les deux. Cela inclut différents types de périphérie – périphérie opérationnelle, périphérie du réseau, points de terminaison mobiles, etc., ainsi que différents types de traitement distribué sur le réseau – cloud privé, cloud public, cloudlets, fog computing, etc.

Bien que la complexité puisse être un défi, trouver la bonne combinaison de technologies commence à offrir aux organisations une opportunité unique de maximiser la valeur de l'IA tout en minimisant les coûts et les risques.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer