Maison  >  Article  >  Périphériques technologiques  >  Comment concevoir des capteurs logiciels grâce à des algorithmes d’apprentissage automatique ?

Comment concevoir des capteurs logiciels grâce à des algorithmes d’apprentissage automatique ?

WBOY
WBOYavant
2024-04-12 17:55:15894parcourir

En comprenant les capacités des algorithmes d'apprentissage automatique, les ingénieurs peuvent générer des capteurs logiciels efficaces pour leurs applications.

Comment concevoir des capteurs logiciels grâce à des algorithmes d’apprentissage automatique ?

Le capteur logiciel, également connu sous le nom de capteur virtuel, est un logiciel capable de traiter de manière globale des centaines de données de mesure. Les directeurs d'usine qui cherchent à ajouter des capteurs logiciels peuvent être déconcertés par la portée de l'apprentissage automatique qui fonctionne avec les capteurs logiciels. Cependant, une analyse plus approfondie du sujet révèle qu’il existe plusieurs algorithmes de base qui sous-tendent la plupart des conceptions de capteurs logiciels.

La sélection, la formation et la mise en œuvre de ces modèles sont souvent le travail de data scientists, mais les directeurs d'usine et autres experts en exploitation voudront également se familiariser avec leurs capacités.

Comprendre les capteurs logiciels

Les capteurs logiciels sont créés dans un environnement logiciel mais peuvent offrir les mêmes avantages que leurs homologues du monde réel. Dans certains cas, les capteurs logiciels peuvent être préférés aux capteurs réels.

Il existe de nombreuses raisons pour lesquelles experts opérationnels et data scientists devraient collaborer pour concevoir des capteurs. L'une des raisons est le désir de mesurer en temps réel ou quasiment en temps réel les paramètres clés requis pour des résultats spécifiques. Ces mesures sont essentielles à l’amélioration des performances globales.

Autres cas d'utilisation des capteurs souples :

  • Pénurie de personnel dans les usines. Certains processus nécessitent que le personnel du laboratoire échantillonne ou analyse des paramètres de propriétés physiques ou chimiques spécifiques. Ceux-ci peuvent inclure la viscosité, le poids moléculaire et la composition. Lorsqu’il n’y a pas suffisamment de personnes pour prendre les mesures, des capteurs logiciels peuvent être utilisés pour estimer ces valeurs.
  • Capteurs redondants. Dans des environnements difficiles, une contamination du capteur peut se produire. Les capteurs logiciels peuvent fournir des lectures à partir de capteurs numériques jusqu'à ce que les capteurs numériques puissent être remplacés pour poursuivre le processus.
  • Capteurs supplémentaires. Parfois, davantage de capteurs peuvent être nécessaires ou un processus peut ne pas disposer de ses propres capteurs. Dans ces cas-là, les capteurs logiciels peuvent imiter un actif identique avec tous les bons capteurs.

Principaux types de modèles d'apprentissage automatique

Dans la pratique de l'apprentissage automatique, un modèle cyclique est souvent suivi. Tout d'abord, les données sont préparées et nettoyées. Ensuite, le data scientist choisira un algorithme sur lequel baser le modèle. Le data scientist commencera ensuite à entraîner le modèle à l’aide de séries temporelles et de données contextuelles non traitées ou prétraitées. Enfin, le modèle est testé et déployé. Ensuite, recommencez pour améliorer le modèle.

De manière générale, il existe deux principaux types de modèles parmi lesquels choisir :

  • Les modèles supervisés, qui nécessitent qu'un ensemble de données étiquetées soit comparé à d'autres variables.
  • Modèle non supervisé, principalement utilisé pour décrire la relation entre plusieurs variables.

Parmi ces modèles, les modèles supervisés sont un meilleur choix pour développer des capteurs logiciels ou créer des étiquettes prédictives. Bien qu’il existe des centaines de modèles d’apprentissage automatique supervisé, seuls quelques-uns, issus d’une classe appelée algorithmes de régression, sont utiles pour créer des capteurs logiciels. Voici une description de chaque modèle :

Régression linéaire

C'est l'un des moyens les plus utiles et les plus simples de créer des capteurs logiciels. Cependant, certaines procédures, comme la mesure de la viscosité d'un polymère, sont trop complexes pour une régression linéaire. Cet algorithme génère une fonction qui prédit la valeur de la variable cible. C'est une fonction qui est une combinaison linéaire d'un ensemble d'une ou plusieurs variables. Lorsqu’une variable est utilisée, on parle de régression linéaire univariée. Plusieurs variables lui donnent le nom de régression linéaire multiple. L’avantage de l’utilisation de ce modèle est sa clarté. Il est facile de déterminer quelles variables ont le plus grand impact sur vos objectifs. C'est ce qu'on appelle l'importance des fonctionnalités.

Arbres de décision

Théoriquement, les arbres de décision peuvent avoir autant de règles et de branches qu'ils en ont besoin pour s'adapter aux données. Ils utilisent ces règles à partir de variables indépendantes, appelées ensemble de fonctionnalités. Le résultat est une estimation constante par morceaux de la valeur cible. Parce qu’ils peuvent avoir de nombreuses règles et branches, ils peuvent être très flexibles.

D'un autre côté, ils courent également le risque de surajuster les données. Le surapprentissage se produit lorsqu'un modèle est entraîné trop longtemps. Cela permet au modèle de commencer à s'adapter au bruit dans l'ensemble de données et de commencer à le traiter comme d'habitude. Un sous-ajustement des données peut également se produire. Dans ce cas, l'algorithme n'a pas été formé assez longtemps et ne disposait donc pas de suffisamment de données pour déterminer comment les variables indépendantes pourraient être liées à la variable cible, ou quel effet elles pourraient avoir sur la variable cible.

Le surajustement et le sous-ajustement des données entraîneront l'échec du modèle. Le modèle ne peut plus gérer de nouvelles données et ne peut pas être utilisé avec des capteurs logiciels. Le concept de surajustement et de sous-ajustement des données n'est pas propre aux modèles d'arbre de décision.

Random Forest

Il s'agit essentiellement d'une combinaison de plusieurs modèles d'arbre de décision dans un seul modèle. Il offre plus de flexibilité, permet plus de fonctionnalités et offre une plus grande puissance prédictive. Cependant, cela comporte également un risque élevé de surajustement des données.

Gradient Boosting

Dans l'apprentissage automatique, l'augmentation de gradient est souvent appelée modèle d'ensemble. Comme Random Forest, Gradient Boosting combine plusieurs arbres de décision. Mais ce qui le rend différent, c'est qu'il optimise chaque arbre pour minimiser la dernière fonction de perte calculée. Ces modèles peuvent être très efficaces, mais avec le temps, ils deviennent plus difficiles à interpréter.

Réseau neuronal

Le soi-disant apprentissage profond est le concept d'un modèle de régression de réseau neuronal. Ce modèle accepte les variables d'entrée et, lorsqu'il est appliqué à un problème de régression, produit une valeur pour la variable cible. Le réseau neuronal le plus élémentaire est le perceptron multicouche. Dans ces modèles, un seul arrangement de neurones est utilisé. Plus communément, un réseau de neurones aura une couche d'entrée, une ou plusieurs couches cachées (chacune avec de nombreux neurones) et une couche de sortie pour obtenir des valeurs.

Les valeurs d'entrée pondérées au sein de chaque neurone de la couche cachée sont additionnées et transmises via une fonction d'activation (telle que la fonction sigmoïde). Cette fonction rend le modèle non linéaire. Une fois que la fonction traverse le modèle, elle atteint la couche de sortie, qui contient un seul neurone. Lors de la formation d'un modèle, déterminez les pondérations et les biais qui correspondent le mieux aux caractéristiques et aux valeurs cibles.

Conception collaborative

Pour ceux qui débutent dans le design, une idée fausse commune est qu'il existe un bon modèle qui répondra à tous les besoins spécifiques. Mais en fait, ce n'est pas le cas. Choisir un modèle plutôt qu’un autre est une décision complexe basée en partie sur l’expérience du data scientist.

De plus, ces modèles de régression supervisée ne produiront pas les mêmes résultats à chaque fois. Il n’existe donc pas de « meilleur » modèle, mais certains modèles peuvent être plus adaptés à certaines situations.

La collaboration entre data scientists et experts opérationnels dans tout exercice d'apprentissage automatique commence par une compréhension mutuelle des paramètres impliqués, de l'utilisation cible, des méthodes de développement et de déploiement.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer