Maison > Article > Périphériques technologiques > Comment concevoir des capteurs logiciels grâce à des algorithmes d’apprentissage automatique ?
En comprenant les capacités des algorithmes d'apprentissage automatique, les ingénieurs peuvent générer des capteurs logiciels efficaces pour leurs applications.
Le capteur logiciel, également connu sous le nom de capteur virtuel, est un logiciel capable de traiter de manière globale des centaines de données de mesure. Les directeurs d'usine qui cherchent à ajouter des capteurs logiciels peuvent être déconcertés par la portée de l'apprentissage automatique qui fonctionne avec les capteurs logiciels. Cependant, une analyse plus approfondie du sujet révèle qu’il existe plusieurs algorithmes de base qui sous-tendent la plupart des conceptions de capteurs logiciels.
La sélection, la formation et la mise en œuvre de ces modèles sont souvent le travail de data scientists, mais les directeurs d'usine et autres experts en exploitation voudront également se familiariser avec leurs capacités.
Les capteurs logiciels sont créés dans un environnement logiciel mais peuvent offrir les mêmes avantages que leurs homologues du monde réel. Dans certains cas, les capteurs logiciels peuvent être préférés aux capteurs réels.
Il existe de nombreuses raisons pour lesquelles experts opérationnels et data scientists devraient collaborer pour concevoir des capteurs. L'une des raisons est le désir de mesurer en temps réel ou quasiment en temps réel les paramètres clés requis pour des résultats spécifiques. Ces mesures sont essentielles à l’amélioration des performances globales.
Autres cas d'utilisation des capteurs souples :
Dans la pratique de l'apprentissage automatique, un modèle cyclique est souvent suivi. Tout d'abord, les données sont préparées et nettoyées. Ensuite, le data scientist choisira un algorithme sur lequel baser le modèle. Le data scientist commencera ensuite à entraîner le modèle à l’aide de séries temporelles et de données contextuelles non traitées ou prétraitées. Enfin, le modèle est testé et déployé. Ensuite, recommencez pour améliorer le modèle.
De manière générale, il existe deux principaux types de modèles parmi lesquels choisir :
Parmi ces modèles, les modèles supervisés sont un meilleur choix pour développer des capteurs logiciels ou créer des étiquettes prédictives. Bien qu’il existe des centaines de modèles d’apprentissage automatique supervisé, seuls quelques-uns, issus d’une classe appelée algorithmes de régression, sont utiles pour créer des capteurs logiciels. Voici une description de chaque modèle :
C'est l'un des moyens les plus utiles et les plus simples de créer des capteurs logiciels. Cependant, certaines procédures, comme la mesure de la viscosité d'un polymère, sont trop complexes pour une régression linéaire. Cet algorithme génère une fonction qui prédit la valeur de la variable cible. C'est une fonction qui est une combinaison linéaire d'un ensemble d'une ou plusieurs variables. Lorsqu’une variable est utilisée, on parle de régression linéaire univariée. Plusieurs variables lui donnent le nom de régression linéaire multiple. L’avantage de l’utilisation de ce modèle est sa clarté. Il est facile de déterminer quelles variables ont le plus grand impact sur vos objectifs. C'est ce qu'on appelle l'importance des fonctionnalités.
Théoriquement, les arbres de décision peuvent avoir autant de règles et de branches qu'ils en ont besoin pour s'adapter aux données. Ils utilisent ces règles à partir de variables indépendantes, appelées ensemble de fonctionnalités. Le résultat est une estimation constante par morceaux de la valeur cible. Parce qu’ils peuvent avoir de nombreuses règles et branches, ils peuvent être très flexibles.
D'un autre côté, ils courent également le risque de surajuster les données. Le surapprentissage se produit lorsqu'un modèle est entraîné trop longtemps. Cela permet au modèle de commencer à s'adapter au bruit dans l'ensemble de données et de commencer à le traiter comme d'habitude. Un sous-ajustement des données peut également se produire. Dans ce cas, l'algorithme n'a pas été formé assez longtemps et ne disposait donc pas de suffisamment de données pour déterminer comment les variables indépendantes pourraient être liées à la variable cible, ou quel effet elles pourraient avoir sur la variable cible.
Le surajustement et le sous-ajustement des données entraîneront l'échec du modèle. Le modèle ne peut plus gérer de nouvelles données et ne peut pas être utilisé avec des capteurs logiciels. Le concept de surajustement et de sous-ajustement des données n'est pas propre aux modèles d'arbre de décision.
Il s'agit essentiellement d'une combinaison de plusieurs modèles d'arbre de décision dans un seul modèle. Il offre plus de flexibilité, permet plus de fonctionnalités et offre une plus grande puissance prédictive. Cependant, cela comporte également un risque élevé de surajustement des données.
Dans l'apprentissage automatique, l'augmentation de gradient est souvent appelée modèle d'ensemble. Comme Random Forest, Gradient Boosting combine plusieurs arbres de décision. Mais ce qui le rend différent, c'est qu'il optimise chaque arbre pour minimiser la dernière fonction de perte calculée. Ces modèles peuvent être très efficaces, mais avec le temps, ils deviennent plus difficiles à interpréter.
Le soi-disant apprentissage profond est le concept d'un modèle de régression de réseau neuronal. Ce modèle accepte les variables d'entrée et, lorsqu'il est appliqué à un problème de régression, produit une valeur pour la variable cible. Le réseau neuronal le plus élémentaire est le perceptron multicouche. Dans ces modèles, un seul arrangement de neurones est utilisé. Plus communément, un réseau de neurones aura une couche d'entrée, une ou plusieurs couches cachées (chacune avec de nombreux neurones) et une couche de sortie pour obtenir des valeurs.
Les valeurs d'entrée pondérées au sein de chaque neurone de la couche cachée sont additionnées et transmises via une fonction d'activation (telle que la fonction sigmoïde). Cette fonction rend le modèle non linéaire. Une fois que la fonction traverse le modèle, elle atteint la couche de sortie, qui contient un seul neurone. Lors de la formation d'un modèle, déterminez les pondérations et les biais qui correspondent le mieux aux caractéristiques et aux valeurs cibles.
Pour ceux qui débutent dans le design, une idée fausse commune est qu'il existe un bon modèle qui répondra à tous les besoins spécifiques. Mais en fait, ce n'est pas le cas. Choisir un modèle plutôt qu’un autre est une décision complexe basée en partie sur l’expérience du data scientist.
De plus, ces modèles de régression supervisée ne produiront pas les mêmes résultats à chaque fois. Il n’existe donc pas de « meilleur » modèle, mais certains modèles peuvent être plus adaptés à certaines situations.
La collaboration entre data scientists et experts opérationnels dans tout exercice d'apprentissage automatique commence par une compréhension mutuelle des paramètres impliqués, de l'utilisation cible, des méthodes de développement et de déploiement.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!