Maison >Périphériques technologiques >IA >Comment l'apprentissage automatique pourrait faire économiser des millions de dollars aux opérations d'essais cliniques
En tant que grand fournisseur de services d’essais cliniques, WCG exerce une influence considérable sur le marché de nombreux médicaments et dispositifs médicaux. Mais en tant que groupe de plus de 30 sociétés autrefois indépendantes, il est difficile d'obtenir des données cohérentes pour prendre en charge ces services. C'est là que les solutions de maîtrise des données de Tamr sont utiles.
En tant qu'organisation de services cliniques, WCG gère tous les aspects des essais cliniques pour le compte des sociétés pharmaceutiques et des fabricants d'appareils, des ressources humaines et informatiques à l'engagement des patients et à l'examen éthique, pour des géants pharmaceutiques comme Merck et Roche, ainsi que des milliers de personnes. of Fournit des services essentiels aux petites et moyennes startups pharmaceutiques et aux groupes de recherche cherchant l'approbation réglementaire pour de nouveaux médicaments et dispositifs.
Le seul service que l’entreprise ne fournit pas est la réalisation d’essais réels. "Nous ne faisons pas cela", a déclaré Art Morales, directeur de la technologie et responsable des données de l'entreprise.
Au cours de la dernière décennie, WCG a établi une niche rentable dans le secteur des essais cliniques grâce à l'acquisition de 35 sociétés. Chaque entreprise, dont certaines ont plus de 50 ans, est spécialisée dans certains aspects du processus des essais cliniques. Ces entreprises développent leurs propres applications logicielles personnalisées pour automatiser leurs différents processus commerciaux, constituant ainsi une source de propriété intellectuelle très précieuse.
Avoir différents systèmes est logique du point de vue de chaque entreprise, mais cela pose un défi pour WCG, qui souhaite maintenir une vue cohérente de toutes les opérations des filiales.
L'entreprise a d'abord tenté de résoudre manuellement le problème d'incohérence des données. Une équipe d'environ cinq à dix personnes a travaillé pendant deux ans pour éliminer les fautes de frappe, les entrées en double et autres erreurs de données dans les systèmes disparates utilisés par 35 filiales. Les données nettoyées et standardisées sont stockées dans l'entrepôt de données WCG exécuté dans le cloud, où elles peuvent être analysées à l'aide de divers moteurs d'analyse puissants.
« L’une des grandes questions que nous nous posons est la suivante : comment déterminer qu’un « nœud » est le même « nœud » dans différentes organisations, a expliqué Morales ? "Dans certains systèmes, il peut y avoir ou non une adresse, ou l'adresse peut ne pas être orthographiée correctement. Certaines données peuvent simplement manquer, et il y a vraiment beaucoup d'incertitude
En raison de cette incertitude et de la nécessité de faire des recherches." décisions une par une Déterminé, le processus de maîtrise manuelle des données est fastidieux et prend du temps. L’entreprise a dépensé des millions de dollars pour maîtriser les données, mais celles-ci présentaient encore des incohérences.
Morales a réalisé qu'il devait y avoir une meilleure façon. Il a entendu parler de Tamr, un outil de maîtrise des données qui utilise l'apprentissage automatique pour identifier automatiquement les entités connues dans de grands ensembles de données.
Tamr est un outil de qualité des données né il y a huit ans et issu de recherches académiques menées par Mike Stonebraker, célèbre informaticien du MIT.
Selon Anthony Deighton, ancien cadre de longue date de Qlik et aujourd'hui directeur des produits de Tamr, Stonebraker estime que l'apprentissage automatique est nécessaire pour résoudre les problèmes de qualité des données de longue date qui se posent à l'échelle du Big Data et qui vont s'intensifier.
Depuis de nombreuses années, la solution prescrite à ce dilemme est un projet de Master Data Management (MDM). Au lieu de s'appuyer sur chaque système individuel pour s'assurer que tout est correct, les systèmes de données individuels auront des pointeurs vers des copies connues des données – des « enregistrements dorés », pour ainsi dire.
L’approche du Golden Record peut résoudre le problème, du moins c’est ce qu’ils pensent. Cependant, les plans les mieux conçus risquent de se transformer en poussière une fois confrontés à la réalité. C’est exactement ce qui se passe avec le MDM traditionnel.
S'appuyer sur les humains pour nettoyer et gérer les données est futile. Cela ne fonctionnera pas.
L’idée de Stonebraker sur ce problème est d’utiliser l’apprentissage automatique pour classer les données, tout comme Google a utilisé l’apprentissage automatique pour classer automatiquement les sites Web au début d’Internet, mettant ainsi en échec les efforts de Yahoo pour organiser manuellement Internet.
En entraînant des machines à reconnaître les entités dans les systèmes d'entreprise, Tamr a trouvé un moyen de créer automatiquement des records dorés. L’une des principales conclusions auxquelles l’équipe est parvenue était que lorsqu’on demandait aux gens de confirmer la cohérence avec un ensemble limité d’options, ils obtenaient de bien meilleurs résultats que lorsqu’on leur présentait simultanément des dizaines ou des centaines d’options.
L’essai Tamr du WCG commence en mai 2021. Après une période de formation, le logiciel Tamr observe et apprend comment les employés gèrent les différences de données.
Une équipe de WCG a travaillé avec Tamr pour examiner et nettoyer toutes les sources de données de l'entrepôt de données. Le logiciel identifie les « clusters », deux termes ou plus qui signifient la même chose dans différentes applications, et les charge en tant qu'enregistrements dorés dans l'entrepôt de données cloud de WCG.
Chaque source de données est exécutée via Tamr avant de charger les données dans l'entrepôt de données. La taille des sources de données varie d'environ 50 000 enregistrements à plus d'un million d'enregistrements, et chaque entité peut comporter environ 200 colonnes. Le problème n’est pas la quantité mais la complexité. En plus d'accélérer le processus de maîtrise des données d'environ 4 fois, les outils Tamr produisent des données plus standardisées, ce qui signifie une plus grande clarté pour les opérations commerciales.
« Lorsque vous nettoyez les données, vous pouvez désormais utiliser des données plus propres pour obtenir de meilleures informations opérationnelles », a déclaré Morales. "Nous pouvons faire la correspondance via Salesforce et nos applications pour savoir que ce sont les bonnes choses. Avant, si les données n'étaient pas nettoyées, vous obteniez une correspondance à 50 pour cent. Maintenant, nous pouvons faire correspondre 80 pour cent. Ainsi, en utilisant ce que nous faisons, les choses ont des avantages opérationnels très clairs. "
Tamr ne peut pas réussir à regrouper toutes les entités dans des clusters, il existe encore des cas extrêmes qui nécessitent une expertise humaine. Dans ces cas-là, le logiciel fait savoir à l’opérateur qu’il a peu confiance dans la correspondance. Mais selon Morales, Tamr est très doué pour trouver des correspondances évidentes. Il a déclaré que le taux d’exactitude était d’environ 95 % dès le premier jour.
« Vous devez accepter que dans tout projet de maîtrise des données, il y aura des inadéquations. Il y aura des erreurs de type I et de type II », a-t-il déclaré. "Ce serait bien si vous pouviez retracer la source de ces erreurs depuis... parce que les humains font les mêmes erreurs."
De plus, Tamr aide WCG à mieux comprendre ses données.
Morales a déclaré que l’approche manuelle de l’entreprise en matière de maîtrise des données a coûté des millions de dollars au total, tandis que le coût de Tamr était inférieur à 1 million de dollars. Les améliorations de la qualité des données sont plus difficiles à quantifier, mais sans doute plus importantes.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!