Maison  >  Article  >  Périphériques technologiques  >  Comment le Metaverse « nourrit » les modèles d’intelligence artificielle ?

Comment le Metaverse « nourrit » les modèles d’intelligence artificielle ?

王林
王林avant
2023-04-08 18:11:01704parcourir

Le monde visuel est composé de nombreuses pièces mobiles contenant plusieurs types de données, interfaces et modèles d'intelligence artificielle. Les interfaces 3D contiennent de nombreux types de données avec des attributs liés au temps et à l'espace, qui sont importants pour capturer et analyser les tendances passées et prédire les tendances futures.

Comment le Metaverse « nourrit » les modèles d’intelligence artificielle ?

Cette technologie de simulation visuelle a maintenant été appliquée dans certains projets importants, tels que le projet de recherche AlphaFold AI de DeepMind, qui peut prédire la structure 3D de plus de 200 millions de protéines connues. Le repliement des protéines est à la base de la découverte de médicaments, et AlphaFold est utilisé dans la recherche médicale pour traiter le COVID-19. Dans le domaine du calcul haute performance, le Metaverse offre les conditions permettant aux chercheurs de collaborer dans des simulations virtuelles.

Nvidia, l'un des plus grands partisans du Metaverse, promeut le concept à travers un produit appelé Omniverse, qui comprend une suite d'intelligence artificielle, de logiciels et de technologies de vision pour la recherche et la modélisation scientifique.

Nvidia est restée vague sur les fonctionnalités de ses produits Omniverse, mais a récemment révélé quelques informations. La plateforme utilise un ensemble complexe de technologies pour collecter, organiser, traduire et corréler les données, qui sont finalement collectées dans des ensembles de données. Les modèles d'IA analyseront ces ensembles de données et fourniront ensuite des modèles visuels pour des applications scientifiques, qui peuvent inclure des modèles permettant de comprendre les tendances planétaires ou de développer des médicaments.

Le dernier cas d'utilisation collaborative de la plateforme est que la National Oceanic and Atmospheric Administration utilisera la technologie d'Omnverse et de Lockheed Martin pour visualiser les données sur les tendances climatiques et météorologiques, qui seront ensuite mises à la disposition des chercheurs à des fins de prévisions et d'autres études.

Les informations collectées par la plateforme OR3D développée par Lockheed Martin sont importantes pour visualiser les données météorologiques et climatiques, y compris les données des satellites, des océans, des tendances atmosphériques antérieures et des capteurs. Ces données sont spécifiques au format de fichier OR3D et seront intégrées dans un « connecteur » qui convertit les données en types de fichiers basés sur le format Universal Scene Description (USD).

Le format de fichier USD comporte des opérateurs qui peuvent combiner des données telles que le positionnement, l'orientation, la couleur, le matériau et les calques dans un seul fichier 3D. La conversion au format de fichier USD est importante car elle permet de partager des fichiers de visualisation et de collaborer avec plusieurs utilisateurs, une considération importante dans les mondes virtuels. Le fichier USD est également un convertisseur qui décompose les différents types de données du fichier OR3D en entrées brutes pour le modèle d'intelligence artificielle.

Les types de données peuvent inclure des éléments temporels et spatiaux dans les images 3D, ce qui est particulièrement important pour la visualisation des données climatiques et météorologiques. Par exemple, les tendances météorologiques passées doivent être capturées en secondes ou en minutes et cartographiées sur la base de corrélations temporelles.

Un outil de NVIDIA appelé Nucleus est le moteur principal d'Omniverse, qui convertit les fichiers OR3D en fichiers USD et gère l'exécution, la simulation physique et le mappage de données à partir d'autres formats de fichiers.

L'ensemble de données pour l'intelligence artificielle peut inclure des données météorologiques mises à jour en temps réel, qui sont ensuite introduites dans le modèle d'intelligence artificielle. Le processus en plusieurs étapes de NVIDIA pour convertir les données d'image brutes en USD est complexe mais évolutif. Il peut prendre en charge plusieurs types de données et est considéré comme plus réalisable que les connecteurs API (ces derniers sont spécifiques à l'application et ne peuvent pas s'adapter à différents types de données dans un seul modèle complexe).

L'avantage du format de fichier USD est qu'il peut traiter en temps réel différents types de données collectées par des satellites et des capteurs, ce qui permet de construire des modèles d'intelligence artificielle plus précis. Il peut également être partagé, rendant ses données extensibles à d'autres applications.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer