Maison  >  Article  >  Périphériques technologiques  >  AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

王林
王林avant
2023-04-08 11:21:15778parcourir

Les modèles de génération

IA ont fait d'énormes progrès au cours de la période écoulée. En ce qui concerne le domaine image, les utilisateurs peuvent générer des images en saisissant des invites en langage naturel (telles que DALL-E 2, Stable Diffusion) ou dans la dimension temporelle. . Développez pour générer des vidéos continues (comme Phenaki), ou développez dans la dimension spatiale pour générer directement des modèles 3D (comme Dreamfusion).

Mais jusqu'à présent, ces tâches sont encore dans un état de recherche isolé, et il n'y a pas d'intersection technique les unes avec les autres.

Récemment, des chercheurs de Meta AI ont combiné les avantages des modèles génératifs vidéo et 3D et ont proposé un tout nouveau système de génération de texte en quatre dimensions (3D + temps) MAV3D (MakeA-Video3D), qui prend la description en langage naturel comme input et génère une représentation de scène dynamique en trois dimensions qui peut être rendue depuis n'importe quelle perspective.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

Lien papier : https://arxiv.org/abs/2301.11280

Lien du projet : https://make-a-video3d.github.io/

MAV3D est également le premier modèle capable de générer des scènes dynamiques tridimensionnelles basées sur des descriptions textuelles données. La méthode proposée dans cet article utilise un champ de rayonnement neuronal (NeRF) dynamique 4D pour optimiser la représentation de la scène, la densité et la cohérence du mouvement en interrogeant un modèle basé sur la diffusion texte-vidéo (T2V) et la dynamique générée par le texte fourni La sortie vidéo peut être visualisée depuis n'importe quelle position et angle de caméra et composée dans n'importe quel environnement 3D.

Cette méthode peut être utilisée pour générer des ressources 3D pour les jeux vidéo, les effets visuels ou la réalité augmentée et virtuelle.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?Différent des tâches de génération d'images et de génération de vidéos, il existe une grande quantité de données de sous-titres disponibles pour la formation sur Internet, mais il n'y a même pas de

collection de modèles 4D prêts à l'emploi

.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

Corgi jouant au ballon

La formation

MAV3D ne nécessite aucune donnée 3D ou 4D

, le modèle T2V doit uniquement être entraîné sur des paires texte-image et des vidéos non étiquetées. Dans la partie expérimentale, les chercheurs ont mené des expériences quantitatives et qualitatives complètes pour prouver l'efficacité de la méthode, qui a considérablement amélioré la base de référence interne précédemment établie.

Texte sur scène dynamique 4D

En raison du manque de données de formation, les chercheurs ont conçu plusieurs idées pour résoudre cette tâche.

Une approche pourrait consister à trouver un générateur vidéo 2D pré-entraîné et à extraire une reconstruction 4D de la vidéo générée. Cependant, reconstruire la forme d'objets déformables à partir de vidéos reste un problème très difficile, à savoir la

Non-Rigid Structure from Motion (NRSfM)

. Si vous disposez de plusieurs points de vue simultanés sur un objet, la tâche devient simple. Bien que les configurations multi-caméras soient rares dans les données du monde réel, les chercheurs pensent que les générateurs vidéo existants génèrent implicitement des modèles de points de vue arbitraires de la scène.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?C'est-à-dire que le générateur vidéo peut être utilisé comme une configuration multi-caméras « statistiques » pour reconstruire la géométrie et la photométrie d'objets déformables.

L'algorithme MAV3D y parvient en optimisant le champ de rayonnement neuronal dynamique (NeRF) et en décodant le texte d'entrée en vidéo, en échantillonnant des points de vue aléatoires autour de l'objet.

L'utilisation directe du générateur vidéo pour optimiser le NeRF dynamique n'a pas donné de résultats satisfaisants. Il reste encore plusieurs problèmes à surmonter lors du processus de mise en œuvre :

1. est nécessaire Représentation dynamique de la scène 3D

2. Une source de données pour l'apprentissage supervisé est nécessaire car il n'existe actuellement pas d'ensemble de données de paire à grande échelle (texte, 4D) pour l'apprentissage

3. être dans l'espace et étendre la résolution de la sortie dans la dimension temporelle, car la sortie 4D nécessite beaucoup de mémoire et de puissance de calcul

Modèle MAV3D

Le modèle MAV3D est basé sur les derniers travaux sur les champs de rayonnement neuronal (NeRF) ; , combinant des NeRF efficaces (statiques) et des résultats dans des NeRF dynamiques et représentant la scène 4D comme une collection de six plans caractéristiques multi-résolution.

Pour superviser cette représentation sans données correspondantes (texte, 4D), les chercheurs proposent un pipeline de formation en plusieurs étapes pour le rendu dynamique des scènes et démontrent l'efficacité de chaque composant pour obtenir des résultats de haute qualité.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

Une observation clé est que l'optimisation directe de scènes dynamiques à l'aide du Score Distillation Sampling (SDS) à l'aide de modèles Text-to-Video (T2V) peut conduire à des artefacts visuels et à une convergence sous-optimale.

Les chercheurs ont donc choisi d'utiliser d'abord le modèle texte-image (T2I) pour faire correspondre la scène 3D statique avec des invites de texte, puis d'améliorer dynamiquement le modèle de scène 3D.

De plus, un nouveau terme de perte SDS et de régularisation de mouvement sensible au temps est introduit dans le modèle, dont il a été prouvé expérimentalement qu'il était essentiel pour un mouvement réaliste et stimulant.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

et adapté à une sortie de résolution plus élevée avec une étape supplémentaire de réglage fin de super-résolution sensible au temps.

Enfin, le SDS du module super-résolution du modèle T2V est utilisé pour obtenir des informations de gradient haute résolution pour l'apprentissage supervisé du modèle de scène 3D, augmentant sa fidélité visuelle et permettant le traitement d'images de plus haute résolution pendant le processus d’inférence. La sortie est échantillonnée.

Partie expérimentale

Métriques d'évaluation

Utilisez CLIP R-Precision pour évaluer la vidéo générée, qui peut être utilisée pour mesurer la cohérence entre le texte et la scène générée, et peut refléter les invites de saisie du précision de la recherche d'images rendues. Les chercheurs ont utilisé la variante ViT-B/32 de CLIP et extrait les images dans différentes vues et pas de temps.

En plus de cela, quatre métriques qualitatives sont utilisées, qui peuvent être dérivées en demandant aux annotateurs humains leurs préférences parmi les deux vidéos générées(i) la qualité de la vidéo (ii) la fidélité aux signaux textuels (iii) la quantité ; de l'exercice ; et (iv) l'authenticité de l'exercice .

Comparaison texte en 4D

Comme il n'existait aucune méthode pour convertir du texte en 4D auparavant, les chercheurs ont établi trois lignes de base basées sur la méthode de génération T2V à des fins de comparaison. Trois méthodes différentes sont utilisées pour convertir des séquences en représentations de scènes tridimensionnelles.

La première séquence est obtenue grâce au moteur de rendu de scène neuronale one-shot (Point-E) ; la seconde est générée en appliquant pixelNeRF indépendamment à chaque image ; la troisième est générée en appliquant D-NeRF en combinaison avec la caméra COLMAP Extracted ; position.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

On peut voir que la méthode dépasse le modèle de base sur la métrique objective de précision R et est mieux notée par les annotateurs humains sur toutes les métriques.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

De plus, les chercheurs ont également exploré les performances de la méthode sous différents angles de vision de la caméra.

Expérience d'ablation

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

1. Modèle formé sans réglage fin de la super-résolution (SR) de la scène, avec le même nombre d'étapes que MAV3D (étape 3), les annotateurs humains préfèrent les modèles. formés avec SR en termes de qualité, d’alignement du texte et de mouvement.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

De plus, le réglage fin de la super-résolution améliore la qualité des vidéos rendues, créant ainsi des vidéos haute résolution avec des détails plus fins et moins de bruit.

AIGC se développe trop vite ! Meta lance le premier synthétiseur vidéo 4D textuel : les modélisateurs de jeux 3D seront-ils également licenciés ?

2. Pas de pré-entraînement : Lorsque les étapes d'optimisation directe des scènes dynamiques (sans pré-entraînement de scène statique) sont les mêmes que celles de MAV3D, le résultat est une qualité de scène bien inférieure ou une mauvaise convergence : 73 % et 65 % du temps, les modèles pré-entraînés en statique sont préférés en termes de qualité vidéo et de mouvement réaliste.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer