Maison > Article > Périphériques technologiques > L’IA est partout : nouveaux changements dans la production cinématographique et télévisuelle
De nos jours, non seulement dans les cercles de technologie de niche et d'investissement, les discussions sur l'IA et le cloud computing semblent être partout. Parmi eux, le niveau le plus diffusant et le plus influent est le secteur du divertissement. Dans le domaine du divertissement, les professionnels de la création et des affaires sont très préoccupés par l’impact que l’IA et le cloud auront sur leurs réserves de compétences, mais en même temps, ils sont également pleins d’attentes quant aux possibilités illimitées qui découleront de la popularisation de la technologie.
Lors du récent Sundance Film Festival, de nombreux réalisateurs, monteurs et autres praticiens ont échangé leurs points de vue sur l'impact de l'IA et des services cloud sur la production cinématographique et télévisuelle. En outre, les dirigeants d'Adobe ont également expliqué comment ces deux nouvelles forces peuvent faire passer les outils de créativité déjà largement utilisés tels que Premiere Pro à un niveau supérieur.
Il s’agit d’une période remarquable et dynamique, avec un développement rapide, des prédictions positives et négatives qui vont et viennent, et des opportunités majeures qui se préparent pour remodeler la manière dont les programmes cinématographiques et télévisuels sont produits. Peut-être qu’après cent ans de stabilité après sa naissance, le contenu cinématographique et télévisuel marquera le début d’une révolution de production perturbatrice.
L'impact de l'IA et du cloud computing sur l'industrie du cinéma et de la télévision commence tout juste à émerger. Prenez Comcast comme exemple. Ils viennent de remporter l'Emmy Technology Award pour avoir utilisé l'IA pour générer rapidement des vidéos sportives.
Les stars et leurs agents ont également remarqué que la technologie de l'IA joue un rôle dans tous les domaines de l'ensemble de l'industrie du cinéma et de la télévision.
Par exemple, l'agence CAA a signé un partenariat stratégique avec Metaphysic, cette dernière fournissant des outils de « De-Aging » qui peuvent aider les acteurs du film à « rajeunir ». Sous le traitement des outils, les personnages joués par deux stars, Tom Hanks et Robin Wright, commencent dès l'adolescence et continuent de changer d'apparence à mesure qu'ils grandissent.
Ce type de technologie revêt une grande importance pour les agents : leurs clients célèbres ont soudain la vitalité de la performance à travers le temps.
Cependant, le travail quotidien des projets cinématographiques et télévisuels est complexe et fastidieux et doit être complété par la coopération de professionnels tels que des monteurs et des réalisateurs. Grâce à la communication avec les praticiens du Sundance Film Festival, nous avons constaté qu'ils considéraient principalement Premiere Pro comme une plate-forme de collaboration à haut débit permettant de créer de plus en plus d'utilisations et de possibilités réalisables.
Meagan Keane, directrice du marketing produit pour Pro Video chez Adobe, a souligné en parlant de l'IA : « En ce qui concerne l'avenir de la production cinématographique, l'IA deviendra une force importante en ouvrant diverses possibilités. Nous pensons que ce sera un avenir où tout le monde peut participer."
Selon elle, l'importance fondamentale de l'IA est d'augmenter la créativité humaine plutôt que de remplacer les praticiens existants. Des outils puissants tels que l’IA peuvent aider les praticiens à utiliser facilement des technologies, des compétences et des ressources qu’ils ne possèdent pas pour présenter des expériences plus engageantes dans divers médias tels que des vidéos. Même pour les créateurs professionnels expérimentés, l’IA a considérablement réduit la torture liée aux tâches répétitives, comme devoir se rendre sur place pour filmer, permettant ainsi aux membres de l’équipe, tels que les monteurs, de se concentrer davantage sur la planification et la conception globales du film.
Michael Cioni, directeur principal de l'innovation mondiale chez Adobe, a toujours été un maître de la technologie d'accueil des caméras dans le cloud pour Adobe Frame.io. À ses yeux, l'IA a une place infinie pour l'imagination.
L'explication qu'il a donnée n'est pas compliquée : « D'ici 2031, tous les actifs multimédias et de divertissement seront générés sur le cloud et générés par le cloud computing. Cela deviendra certainement un fait, nous appelons cela un certitude technologique. Tous les actifs électroniques générés par l’appareil sont des actifs cloud. En revanche, les disques durs locaux, les films, les cassettes vidéo et les cartes mémoire seront remplacés.
Je pense que tout le monde connaît le processus de conversion multimédia. Les documents texte sont les premiers à adopter le cloud et l'IA. Aujourd'hui, ce type de données est principalement stocké sur des services cloud (tels que Google Docs, Apple Pages, Microsoft Word, Adobe Acrobat, etc.) à des fins de partage et d'édition. L’émergence de services tels que Spotify, Apple Music, Amazon Music et Tidal a également permis à des centaines de millions d’utilisateurs de commencer à écouter, créer, collaborer et vendre des œuvres musicales sur le cloud. Aujourd’hui, cette tendance est sur le point de déferler sur notre média le plus complexe : la vidéo.
Cioni a expliqué : « Nous prenons comme exemple la production de scènes de film. Après avoir spécifié la scène de tournage, nous pouvons la décrire plus en détail avec un langage naturel, tel que « Il commence à pleuvoir ». À ce moment-là, la pluie apparaîtra dans le tir et le crépitement. Vous pouvez également dire « il commence à neiger », et l'IA ajoutera l'effet de neige, qui peut être obtenu sans aucune connaissance en ingénierie. Ce genre d’intrigue qui n’existait autrefois que dans les romans de science-fiction est désormais devenu une réalité. Cet effet a été possible sur des supports statiques (photos) dans le passé, et nous savons que cela finira par faire la transition vers la vidéo. Nous devons donc changer notre façon de penser et réfléchir à la manière de cultiver notre créativité dans ce contexte. ”
Tout cela va brouiller les frontières entre les différentes fonctions et changer complètement la manière de créer des vidéos à l’avenir.
Beaucoup de jeunes cinéastes ont l'habitude de franchir ces frontières, de toucher un peu à tout sur des projets, et de collaborer entre eux sur les plateformes numériques. Grâce à la réalisation de l'amarrage dans le cloud de la caméra et de l'intelligence artificielle, les producteurs peuvent déjà sélectionner une scène, puis générer rapidement une « combinaison » sous la forme d'un premier montage comme référence pour déterminer si la scène actuelle est suffisante ou si des plans supplémentaires sont nécessaires. .
Ils peuvent également rapidement ébaucher les effets visuels de base, la correction des couleurs et même la conception sonore, puis les confier à des experts pour les peaufiner une fois qu'ils décident de l'utiliser. Par conséquent, pour de nombreux créateurs de films, Premiere n’est plus un outil de montage vidéo non linéaire au sens traditionnel du terme.
Maximilien Van Aertryck, co-réalisateur du documentaire "The Amazing Machine" qui a remporté le Prix Spécial Vision Créative du Jury de Sundance Think, "C'est notre plus grande passion : explorer la relation entre les gens et les caméras, et comment cela affecte la société dans son ensemble. Nous sommes comme des anthropologues qui aiment s'amuser en explorant." appellent à une compréhension plus réfléchie du monde créé par les nouveaux outils. Axel Danielson, un autre co-réalisateur/monteur du film, a déclaré, comme le dit la blague classique : "Qui veux-tu croire ? Moi, ou tes yeux peu fiables ?" pas nécessairement croyant, même les données vidéo ne sont pas fiables.
Danielson a déclaré : "Notre film ne donne pas beaucoup de réponses, il soulève juste des questions. La seule réponse que nous connaissons est qu'en tant que société, les humains doivent examiner de plus près les messages diffusés par les médias. . ”
Ce film rassemble des données vidéo de plus d'un siècle, dont certaines sont significatives et d'autres ironiques et drôles. Et plus important encore, entre les mains de grands et terribles créateurs, ce contenu peut recevoir des significations et des pouvoirs très différents.
Dans The Amazing Machine, Van Aertryck et Danielson ont passé plusieurs années à rassembler des informations sur la relation complexe entre les humains, les caméras et les images qu'ils capturent.
Van Aertryck a déclaré franchement : "Nous ne sommes pas le genre d'experts en édition bien formés. Nous sommes allés travailler nous-mêmes parce qu'il n'y avait vraiment personne. Adobe est devenu l'outil parfait pour nous car nous pouvons jeter tout le matériel." Entrez et partagez facilement les uns avec les autres. "
Il n'y avait que quatre personnes dans toute l'équipe de tournage, certaines étaient dans la mer Baltique (Göteborg, Suède) et d'autres dans la Îles Baléares en Europe occidentale. Tout le monde ne pouvait utiliser que les outils cloud de Premiere pour échanger des clips et des fragments. Mais l’ensemble du processus s’est déroulé sans heurts, comme si tout le monde était assis ensemble. C'est aussi l'importance des fonctions cloud : tant qu'ils en ont besoin et qu'ils le souhaitent, chaque créateur du monde entier peut participer au travail à tout moment et en tout lieu.
Crystal Kayiza, la monteuse et réalisatrice de "Rest Stop" qui a remporté le prix du jury du court métrage américain au Festival du film de Sundance de cette année, a déclaré : "Le partage en ligne rend plus de tentatives possibles. Tant que je suis si vous le souhaitez, je Vous pouvez retourner dans votre ville natale en Oklahoma à tout moment sans affecter la création du film. "
L'année dernière, Adobe a fourni de nouvelles fonctions de connexion directe au cloud sur de nombreuses caméras et autres équipements de production populaires, qui peut être utilisé pendant le tournage. Le contenu vidéo est transmis simultanément. Cela permet aux monteurs, producteurs, directeurs de studio et autres professionnels de la post-production de commencer à travailler sur des séquences quelques minutes après le tournage.
Même les films de petite production peuvent utiliser ces techniques. Daniela T. Quiroz, lauréate du Sundance Editing Award, a déclaré que la connexion directe au cloud était cruciale pour la production du film "Mariachi", en particulier au début de la production.
Lorsque les réalisateurs Alejandra Vasquez et Sam Osborn tournaient le matériel du concours de danse au Rio Grande Valley High School au Texas, Quiroz, qui vit à Brooklyn, New York, avait déjà commencé le montage. Parce qu'elle peut obtenir rapidement les premiers documents de tournage, elle peut les traiter rapidement et communiquer avec les réalisateurs sur l'orientation du prochain tournage.
Quiroz a déclaré : "En tant que rédacteurs, nous avons la chance d'assister à la première fois des acteurs devant la caméra. Vous serez témoins de vos personnages préférés et de la musique qui résonne
At. à l'époque, de telles conditions étaient complètement absentes lors du tournage de "Parfois, je pense à la mort". Le film a été tourné sur la côte isolée de l'Oregon. Comme il n'y avait pas d'échantillons numériques disponibles pour une visualisation immédiate, les images tournées chaque jour ont dû être sauvegardées sur un disque dur et envoyées pendant la nuit à une installation de traitement numérique à la Nouvelle-Orléans. Le rédacteur en chef Ryan Kendrick a déclaré que l'émergence de nouvelles technologies est en effet une bonne nouvelle pour les praticiens.
Collaboration sans précédent
Kendrick a déploré : "Je peux travailler avec mes partenaires à la maison, si loin les uns des autres, ce qui est vraiment cool. Cela a également changé l'interaction entre les réalisateurs, les directeurs de la photographie, les monteurs et les autres membres du personnel de production." eux.
Dans le passé, « les monteurs se sentaient toujours loin du plateau. Aujourd'hui, ce sentiment de connexion est plus étroit et on ne se sent pas séparé de tout. Aujourd'hui, la salle de montage est devenue un lieu d'essais et d'erreurs. , et je peux. Peu importe si vous essayez quelque chose ici, même si c'est le contraire de ce à quoi vous vous attendiez. Je dis toujours : « Qui sait, essayons-le. » »
Kendrick, Lambert et la photographie dans « Parfois. Je pense à la mort. » Le réalisateur Dustin Lane maintient une fréquence de discussion hebdomadaire avant le début du tournage, dans l'espoir d'éviter d'éventuels problèmes à l'avance
« Nous discuterons d'éventuels problèmes de montage. Quand on reçoit le scénario, le plus difficile est d'imaginer le passage de l'intrigue à la partie suivante. Concrètement, on fait en sorte que le personnage soit toujours dans la situation, pas dans le « film ». Nous avons donc beaucoup parlé de la manière de conserver le poids émotionnel des images. "
Kendrick a déclaré que la technologie Camera-to-Cloud accélère le cycle de tournage, elle peut donc également jouer un rôle important dans des projets tels que les publicités commerciales et les vidéoclips
" De nombreux éléments des publicités commerciales évoluent rapidement. "C'est précisément grâce au support de l'architecture cloud que les matériaux du projet peuvent être transférés en douceur entre Premiere Pro, Frame.io et After Effects.
" C'est le plus gros problème que les praticiens du cinéma et de la télévision ont éliminé au cours des cinq dernières années et qui cause retards dans le processus de production. "
Keane a déclaré que l'approche technologique d'Adobe est construite autour de cinq "principes directeurs", notamment : le flux de travail, les médias, la collaboration, la productivité et la sécurité.
"Nous intégrerons véritablement l'IA dans la "productivité". Il ne s’agit pas de remplacer la créativité, mais de remplacer les aspects complexes et pesants du passé. "
L'ensemble d'Hollywood suit de près l'évolution rapide du domaine de l'IA. Selon certaines informations, le conseil d'administration du SAG-AFTRA, le plus grand syndicat d'Hollywood, envisage d'introduire des clauses sur les questions de droits à l'image lors du prochain cycle de négociations contractuelles. -c'est-à-dire limiter l'impact de la technologie de l'IA sur le syndicat L'utilisation de l'apparence, de la voix ou d'autres caractéristiques des membres
À en juger par le projet d'avis actuel, « toute forme dans le contrat visant à contrôler les droits d'exécution du virtuel. acteurs » doit être convenu au préalable avec le syndicat, sinon il sera considéré comme invalide et ne sera pas appliqué ». "
Face à cette nouvelle question complexe, un nouveau cycle de négociations contractuelles est sur le point de démarrer ce printemps. Les acteurs âgés, d'âge moyen et jeunes qui espèrent prolonger leur carrière pourraient être prêts à accepter certains des avantages de la technologie de l'IA. , mais sans une forte protection contractuelle , les producteurs utiliseront probablement directement la technologie de l'IA pour simuler et éviter de payer des frais élevés à de vrais acteurs
Un projet de fan sur Twitch semble indiquer un tel avenir. Le flux incessant de "Seinfeld" généré par l'IA. Les spin-offs continuent d'être téléchargés. Bien que les graphismes soient terribles, les sons synthétisés par ordinateur sont ridicules et la qualité des blagues n'est pas flatteuse, avec l'amélioration de la technologie de l'IA, tout cela ne sera peut-être plus possible. Plus important encore, l'acteur qui jouait le rôle de Jerry s'est manifesté pour défendre ses droits, mettant fin à ce drame « sans fin »
dans une perspective plus positive. Il semble que Keane d'Adobe estime que l'IA et le cloud computing apporteront une gamme plus large d'outils créatifs, élimineront la dépendance à l'égard des fermes de serveurs à grande échelle pour les images, les sons, les effets visuels et d'autres éléments, afin que chacun dispose de la puissance de calcul nécessaire pour produire d'excellents résultats. contenu vidéo et fondement de la sécurité.
« Avec l'aide des ressources cloud, chacun peut raconter son histoire depuis n'importe où dans le monde. La collaboration à toutes les étapes peut être réalisée entre les régions, et chacun peut échanger des opinions et susciter des idées à tout moment. "
La sécurité est également un enjeu majeur pour les cinéastes qui ne peut être ignoré. Keane a mentionné le film "Plan C", qui est un documentaire sur l'avortement. Les créateurs doivent faire davantage avec les visages et les voix des interviewés flous, tout en s'assurant que le matériel original collecté n'est jamais divulgué
De plus, la prolifération de l'IA générative, des contrefaçons profondes et des problèmes connexes a rendu l'authenticité du contenu des images plus importante que jamais, Adobe, le New York Times, Canon et de nombreux autres médias et. des entreprises technologiques ont rejoint la « Content Authenticity Initiative »
Mais Keanu Reeves, l'acteur du classique de science-fiction « The Matrix », n'est pas optimiste sur cette question. Dans l'interview, il a déclaré que l'utilisation de l'IA pour générer des vidéos de manière malveillante. est "très effrayant". Le contrat signé par Reeves contient souvent des clauses pertinentes interdisant aux producteurs de falsifier numériquement ses performances. Cela remonte à un film il y a des décennies, lorsque les producteurs utilisaient des effets spéciaux pour lui ajouter une larme sur le visage
.Reeves a déclaré : "Cette situation d'acteurs en perte d'autonomie est frustrante. Nous pouvons accepter que nos clips de performance soient édités, mais le contenu est au moins vrai. Et une fois qu'il atteint le stade des deep fakes, alors l'acteur a aucune autonomie du tout. C’est très effrayant, et j’ai également hâte de voir comment les humains réagiront à ce genre de technologie. La nouvelle technologie qui est sur le point de changer les règles du jeu est désormais disponible en version bêta dans Premiere. Pro. Ceci est basé sur la fonction d'édition de texte, qui permet aux utilisateurs d'extraire et de transcrire le texte des dialogues de vidéos à l'aide de l'IA d'édition, réalisant ainsi le montage vidéo. L’IA peut également mettre en évidence des extraits sonores importants, y compris des références brutes pour la version finale, et générer des termes de recherche basés sur des mots clés pour accéder rapidement à des clips ou à des dialogues spécifiques. Il ne fait aucun doute que cela deviendra un nouveau moyen plus puissant de gérer le matériel et les données d’un projet.
Certains petits fabricants ont également lancé une technologie similaire. Descript et Podcastle fournissent tous deux des outils permettant de créer des versions numériques de la parole, qui peuvent être utilisées pour lire des scripts sous forme de texte sans nécessiter d'édition supplémentaire. Descript a également récemment ajouté des fonctionnalités d'édition vidéo basées sur du texte, qui peuvent être utilisées pour créer des podcasts et d'autres contenus vidéo.
Le rédacteur Kendrick a déclaré qu'il avait utilisé les outils d'édition de texte d'Adobe pour aider un ami à éditer rapidement un mini-documentaire. Selon lui, cette fonction d'édition de texte revêt également une grande importance pour les éditeurs professionnels. Dans le passé, les producteurs/monteurs devaient souvent passer plusieurs jours à trier les images pour s'assurer que les matériaux pouvaient être rapidement connectés à un programme dans un délai serré.
Livres audio, scripts, réseaux sociaux - l'IA est partout
L'IA s'oriente vers d'autres domaines du divertissement. Apple a lancé un outil d'IA capable de générer une narration pour les livres audio, offrant ainsi aux auteurs une autre option pour créer des versions audio à faible coût de leurs projets. Mais dès que la nouvelle est sortie, les doubleurs professionnels de livres audio et leurs légions de fans ont exprimé une forte opposition.
Mais pour les livres qui ne sont pas des best-sellers, des revenus limités ne suffisent évidemment pas pour aider les gens à profiter de ce niveau d'expérience d'écoute. À l’heure actuelle, les outils d’IA sont devenus un bon choix, à la fois peu coûteux et pouvant garantir dans une certaine mesure la qualité de l’expérience. C’est ce marché de niche d’écoute de livres, évalué à l’échelle mondiale à environ 1,5 milliard de dollars, qu’Apple s’intéresse.
La start-up Filmusage tente d'utiliser l'IA pour diviser les éléments du scénario, notamment les acteurs, les accessoires, les costumes, les véhicules, les sons, les lieux, etc.
Quant au domaine des vidéos courtes, TikTok, Meta Reels et les YouTube Shorts d'Alphabet s'appuient tous sur l'apprentissage automatique et les outils d'IA pour afficher des vidéos « recommandées » qui pourraient intéresser les utilisateurs, en s'efforçant d'être plus fluides. et engageant. Intégrez la publicité à l’expérience visuelle de manière puissante.
Rich Greenberg, analyste à l'agence de notation financière LightShed Partners, a mentionné que Facebook a payé un coût très élevé lorsqu'il s'est tourné vers la recommandation de contenu basée sur l'IA, mais « ce fait prouve en fin de compte que la recommandation de contenu par l'IA est la recommandation de Zuckerberg. C’est la deuxième bonne décision majeure que Ge prend depuis la création de Facebook. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!