Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  KI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion

KI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion

王林
王林nach vorne
2023-04-26 16:52:08853Durchsuche

KI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion

Heutzutage scheinen Diskussionen über KI und Cloud Computing nicht nur in Nischentechnologie- und Investmentkreisen allgegenwärtig zu sein. Unter ihnen ist die Unterhaltungsbranche die verbreitetste und einflussreichste Ebene. Im Unterhaltungsbereich sind kreative und geschäftliche Praktiker sehr besorgt über die Auswirkungen, die KI und Cloud auf ihre Kompetenzreserven haben werden, aber gleichzeitig sind sie auch voller Erwartungen hinsichtlich der unbegrenzten Möglichkeiten, nachdem die Technologie populär geworden ist.

Beim jüngsten Sundance Film Festival tauschten viele Regisseure, Redakteure und andere Praktiker ihre Ansichten über die Auswirkungen von KI und Cloud-Diensten auf die Film- und Fernsehproduktion aus. Darüber hinaus teilten Adobe-Führungskräfte mit, wie diese beiden neuen Kräfte die bereits weit verbreiteten Kreativitätstools wie Premiere Pro auf die nächste Stufe heben können.

Dies ist eine bemerkenswerte und dynamische Zeit mit rasanter Entwicklung, positiven und negativen Vorhersagen, die auf und ab gehen, und großen Chancen, die Art und Weise, wie Film- und Fernsehprogramme produziert werden, neu zu gestalten. Vielleicht werden Film- und Fernsehinhalte nach hundert Jahren der Stabilität nach ihrer Geburt eine disruptive Produktionsrevolution einleiten.

Der Einfluss von KI und Cloud Computing auf die Film- und Fernsehbranche zeichnet sich gerade erst ab. Nehmen Sie Comcast als Beispiel. Sie haben gerade den Emmy Technology Award für den Einsatz von KI zur schnellen Erstellung von Sportvideos gewonnen.

Stars und ihre Agenten haben auch bemerkt, dass KI-Technologie in allen Bereichen der gesamten Film- und Fernsehbranche eine Rolle spielt.

Zum Beispiel hat die Agentur CAA eine strategische Partnerschaft mit Metaphysic unterzeichnet, wobei letzteres „De-Aging“-Tools bereitstellt, die den Schauspielern im Film dabei helfen können, sich zu „verjüngen“. Durch die Verarbeitung von Werkzeugen beginnen die von den beiden Stars Tom Hanks und Robin Wright gespielten Charaktere bereits im Teenageralter und verändern mit zunehmendem Alter ihr Aussehen.

Diese Art von Technologie ist für Agenten von großer Bedeutung: Ihre prominenten Kunden verfügen plötzlich über die Vitalität von Auftritten über einen längeren Zeitraum hinweg.

Neue Technologie eröffnet neue Möglichkeiten

Die tägliche Arbeit von Film- und Fernsehprojekten ist jedoch komplex und umständlich und muss durch die Zusammenarbeit von Profis wie Redakteuren und Regisseuren erledigt werden. Durch die Kommunikation mit Praktikern beim Sundance Film Festival haben wir herausgefunden, dass sie Premiere Pro hauptsächlich als Hochgeschwindigkeits-Kollaborationsplattform betrachten, um immer mehr realisierbare Einsatzmöglichkeiten und Möglichkeiten zu schaffen.

Meagan Keane, Leiter Produktmarketing für Pro Video bei Adobe, betonte, als er über KI sprach: „Mit Blick auf die Zukunft der Filmproduktion wird KI eine wichtige Kraft sein, die verschiedene Möglichkeiten eröffnet. Wir glauben, dass dies eine Zukunft sein wird.“ wo jeder mitmachen kann.“

Ihrer Ansicht nach besteht die Kernbedeutung von KI darin, die menschliche Kreativität zu steigern und nicht bestehende Praktiker zu ersetzen. Leistungsstarke Tools wie KI können Praktikern dabei helfen, Technologien, Fähigkeiten und Ressourcen, über die sie nicht verfügen, einfach zu nutzen, um ansprechendere Erfahrungen in verschiedenen Medien wie Videos zu präsentieren. Selbst für erfahrene professionelle Filmemacher hat die KI die Qual sich wiederholender Aufgaben, wie z. B. die Notwendigkeit, vor Ort zu filmen, erheblich reduziert, sodass sich Teammitglieder wie Redakteure mehr auf die Gesamtplanung und das Design des Films konzentrieren können.

Michael Cioni, Senior Director of Global Innovation bei Adobe, war schon immer ein Meister der Kamera-Cloud-Docking-Technologie für Adobe Frame.io. In seinen Augen bietet KI endlosen Raum für Fantasie.

Alle digitalen Assets sind Cloud-Assets

Die Erklärung, die er gab, ist nicht kompliziert: „Bis 2031 werden alle Medien- und Unterhaltungs-Assets in der Cloud generiert und durch Cloud Computing generiert. Das wird definitiv eine Tatsache, ich nenne es eine.“ Technologische Sicherheit: Alle vom Gerät generierten elektronischen Assets sind Cloud-Assets. Im Gegensatz dazu werden lokale Festplatten, Filme, Videobänder und Speicherkarten ersetzt.

Ich glaube, dass jeder mit dem Medienkonvertierungsprozess vertraut ist. Der erste, der Cloud und KI nutzt, sind Textdokumente. Heutzutage werden diese Art von Daten hauptsächlich in Cloud-Diensten (wie Google Docs, Apple Pages, Microsoft Word, Adobe Acrobat usw.) zum Teilen und Bearbeiten gespeichert. Das Aufkommen von Diensten wie Spotify, Apple Music, Amazon Music und Tidal hat es Hunderten Millionen Benutzern außerdem ermöglicht, Musikwerke in der Cloud anzuhören, zu erstellen, mit ihnen zusammenzuarbeiten und zu verkaufen. Nun ist dieser Trend dabei, unser komplexestes Medium zu erfassen: Video.

Cioni erklärte: „Wir nehmen die Produktion von Filmszenen als Beispiel. Nachdem wir die Drehszene spezifiziert haben, können wir sie mit natürlicher Sprache weiter beschreiben, wie zum Beispiel „Es beginnt zu regnen.“ Zu diesem Zeitpunkt wird der Regen erscheinen der Schuss und das Geplapper. Sie können auch sagen: „Es fängt an zu schneien“, und die KI fügt den Effekt von Schnee hinzu, was ohne technische Kenntnisse erreicht werden kann. Eine solche Handlung, die es früher nur in Science-Fiction-Romanen gab, ist nun Realität geworden. Dieser Effekt war in der Vergangenheit bei statischen Medien (Fotos) möglich, und wir wissen, dass er irgendwann auch auf Videos übergehen wird. Deshalb müssen wir unser Denken ändern und darüber nachdenken, wie wir in diesem Zusammenhang unsere Kreativität fördern können. „

All dies wird die Grenzen zwischen verschiedenen Funktionen verwischen und die Art und Weise der Videoerstellung in Zukunft völlig verändern.

Viele junge Filmemacher sind es bereits gewohnt, diese Grenzen zu überschreiten, bei Projekten ein bisschen von allem zu berühren und auf digitalen Plattformen zusammenzuarbeiten. Durch die Realisierung von Kamera-Cloud-Docking und KI-Intelligenz können Produzenten bereits eine Szene auswählen und dann schnell eine „Kombination“ in Form eines Rohschnitts als Referenz generieren, um festzustellen, ob die aktuelle Szene ausreicht oder ob zusätzliche Aufnahmen erforderlich sind. .

Sie können auch eine schnelle grobe Bearbeitung grundlegender visueller Effekte, Farbkorrekturen und sogar Sounddesigns durchführen und diese dann zur Feinabstimmung an Experten übergeben, nachdem sie sich für die Verwendung entschieden haben. Daher ist Premiere für viele Filmschaffende nicht mehr ein nichtlineares Videobearbeitungstool im herkömmlichen Sinne.

Aufbau einer neuen Beziehung zwischen Menschen und Bildern

Maximilien Van Aertryck, Co-Regisseur des Dokumentarfilms „The Amazing Machine“, der mit dem Sundance Special Jury Creative Vision Award ausgezeichnet wurde, glaubt: „Das ist unsere größte Leidenschaft – die Erforschung der Beziehung.“ Wir sind wie Anthropologen, die Freude daran haben, zwischen Menschen und der Kamera zu forschen und zu erfahren, wie sich dies auf die Gesellschaft als Ganzes auswirkt. Axel Danielson, ein weiterer Co-Regisseur/Herausgeber des Films, sagte, wie der klassische Witz lautet: „Wem wollen Sie glauben? Mir oder Ihren unzuverlässigen Augen?“ Tatsächlich müssen wir zunehmend erkennen, dass das Sehen nicht unbedingt der Fall ist Selbst Videodaten kann man nicht trauen.

Danielson sagte: „Unser Film gibt nicht viele Antworten, er wirft nur Fragen auf. Die einzige Antwort, die wir kennen, ist, dass die Menschen als soziales Kollektiv die von den Medien verbreiteten Nachrichten ernsthafter betrachten müssen.“ Dieser Film Der Film stellt Videodaten aus mehr als einem Jahrhundert zusammen, von denen einige bedeutsam und andere ironisch und lustig sind. Und was noch wichtiger ist: In den Händen großer und schrecklicher Schöpfer können diesem Inhalt ganz unterschiedliche Bedeutungen und Kräfte verliehen werden.

In The Amazing Machine haben Van Aertryck und Danielson mehrere Jahre damit verbracht, Informationen über die komplexe Beziehung zwischen Menschen, Kameras und den von ihnen aufgenommenen Bildern zu sammeln.

Van Aertryck sagte ganz offen: „Wir gehören nicht zu den gut ausgebildeten Bearbeitungsexperten. Wir machten uns alleine an die Arbeit, weil es wirklich niemanden sonst gab. Adobe wurde für uns zum perfekten Werkzeug, weil wir alle Materialien hineinwerfen können.“ und teilen Sie sie einfach miteinander.“ Werkzeuge zum Austauschen von Clips und Clips. Aber der gesamte Prozess verlief reibungslos, als ob alle zusammen saßen. Darin besteht auch die Bedeutung von Cloud-Funktionen: Solange sie es benötigen und dazu bereit sind, kann jeder Ersteller aus der ganzen Welt jederzeit und überall an der Arbeit teilnehmen.

Crystal Kayiza, die Herausgeberin und Regisseurin von „Rest Stop“, die beim diesjährigen Sundance Film Festival den Preis der U.S. Short Film Jury gewann, sagte: „Online-Sharing ermöglicht mehr Versuche. Ich kann nach Oklahoma zurückkehren, wann immer ich will.“ Homer, ohne die Erstellung des Films zu beeinträchtigen.“

Letztes Jahr hat Adobe neue Cloud-Direktverbindungsfunktionen für viele gängige Kameras und andere Produktionsgeräte bereitgestellt, mit denen Inhalte während der Videoaufnahme übertragen werden können. Dadurch können Redakteure, Produzenten, Studioleiter und andere Postproduktionsprofis innerhalb von Minuten nach der Aufnahme mit der Bearbeitung des Filmmaterials beginnen.

Selbst in kleinen Produktionsvideos können diese Techniken eingesetzt werden. Daniela T. Quiroz, die den Sundance Editing Award gewann, sagte, dass die direkte Cloud-Verbindung für die Produktion des Films „Mariachi“, insbesondere für die frühen Produktionen, von entscheidender Bedeutung sei.

Als die Filmregisseure Alejandra Vasquez und Sam Osborn Aufnahmen von Tanzwettbewerben an der Rio Grande Valley High School in Texas drehten, hatte Quiroz, der in Brooklyn, New York lebt, bereits mit dem Schnitt begonnen. Da sie schnell Material für die frühen Dreharbeiten erhält, kann sie diese schnell verarbeiten und mit den Regisseuren über die Schwerpunkte der nächsten Dreharbeiten sprechen.

Quiroz sagte: „Als Redakteure haben wir das Glück, Zeuge des ersten Auftritts der Schauspieler vor der Kamera zu sein. Sie werden Zeuge Ihrer Lieblingscharaktere und der Musik, die mitschwingt

Bei den Dreharbeiten zu „Sometimes I Think About Death“ fehlte sie völlig.“ Solche Bedingungen. Der Film wurde an der abgelegenen Küste Oregons gedreht. Da keine digitalen Samples zur sofortigen Betrachtung verfügbar waren, musste das täglich aufgenommene Filmmaterial auf einer Festplatte gespeichert und über Nacht an eine digitale Verarbeitungsanlage in New Orleans gesendet werden. Redakteur Ryan Kendrick sagte, dass das Aufkommen neuer Technologien tatsächlich eine gute Nachricht für Praktiker sei.

Beispiellose Zusammenarbeit

Jetzt kann Kendrick von seinem Zuhause in Nashville aus remote mit dem Regisseur und anderen Kollegen an anderen Orten zusammenarbeiten.

Kendrick rief aus: „Ich kann mit meinen Partnern zu Hause arbeiten, so weit voneinander entfernt, was so cool ist. Das hat auch die Art und Weise verändert, wie Regisseure, Fotografen, Redakteure und andere Produktionsmitarbeiter miteinander interagieren.“

In der Vergangenheit „hatten die Redakteure immer das Gefühl, weit weg vom Set zu sein. Jetzt ist dieses Gefühl der Verbundenheit enger und man fühlt sich nicht von allem getrennt. Jetzt ist der Schnittraum zu einem Ort des Ausprobierens und Irrens geworden.“ , und ich kann es. Es spielt keine Rolle, ob Sie hier etwas ausprobieren, auch wenn es das Gegenteil von dem ist, was Sie erwartet haben. Ich sage immer: „Wer weiß, lass es uns versuchen.“

Kendrick, Lambert und Fotografie in „Sometimes I Denken Sie an den Tod.“ Regisseur Dustin Lane hält vor Beginn der eigentlichen Dreharbeiten eine wöchentliche Diskussionsfrequenz ein, in der Hoffnung, mögliche Probleme im Voraus zu vermeiden

„Wir werden mögliche Bearbeitungsprobleme besprechen. Wenn man das Drehbuch bekommt, ist es am schwierigsten, sich den Übergang von der Handlung zum nächsten Teil vorzustellen. Konkret machen wir die Figur immer in der Situation, nicht im „Film“. Deshalb haben wir viel darüber gesprochen, herauszufinden, wie wir das emotionale Gewicht der Bilder beibehalten können. „

Kendrick sagte, dass die Camera-to-Cloud-Technologie den Drehzyklus beschleunigt, sodass sie auch bei Projekten wie kommerzieller Werbung und Musikvideos eine wichtige Rolle spielen kann

„Viele Elemente in kommerzieller Werbung ändern sich schnell.“ „Gerade mit der Unterstützung der Cloud-Architektur können Projektmaterialien reibungslos zwischen Premiere Pro, Frame.io und After Effects übertragen werden.

“ Dies ist das größte Problem, das Film- und Fernsehfachleute in den letzten fünf Jahren beseitigt haben Verzögerungen im Produktionsprozess. „

Leitprinzipien für bessere Technologie aufbauen

Keane sagte, dass der Technologieansatz von Adobe auf fünf „Leitprinzipien“ basiert, darunter: Workflow, Medien, Zusammenarbeit, Produktivität und Sicherheit.

„Wir werden KI wirklich in die „Produktivität“ integrieren. Dies soll nicht die Kreativität ersetzen, sondern die komplexen und umständlichen Aspekte der Vergangenheit ersetzen. „

Ganz Hollywood widmet dem sich schnell verändernden Bereich der KI große Aufmerksamkeit. Es gibt Berichte, dass der Vorstand von SAG-AFTRA, Hollywoods größter Gewerkschaft, plant, in der nächsten Runde der Vertragsverhandlungen Klauseln zu Bildrechtsfragen einzuführen -das heißt, die Auswirkungen der KI-Technologie auf die Gewerkschaft einzuschränken. Die Nutzung des Aussehens, der Stimme oder anderer Merkmale der Mitglieder

Nach den aktuellen Stellungnahmeentwürfen zu urteilen, „jede Form im Vertrag, die darauf abzielt, die Leistungsrechte von virtuellen zu kontrollieren.“ Akteure“ muss im Voraus mit der Gewerkschaft vereinbart werden, andernfalls gilt es als ungültig und wird nicht durchgesetzt. „

Angesichts dieses komplexen neuen Themas beginnt in diesem Frühjahr eine neue Runde von Vertragsverhandlungen. Alte, mittlere und junge Schauspieler, die ihre Karriere verlängern möchten, sind möglicherweise bereit, einige der Vorteile der KI-Technologie zu akzeptieren , aber ohne starken Vertragsschutz werden die Produzenten wahrscheinlich direkt KI-Technologie nutzen, um echte Schauspieler zu simulieren und hohe Gagen zu vermeiden

Ein Fanprojekt auf Twitch scheint auf eine solche Zukunft hinzuweisen. Der endlose Strom von KI-generiertem „Seinfeld“. Obwohl die Grafiken schrecklich sind, die computersynthetisierten Sounds lächerlich sind und die Qualität der Witze nicht schmeichelhaft ist, wird dies alles mit der Verbesserung der KI-Technologie möglicherweise nicht mehr möglich sein Noch wichtiger ist, dass der Schauspieler, der die Rolle des Jerry spielte, sich für die Verteidigung seiner Rechte einsetzte und damit das Ende dieses „endlosen“ Dramas bewirkte, das die Tür zu einer neuen Welt der Kreativität öffnete Keane von Adobe glaubt offenbar, dass KI und Cloud Computing ein breiteres Spektrum an kreativen Werkzeugen mit sich bringen und die Abhängigkeit von großen Serverfarmen für Bilder, Töne, visuelle Effekte und andere Elemente beseitigen werden, sodass jeder über die Rechenleistung verfügt, um hervorragende Produkte zu produzieren Videoinhalte und Sicherheitsgrundlage.

„Mit Hilfe von Cloud-Ressourcen kann jeder seine Geschichte von überall auf der Welt erzählen. Die Zusammenarbeit in allen Phasen ist überregional möglich und jeder kann jederzeit Meinungen austauschen und Ideen einbringen. „

Sicherheit ist auch für Filmemacher ein großes Thema, das nicht ignoriert werden darf. Keane erwähnte den Film „Plan C“, einen Dokumentarfilm über Abtreibung. Die Schöpfer müssen die Gesichter und Stimmen der Befragten stärker verwischen und gleichzeitig sicherstellen, dass dies der Fall ist Das gesammelte Originalmaterial wird niemals durchgesickert

Darüber hinaus hat die Verbreitung generativer KI, Deep Fakes und damit verbundener Probleme die Authentizität von Bildinhalten wichtiger denn je gemacht, Adobe, die New York Times, Canon und viele andere Medien Technologieunternehmen haben sich der „Content Authenticity Initiative“ angeschlossen

Aber Keanu Reeves, der Schauspieler des Science-Fiction-Klassikers „The Matrix“, ist in dieser Frage nicht optimistisch. Er sagte in dem Interview, dass der Einsatz von KI zur böswilligen Generierung von Videos durch Deep Fakes sind „sehr beängstigend“. Die von Reeves unterzeichneten Verträge enthalten oft entsprechende Klauseln, die es den Produzenten verbieten, seine Auftritte digital zu manipulieren. Dies geht auf einen Film vor Jahrzehnten zurück, als die Produzenten Spezialeffekte verwendeten, um ihm eine Träne ins Gesicht zu zaubern

.

Reeves sagte: „Diese Situation, in der Schauspieler ihre Autonomie verlieren, ist frustrierend. Wir können akzeptieren, dass unsere Performance-Clips bearbeitet werden, aber der Inhalt ist zumindest wahr. Sobald es das Stadium der Deep Fakes erreicht, hat der Schauspieler überhaupt keine Autonomie mehr.“ . Das ist sehr beängstigend und ich freue mich darauf, zu sehen, wie die Menschen auf diese Art von Technologie reagieren. Grundlage hierfür ist die Textbearbeitungsfunktion, die es Nutzern ermöglicht, mithilfe der Bearbeitungs-KI Dialogtexte aus Videos zu extrahieren und zu transkribieren und so eine Videobearbeitung zu realisieren. KI kann auch wichtige Soundbits hervorheben, einschließlich Rohschnittreferenzen für die endgültige Version, und schlüsselwortbasierte Suchbegriffe generieren, um schnell zu bestimmten Clips oder Dialogen zu navigieren. Es besteht kein Zweifel, dass dies eine neue und leistungsfähigere Möglichkeit zur Verwaltung von Projektmaterialien und -daten sein wird.

Keane betonte: „Sie können all diese Daten verwenden, um die endgültigen Medien zu polieren.“

Einige kleine Hersteller haben ebenfalls eine ähnliche Technologie auf den Markt gebracht. Sowohl Descript als auch Podcastle bieten Tools zum Erstellen digitaler Versionen von Sprache, mit denen Skripte in Textform gelesen werden können, ohne dass eine zusätzliche Bearbeitung erforderlich ist. Descript hat kürzlich auch textbasierte Videobearbeitungsfunktionen hinzugefügt, mit denen Podcasts und andere Videoinhalte erstellt werden können.

Redakteur Kendrick sagte, er habe die textbasierten Bearbeitungstools von Adobe verwendet, um einem Freund bei der schnellen Bearbeitung einer Minidokumentation zu helfen. Seiner Meinung nach ist diese textbasierte Bearbeitungsfunktion auch für professionelle Redakteure von großer Bedeutung. In der Vergangenheit mussten Produzenten/Redakteure oft mehrere Tage damit verbringen, das Filmmaterial zu sortieren, um sicherzustellen, dass die Materialien innerhalb eines engen Zeitrahmens schnell in ein Programm eingebunden werden konnten.

Hörbücher, Drehbücher, soziale Medien – KI ist überall

KI dringt in andere Unterhaltungsbereiche vor. Apple hat ein KI-Tool auf den Markt gebracht, das Kommentare für Hörbücher generieren kann und Autoren eine weitere Möglichkeit bietet, kostengünstige Audioversionen ihrer Projekte zu erstellen. Doch sobald die Nachricht bekannt wurde, äußerten professionelle Hörbuchsprecher und ihre Legionen von Fans heftigen Widerstand.

Ja, diese professionellen Synchronsprecher sind auf jeden Fall talentiert und können mit ihren faszinierenden Darbietungen und Klangfarben oft Farbe in die Werke bringen. Verglichen mit ihren Ergebnissen ist KI-generiertes Erzählen noch Zukunftsmusik.

Aber bei Büchern, die keine Bestseller sind, reicht das begrenzte Einkommen offensichtlich nicht aus, um den Menschen ein Hörerlebnis auf diesem Niveau zu ermöglichen. Derzeit sind KI-Tools eine gute Wahl, die sowohl kostengünstig ist als auch die Qualität des Erlebnisses bis zu einem gewissen Grad garantieren kann. Es ist dieser Nischenmarkt für das Hören von Büchern mit einer weltweiten Bewertung von etwa 1,5 Milliarden US-Dollar, den Apple im Auge hat.

Das Start-up-Unternehmen Filmusage versucht, mithilfe von KI Drehbuchelemente aufzuteilen, darunter Schauspieler, Requisiten, Kostüme, Fahrzeuge, Geräusche, Orte usw.

Was den Bereich der Kurzvideos betrifft, so basieren TikTok, Meta Reels und Alphabets YouTube Shorts alle auf maschinellem Lernen und KI-Tools, um „empfohlene“ Videos anzuzeigen, an denen Benutzer interessiert sein könnten, und streben danach, Werbung nahtloser und nahtloser in Videos zu integrieren Attraktive Art und Weise Das Seherlebnis kommt zusammen.

Rich Greenberg, Analyst bei der Finanzratingagentur LightShed Partners, erwähnte, dass Facebook sehr hohe Kosten gezahlt habe, als es auf KI-gesteuerte Inhaltsempfehlungen umstieg, aber „diese Tatsache beweist letztendlich, dass Zuckerberg seit seiner Gründung KI-Inhaltsempfehlungen durchgeführt hat.“ Facebook. Die zweite große richtige Entscheidung.“

Das obige ist der detaillierte Inhalt vonKI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen