Heim > Artikel > Technologie-Peripheriegeräte > Runways neues Feature „Dynamic Brush' schockierte erneut die KI-Welt: Einfach leicht malen und das Bild wird sofort lebendig.
Netizen: Ich kann mir nicht einmal vorstellen, wie fortschrittlich die Videotechnologie in einem Jahr sein wird.
Das zweiundfünfzigste Vorschauvideo löste erneut heftige Diskussionen im KI-Kreis aus
Gestern gab Runway bekannt, dass es die brandneue „Motion Brush“-Funktion im Videogenerierungstool Gen-2 einführen wird Mit dieser Methode können Sie die Bewegung des generierten Inhalts steuern
Dieses Mal müssen Sie nicht einmal Text eingeben, es reicht aus, nur Ihre Hände zu haben.
Wählen Sie eines der angegebenen Bilder aus, malen Sie einfach mit dem Pinsel auf eine bestimmte Stelle, und diese Stelle wird sich sofort bewegen
Ob es sich um fließendes Wasser, Wolken, Feuer, Rauch usw. handelt Die Charaktere können in hohem Maße in ihrer Dynamik wiederhergestellt werden. Ist das der legendäre „Midas, der Stein in Gold verwandelt“?
Nachdem die Internetnutzer es gelesen hatten, sagten sie: Ich kann mir nicht vorstellen, wie fortschrittlich die Videotechnologie in einem Jahr sein wird ...
Anfang 2023 ist die Erstellung von Videos aus Text immer noch eine sehr schwierige Aufgabe
Runway brachte im Februar dieses Jahres Gen-1 auf den Markt, das sehr funktionsreich ist, einschließlich Stilisierung, Storyboarding, Maskierung, Rendering, Anpassung und mehr. Es scheint, dass es sich hierbei um ein Tool handelt, das sich auf die „Bearbeitung“ von Videos konzentriert.
Aber im März dieses Jahres änderte sich alles: Es wurde die Funktion hinzugefügt, Videos aus Text und Bildern zu erstellen. Benutzer müssen nur Text, Bilder oder Text- und Bildbeschreibungen eingeben, und Gen-2 kann in einem Bruchteil der Zeit relevante Videos erstellen.
Dies ist das erste Text-zu-Video-Modell auf dem Markt, das für die öffentliche Nutzung verfügbar ist. Wenn Sie beispielsweise den Klartext „Die Nachmittagssonne scheint durch das New Yorker Loft-Fenster“ eingeben, generiert Gen-2 direkt das entsprechende Video
Mit ein paar Tipps und Gesten ist uns das nun möglich Um qualitativ hochwertige Videos zu erstellen und weiter zu bearbeiten, sind keine komplexe Videobearbeitungssoftware und langwierige Produktionsprozesse erforderlich.
Wenn Sie Midjourney und Gen-2, zwei Vincent-Bildartefakte und Vincent-Videoartefakte, kombinieren, können Benutzer diese bearbeiten, ohne einen Stift zu berühren . Möglichkeit, Blockbuster-Werke direkt zu erstellen
Natürlich hat Gen-2 auch Konkurrenten, einer davon ist Pika Labs, und letzterer ist auch kostenlos
Das obige Bild wurde von Pika Labs generiert
Für einige Benutzer ist dieser verrückte Trend gespannt: „Im Jahr 2024 wird die Verbindung zwischen Pika Labs und Runway auf jeden Fall interessant sein.“
Es wird gemunkelt, dass OpenAI auch über Technologie im Zusammenhang mit der Videogenerierung verfügt. Einige Internetnutzer sagten: „Da frage ich mich, wie gut das Any-to-Any-Modell von OpenAI bei der Erstellung von Videos ist, denn dieses Unternehmen ist anderen normalerweise voraus.“
Zukünftige Videos und Filme Wird die Produktionsbranche dadurch gestört? ?
Das obige ist der detaillierte Inhalt vonRunways neues Feature „Dynamic Brush' schockierte erneut die KI-Welt: Einfach leicht malen und das Bild wird sofort lebendig.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!