Heim >Technologie-Peripheriegeräte >KI >Runway Act-One Guide: Ich habe mich gefilmt, um es zu testen
Dieser Blog-Beitrag teilt meine Erfahrung mit dem neuen Act-One-Animation-Tool von Runway ML und umfasst sowohl seine Weboberfläche als auch die Python-API. Während des Versprechens waren meine Ergebnisse weniger beeindruckend als erwartet.
Möchten Sie generative KI untersuchen? Lernen Sie, LLMs in Python direkt in Ihrem Browser zu verwenden! starten Sie jetzt
Was ist Runway Act-One?
Runway Act-One Animate Still Charakterbilder mithilfe der Videoeingabe. Es spiegelt die Gesichtsbewegungen eines menschlichen Schauspielers auf ein statisches Charakterbild wider. Dies vereinfacht die Charakteranimation und macht sie über hochqualifizierte Fachkräfte hinaus zugänglich. Es funktioniert mit verschiedenen Charakterstilen, einschließlich animierter, filmischer und realistischer Charaktere. Das Erstellen eines Dialogs ist möglich, indem mehrere kurze Videos kombiniert werden.
Meine Testerfahrung:
act-One erfordert ein Abonnement. Ich habe den $ 15/Monat -Plan verwendet (750 Credits). Die Benutzeroberfläche ist benutzerfreundlich. Sie wählen das Fahrvideo und das Zeichenbild aus. Meine Tests, die einen Hundcharakter verwenden, ergaben gemischte Ergebnisse. Die Gesichtsausdrücke waren manchmal subtil oder fehlten auch mit klaren Ausdrücken in meinem Fahrvideo.
Verwendung benutzerdefinierter Zeichenbilder als schwierig; Die Landebahn bemühte sich, Gesichter in mehreren dall-e 3 erzeugten Bildern zu erkennen.
Die Verwendung menschlicher Zeichen ergab jedoch viel bessere Ergebnisse mit höherem Fidelität.
Landebahn Gen-3 Alpha-Integration:
Runway's Gen-3 Alpha, das Videos aus Standbildern und Textaufforderungen erstellt, ergänzt Act-One. Gen-3 Alpha kann breitere Szenen erzeugen, während Act-One detaillierte Nahaufnahmen liefert.
Landebahn ML Python API:
Runway bietet eine Python-API an (derzeit fehlt ACT-One-Unterstützung, aber Gen-3 Alpha ist verfügbar). In diesem Abschnitt wird die Erstellung, die Preisgestaltung, die Einrichtung und der Beispielcode der API -Schlüssel zum Generieren von Videos beschrieben. Die API verwendet Credits, die von Abonnementkrediten getrennt sind.
Schlussfolgerung:
act-One zeigt vielversprechend, muss aber verfeinert werden. Während die Integration mit Gen-3 Alpha überzeugend ist, behindern die aktuellen Einschränkungen von Act-One (insbesondere mit benutzerdefinierten Zeichen) seine weit verbreitete Benutzerfreundlichkeit. Die Python -API bietet eine leistungsstarke Alternative für die programmatische Videogenerierung. Weiterentwicklung ist erforderlich, um ihr Potenzial vollständig auszuschöpfen. Weitere Informationen zur AI-Videogenerierung finden Sie in den folgenden Beiträgen: Meta Movie Gen Guide , Landebahn Gen-3 Alpha , Top 7 AI-Videogeneratoren , OpenAIs Sora . (Denken Sie daran, klammernde Links durch tatsächliche Links zu ersetzen.)
Das obige ist der detaillierte Inhalt vonRunway Act-One Guide: Ich habe mich gefilmt, um es zu testen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!