Adobe stellt KI-Videotools vor, die später in diesem Jahr erscheinen

Adobe stellt KI-Videotools vor, die später in diesem Jahr erscheinen

Am Mittwoch hat Adobe enthüllt Firefly AI-Tools zur Videogenerierung, die später in diesem Jahr als Betaversion erscheinen werden. Wie viele Dinge im Zusammenhang mit KI sind die Beispiele gleichermaßen faszinierend und erschreckend, da das Unternehmen langsam Tools integriert, die einen Großteil der kreativen Arbeit automatisieren sollen, für die seine geschätzte Benutzerbasis heute bezahlt wird. In Anlehnung an die Verkaufsmasche mit KI, die man auch anderswo in der Technologiebranche findet, stellt Adobe das Ganze als ergänzende Technologie dar, die „dazu beiträgt, die Langeweile aus der Nachbearbeitung zu nehmen“.

Adobe beschreibt seine neuen KI-Tools für Text-zu-Video, Generative Extend (das in Premiere Pro verfügbar sein wird) und Bild-zu-Video, die auf Firefly basieren, als hilfreich für Editoren bei Aufgaben wie „Lücken im Filmmaterial zu überwinden, unerwünschte Objekte aus einer Szene zu entfernen, Jump-Cut-Übergänge zu glätten und nach dem perfekten B-Roll zu suchen“. Das Unternehmen sagt, die Tools würden Videoeditoren „mehr Zeit geben, neue kreative Ideen zu entwickeln, den Teil ihrer Arbeit, den sie lieben“. (Wenn man Adobe wörtlich nimmt, muss man davon ausgehen, dass Arbeitgeber ihre Anforderungen an die Leistung von Editoren nicht einfach erhöhen werden, wenn die Branche diese KI-Tools erst einmal vollständig übernommen hat. Oder weniger bezahlen. Oder weniger Leute einstellen. Aber ich schweife ab.)

Mit Firefly Text-to-Video können Sie – Sie ahnen es schon – KI-generierte Videos aus Textaufforderungen erstellen. Es enthält aber auch Tools zur Steuerung von Kamerawinkel, Bewegung und Zoom. Es kann eine Aufnahme mit Lücken in der Zeitleiste aufnehmen und die Lücken füllen. Es kann sogar ein Standbild als Referenz verwenden und es in ein überzeugendes KI-Video verwandeln. Adobe sagt, dass seine Videomodelle sich durch „Videos der natürlichen Welt“ auszeichnen und dabei helfen, ohne großes Budget spontan Establishing Shots oder B-Rolls zu erstellen.

Ein Beispiel dafür, wie überzeugend die Technologie zu sein scheint, finden Sie im Promo-Video von Adobe:

Obwohl es sich hier um von einem Unternehmen zusammengestellte Beispiele handelt, das Ihnen seine Produkte verkaufen möchte, ist ihre Qualität unbestreitbar. Detaillierte Textaufforderungen für eine Einstellungsaufnahme eines feurigen Vulkans, eines Hundes, der in einem Feld voller Wildblumen chillt, oder (um zu zeigen, dass das Unternehmen auch mit dem Fantastischen umgehen kann) Miniatur-Wollmonster, die eine Tanzparty veranstalten, erzeugen genau das. Wenn diese Ergebnisse repräsentativ für die typische Leistung der Tools sind (was kaum garantiert ist), dann werden der Fernseh-, Film- und Werbeproduktion bald einige leistungsstarke Abkürzungen zur Verfügung stehen – im Guten wie im Schlechten.

Adobes Beispiel für Bild-zu-Video beginnt mit einem hochgeladenen Bild einer Galaxie. Eine Textaufforderung fordert es auf, es in ein Video umzuwandeln, das aus dem Sternensystem herauszoomt und das Innere eines menschlichen Auges zeigt. Die Demo von Generative Extend des Unternehmens zeigt zwei Menschen, die über einen Waldbach laufen; ein KI-generiertes Segment füllt eine Lücke im Filmmaterial. (Es war so überzeugend, dass ich nicht sagen konnte, welcher Teil der Ausgabe KI-generiert war.)

Standbild aus einem Adobe-Video, das eine Textaufforderung zeigt, die eine stimmungsvolle Aufnahme eines Mannes auf einer verregneten Straße erzeugt.

Adobe

Reuters Berichte dass das Tool zumindest zunächst nur fünfsekündige Clips generieren wird. Adobe muss allerdings zugutehalten, dass sein Firefly-Videomodell so konzipiert ist, dass es kommerziell sicher ist und nur mit Inhalten trainiert wird, für deren Verwendung das Unternehmen eine Genehmigung hat. „Wir trainieren sie nur mit der Adobe Stock-Datenbank mit Inhalten, die 400 Millionen Bilder, Illustrationen und Videos enthält, die so kuratiert sind, dass sie kein geistiges Eigentum, keine Markenzeichen oder erkennbare Charaktere enthalten“, sagte Alexandru Costin, Vizepräsident für Generative KI bei Adobe, Reuters. Das Unternehmen betonte auch, dass es nie Schulungen an der Arbeit der Benutzer durchführt. Ob es seine Benutzer jedoch arbeitslos macht, ist eine ganz andere Frage.

Adobe sagt, dass seine neuen Videomodelle noch in diesem Jahr als Betaversion verfügbar sein werden. Sie können sich für eine Warteliste anmelden um sie auszuprobieren.

Leave a Comment

Your email address will not be published. Required fields are marked *