Metas neues KI-System „Movie Gen“ kann Videos aus einem einzelnen Foto per Deepfake erstellen

Metas neues KI-System „Movie Gen“ kann Videos aus einem einzelnen Foto per Deepfake erstellen

Am Freitag kündigte Meta eine Vorschau von an Filmgeneine neue Suite von KI-Modellen zur Erstellung und Bearbeitung von Video, Audio und Bildern, einschließlich der Erstellung eines realistischen Videos aus einem einzelnen Foto einer Person. Das Unternehmen behauptet, dass die Modelle andere Videosynthesemodelle bei der Bewertung durch Menschen übertreffen und uns einer Zukunft näher bringen, in der jeder auf Abruf ein vollständiges Video zu jedem Thema synthetisieren kann.

Das Unternehmen hat noch keine Pläne, wann oder wie es diese Funktionen der Öffentlichkeit zugänglich machen wird, aber Meta sagt, Movie Gen sei ein Tool, das es Menschen ermöglichen könnte, „ihre inhärente Kreativität zu steigern“, anstatt menschliche Künstler und Animatoren zu ersetzen. Das Unternehmen stellt sich zukünftige Anwendungen vor, beispielsweise die einfache Erstellung und Bearbeitung von „Day in the Life“-Videos für Social-Media-Plattformen oder die Erstellung personalisierter animierter Geburtstagsgrüße.

Movie Gen baut auf Metas früherer Arbeit in der Videosynthese auf und folgt dem Make-A-Scene-Videogenerator von 2022 und dem Emu-Bildsynthesemodell. Mithilfe von Textaufforderungen zur Orientierung kann dieses neueste System erstmals benutzerdefinierte Videos mit Sounds erstellen, bestehende Videos bearbeiten und Änderungen einfügen sowie Bilder von Personen in realistische personalisierte Videos umwandeln.

Ein KI-generiertes Video eines herumschwimmenden Nilpferdbabys, erstellt mit Meta Movie Gen.

Wenn es um KI-Videosynthese geht, ist Meta nicht die Einzige, die es gibt. Google stellte im Mai ein neues Modell namens „Veo“ vor, und Meta sagt, dass seine Movie-Gen-Ausgaben in menschlichen Präferenztests OpenAIs Sora, Runway Gen-3 und das chinesische Videomodell übertrafen Kling.

Das Videogenerierungsmodell von Movie Gen kann aus Textbeschreibungen oder einer Bildeingabe hochauflösende 1080p-Videos mit einer Länge von bis zu 16 Sekunden und 16 Bildern pro Sekunde erstellen. Meta behauptet, dass das Modell komplexe Konzepte wie Objektbewegung, Subjekt-Objekt-Interaktionen und Kamerabewegungen verarbeiten kann.

KI-generiertes Video von Meta Movie Gen mit der Aufforderung: „Ein Geist in einem weißen Bettlaken steht vor einem Spiegel. Das Spiegelbild des Geistes ist im Spiegel zu sehen. Der Geist befindet sich auf einem staubigen Dachboden, gefüllt mit alten Balken und stoffbezogenen Möbeln.“ . Der Dachboden spiegelt sich im Spiegel. Das Licht ist kühl und natürlich.

Dennoch hängt, wie wir bei früheren KI-Videogeneratoren gesehen haben, die Fähigkeit von Movie Gen, zusammenhängende Szenen zu einem bestimmten Thema zu generieren, wahrscheinlich von den Konzepten ab, die in den Beispielvideos gefunden werden, die Meta zum Trainieren seines Videosynthesemodells verwendet hat. Es ist zu bedenken, dass ausgewählte Ergebnisse von Videogeneratoren oft erheblich von typischen Ergebnissen abweichen und die Erzielung eines kohärenten Ergebnisses möglicherweise viele Versuche und Irrtümer erfordert.

Leave a Comment

Your email address will not be published. Required fields are marked *