Free cookie consent management tool by TermsFeed Generator Update cookies preferences

Photo by Jonathan Kemper / Unsplash

Midjourney kann jetzt Video – und das ist erst der Anfang

midjourney 20. Juni 2025

Midjourney geht den nächsten logischen Schritt: Nach beeindruckenden Bildwelten kommt nun Bewegung ins Spiel. Mit dem neuen Image-to-Video-Feature verwandelt die Plattform ab sofort jedes KI-generierte Bild in einen 5-sekündigen Clip. Ganz ohne After Effects, Timeline oder Export-Klickerei.

Von Standbild zu Sequenz: So funktioniert’s

Das Feature ist aktuell nur über die Midjourney-Webplattform verfügbar – Discord-User müssen sich über den Button „Continue with Discord“ einloggen. Sobald das geschafft ist, reicht ein Klick auf „Animate Image“ in der eigenen Galerie.

Zur Auswahl stehen zwei Modi:

  • Auto: Video wird direkt auf Basis des Bildes generiert.
  • Manual: Ein zusätzlicher Prompt beeinflusst das Bewegungsschema.

Bewegung lässt sich außerdem mit Parametern steuern:

  • --motion low: dezente Kamerabewegung, langsame Dynamik.
  • --motion high: deutlich mehr Action – mit dem Risiko glitchiger Übergänge.
  • --raw: weniger KI-Interpretation, mehr Kontrolle durch den Prompt.

Technisch betrachtet

Die Clips kommen aktuell in 480p daher. Die genaue Auflösung hängt vom Seitenverhältnis des Ausgangsbildes ab – ein 1:1-Format z. B. wird mit 624 × 624 Pixeln ausgegeben. Generiert werden immer vier Versionen à 5 Sekunden, die anschließend direkt auf der Seite abgespielt oder heruntergeladen werden können.

Besonders spannend: Videos lassen sich mehrfach verlängern – um jeweils 4 Sekunden, bis zu maximal 21 Sekunden. Wer also kleine Storylines oder visuelle Sequenzen bauen will, hat dafür jetzt die passenden Werkzeuge.

GPU-Realität: 8× teurer als ein Bild

Video-Generierung frisst GPU-Zeit – und zwar ordentlich: Ein einzelner Videojob kostet achtmal so viel wie ein normales Bild. Wer einen Pro- oder Mega-Plan hat, kann im günstigeren Relax Mode rendern. Alle anderen bleiben im schnellen (aber kostspieligen) Fast Mode.

Was das für Creator bedeutet

Midjourney eröffnet mit der neuen Funktion einen neuen Raum für visuelles Storytelling. Wo vorher nur ein schönes Bild stand, kann jetzt eine Szene entstehen – ein Clip, ein Reel, ein Loop. Für Marken, Creator und Studios ergeben sich dadurch spannende Use Cases:

  • Schnelle Social Assets, ohne externes Motion Design.
  • Visuelle Intros oder Mood-Elemente für Präsentationen.
  • Mini-Storytelling aus einem einzigen Bild heraus.

Das alles funktioniert rein im Browser – kein Schnittprogramm nötig, kein Export, kein Frickeln mit Videocodecs.

Und was ist mit externen Bildern?

Auch das geht: Eigene Bilder können hochgeladen, als „Starting Frame“ ausgewählt und animiert werden. Die Bewegung wird dann durch einen optionalen Prompt gesteuert. Wichtig: Funktionen wie Style- oder Character-Reference sind dabei nicht kompatibel – es zählt nur das Bild und die Bewegung.

Fazit

Das Midjourney-Video-Feature ist ein echter Gamechanger für schnelle, KI-gestützte Content-Produktion. Noch sind die Möglichkeiten begrenzt – 480p, kurze Sequenzen, kein Upscaling. Aber das Ziel ist klar formuliert: Midjourney sieht dies als Zwischenschritt auf dem Weg zu Systemen, die ganze 3D-Welten in Echtzeit simulieren können.

Wer also bisher mit KI-Bildern arbeitet, sollte Bewegung ab sofort mitdenken. Denn Bilder, die sich bewegen, bleiben länger im Kopf.


Noch mehr Beispiele:


Quellen:

https://docs.midjourney.com/hc/en-us/articles/37460773864589-Video

Animierte KI-Bilder: Midjourney veröffentlicht sein erstes Videomodell
Nach vielen Monaten voller Gerüchte hat Midjourney nun sein erstes Videomodell vorgestellt. Es ist laut Midjourney ein Zwischenschritt auf dem Weg zu KI-Systemen, die ganze Welten in Echtzeit simulieren können sollen.

Tags