Midjourney kann jetzt Video – und das ist erst der Anfang
Midjourney geht den nächsten logischen Schritt: Nach beeindruckenden Bildwelten kommt nun Bewegung ins Spiel. Mit dem neuen Image-to-Video-Feature verwandelt die Plattform ab sofort jedes KI-generierte Bild in einen 5-sekündigen Clip. Ganz ohne After Effects, Timeline oder Export-Klickerei.
Von Standbild zu Sequenz: So funktioniert’s
Das Feature ist aktuell nur über die Midjourney-Webplattform verfügbar – Discord-User müssen sich über den Button „Continue with Discord“ einloggen. Sobald das geschafft ist, reicht ein Klick auf „Animate Image“ in der eigenen Galerie.
Zur Auswahl stehen zwei Modi:
- Auto: Video wird direkt auf Basis des Bildes generiert.
- Manual: Ein zusätzlicher Prompt beeinflusst das Bewegungsschema.
Bewegung lässt sich außerdem mit Parametern steuern:
--motion low
: dezente Kamerabewegung, langsame Dynamik.--motion high
: deutlich mehr Action – mit dem Risiko glitchiger Übergänge.--raw
: weniger KI-Interpretation, mehr Kontrolle durch den Prompt.
Technisch betrachtet
Die Clips kommen aktuell in 480p daher. Die genaue Auflösung hängt vom Seitenverhältnis des Ausgangsbildes ab – ein 1:1-Format z. B. wird mit 624 × 624 Pixeln ausgegeben. Generiert werden immer vier Versionen à 5 Sekunden, die anschließend direkt auf der Seite abgespielt oder heruntergeladen werden können.
Besonders spannend: Videos lassen sich mehrfach verlängern – um jeweils 4 Sekunden, bis zu maximal 21 Sekunden. Wer also kleine Storylines oder visuelle Sequenzen bauen will, hat dafür jetzt die passenden Werkzeuge.
GPU-Realität: 8× teurer als ein Bild
Video-Generierung frisst GPU-Zeit – und zwar ordentlich: Ein einzelner Videojob kostet achtmal so viel wie ein normales Bild. Wer einen Pro- oder Mega-Plan hat, kann im günstigeren Relax Mode rendern. Alle anderen bleiben im schnellen (aber kostspieligen) Fast Mode.
Was das für Creator bedeutet
Midjourney eröffnet mit der neuen Funktion einen neuen Raum für visuelles Storytelling. Wo vorher nur ein schönes Bild stand, kann jetzt eine Szene entstehen – ein Clip, ein Reel, ein Loop. Für Marken, Creator und Studios ergeben sich dadurch spannende Use Cases:
- Schnelle Social Assets, ohne externes Motion Design.
- Visuelle Intros oder Mood-Elemente für Präsentationen.
- Mini-Storytelling aus einem einzigen Bild heraus.
Das alles funktioniert rein im Browser – kein Schnittprogramm nötig, kein Export, kein Frickeln mit Videocodecs.
Und was ist mit externen Bildern?
Auch das geht: Eigene Bilder können hochgeladen, als „Starting Frame“ ausgewählt und animiert werden. Die Bewegung wird dann durch einen optionalen Prompt gesteuert. Wichtig: Funktionen wie Style- oder Character-Reference sind dabei nicht kompatibel – es zählt nur das Bild und die Bewegung.
Fazit
Das Midjourney-Video-Feature ist ein echter Gamechanger für schnelle, KI-gestützte Content-Produktion. Noch sind die Möglichkeiten begrenzt – 480p, kurze Sequenzen, kein Upscaling. Aber das Ziel ist klar formuliert: Midjourney sieht dies als Zwischenschritt auf dem Weg zu Systemen, die ganze 3D-Welten in Echtzeit simulieren können.
Wer also bisher mit KI-Bildern arbeitet, sollte Bewegung ab sofort mitdenken. Denn Bilder, die sich bewegen, bleiben länger im Kopf.
— Brian 🎨 Bri Guy AI (@bri_guy_ai) June 19, 2025
Noch mehr Beispiele:
midjourney video 🧵
— Dreaming Tulpa 🥓👑 (@dreamingtulpa) June 19, 2025
show me your videos. no words. only videos 👇
Quellen:
https://docs.midjourney.com/hc/en-us/articles/37460773864589-Video
