Free cookie consent management tool by TermsFeed Generator Update cookies preferences

WTW: Meta kauft bei Scale AI ein, Google zieht sich zurück, China released 1M-Kontext-LLM

WTW 20. Juni 2025

TLDR: Die Essenz der Woche

  • Meta übernimmt 49 % von Scale AI – und bringt damit Google & Microsoft in Zugzwang.
  • Google reduziert seine Ausgaben bei Scale drastisch – von 200 Mio. auf null?
  • MiniMax M1: Ein neues Open-Source-LLM aus China beeindruckt mit einem 1-Million-Token-Kontextfenster.
  • Midjourney macht jetzt Video – aus Bildern werden kurze animierte Clips.


Diese Woche war ein Paradebeispiel dafür, wie sich strategische Allianzen in der KI-Welt verschieben – und wie China mit Open-Source-Innovationen aufholt.



Meta + Scale AI: Ein Deal mit Nebenwirkungen

Meta hat sich 49 % von Scale AI für 14,1 Mrd. USD gesichert. Das Ziel: Zugriff auf Experten, Trainingsdaten und ein eigenes KI-Team unter Leitung von Scale-CEO Alexandr Wang, der künftig direkt Mark Zuckerberg unterstellt ist.


Scale war bisher auch Dienstleister für Google, Microsoft & Co. – das wird jetzt zum Problem. Google will laut Reuters seine 200 Mio. USD Jahresbudget bei Scale streichen und sondiert bereits Alternativen.

Auch bei Microsoft soll es Überlegungen geben, die Zusammenarbeit zu reduzieren. OpenAI habe das laut Insidern sogar schon vor Monaten getan.

Der Deal könnte Signalwirkung haben: Wenn KI-Startups von Tech-Riesen teilübernommen werden, entsteht automatisch ein Interessenkonflikt für andere Kunden – und das Geschäftsmodell steht auf dem Prüfstand.


MiniMax M1: Chinas Open-Source-Konter gegen GPT-4o

Das chinesische Startup MiniMax hat diese Woche ein LLM unter der Apache-2.0-Lizenz veröffentlicht, das für Aufmerksamkeit sorgt:

Highlights:

  • 1 Million Input-Tokens, 80.000 Output-Tokens
  • 456 Mrd. Parameter
  • Nur 25 % der FLOPs von DeepSeek-R1
  • Trainingskosten: gerade einmal 534.700 USD

Das Modell kommt in zwei Varianten (40k und 80k Budget) und basiert auf MiniMax-Text-01. Besonders spannend: die extreme Effizienz beim Training und das enorme Kontextfenster.

Für viele Open-Source-Projekte könnte MiniMax M1 zur neuen Standard-LLM-Infrastruktur werden – besonders für datenintensive Aufgaben und Retrieval-Augmented-Generierung.


Midjourney macht jetzt Video

Die beliebte KI-Bildplattform Midjourney hat ein neues Feature:
Aus jedem Bild werden 5-Sekunden-Clips.

Mehr direkt hier:
👉 Midjourney kann jetzt Video – und das ist erst der Anfang


Quellen:

Nach Meta-Einsteig: Google zieht sich offenbar bei Scale AI als Kunde zurück
Diese Woche stieg der Meta-Konzern mit 49 Prozent bei Scale AI ein. Das hat anscheinend auch Auswirkungen auf die restliche Scale-Kundschaft.
Neues Open-Source-LLM aus China mit sehr großem Kontextfenster
Das chinesische Startup MiniMax, bekannt vor allem durch seinen KI-Videogenerator Hailuo, hat nun mit MiniMax-M1 ein großes Sprachmodell unter der Apache-2-Lizenz veröffentlicht, das über ein Kontextfenster von 1 Million Input-Tokens und bis zu 80 000 Output-Tokens verfügt. Das Kontextfenster in großen Sprachmodellen (LLMs) bezeichnet die maximale Anzahl von Token, die das Modell gleichzeitig verarbeiten kann. Token sind die Grundeinheiten eines Textes, die ganze Wörter, Teile von Wörtern, Satzzeichen oder Codesymbole umfassen können. Diese Token werden in numerische Vektoren umgewandelt, die das Modell verwendet, um die Bedeutung von Aussagen darzustellen und zu manipulieren. Ein Vergleich verdeutlich die außerordentliche Größe des hier verwendeten Kontextfensters: OpenAIs GPT-4o hat ein Kontextwindow von nur 128 000 Token, was ausreichen würde, um dem Modell textliche Informationen etwa im Umfang eines Romans zu übermitteln. Mit einer Million Token kann MiniMax-M1 dagegen eine ganze Büchersammlung entgegennehmen. Bei seinen Berechnungen soll es nur 25 Prozent der Gleitkommaoperationen benötigen, die DeepSeek-R1 für jeweils 100 000 Token braucht. Das Modell ist in zwei Varianten erhältlich: MiniMax-M1-40k und MiniMax-M1-80k, die sich durch ihre unterchiedlichen Budgets für die Ausgaben unterscheiden. Die Architektur basiert auf dem früheren MiniMax-Text-01 des Unternehmens und umfasst 456 Milliarden Parameter. Ein herausragendes Merkmal der neuen Version sind die Ausbildungskosten des Modells. MiniMax berichtet, dass das M1-Modell mithilfe von Large-Scale Reinforcement Learning mit einer in diesem Bereich selten gesehenen Effizienz trainiert wurde, bei der die Gesamtkosten „nur“ 534 700 US-Dollar betrugen.

Tags