
Xiaomi zeigt’s den Großen: 7B-KI schlägt 32B-Modelle! MiMo-7B überrascht in Benchmarks – beweist Xiaomi, dass Training mehr zählt als Größe? Was steckt hinter dem Wundermodell? Kurzfassung | Andreas Becker, 01.05.25
Flux Schnell | All-AI.de EINLEITUNG Während viele KI-Modelle immer größer werden, schlägt Xiaomi eine andere Richtung ein. Mit dem MiMo-7B bringt der Tech-Konzern ein kompaktes Sprachmodell mit nur sieben Milliarden Parametern an den Start – und erzielt dennoch Top-Werte in komplexen Benchmarks. Das Ziel: zeigen, dass intelligentes Training wichtiger ist als pure Größe. Aber kann ein kleines Modell wirklich mit den Großen mithalten? NEWS Trainingsqualität statt Parameterwahn In einer Zeit, in der Open-Source-Modelle wie Qwen oder Mistral mit bis zu 32 Milliarden Parametern protzen, geht Xiaomi mit dem MiMo-7B bewusst einen anderen Weg. Das Modell wurde mit rund 25 Billionen Tokens trainiert, wobei der Fokus klar auf Mathematik und Programmierung lag. Neu entwickelte Extraktionstools für Formeln und Code sorgten dafür, dass MiMo-7B frühzeitig mit anspruchsvollen Aufgaben konfrontiert wurde – eine gezielte Vorbereitung auf Reasoning-Aufgaben. Zudem setzt Xiaomi auf synthetische Daten. In einer dreistufigen Datenstrategie mischen sich reale und generierte Inhalte – ein Ansatz, der es dem Modell ermöglicht, auch komplexe Zusammenhänge zu abstrahieren. Ent*******nd ist dabei das Multi-Token Prediction-Verfahren: Statt einzelner Token sagt das Modell gleich mehrere voraus. Das beschleunigt nicht nur die Ausgabe, sondern verbessert auch die Konsistenz der Antworten. Reinforcement Learning mit Sinn für Schwierigkeit Nach dem Vortraining folgte der nächste Schritt: MiMo-7B wurde mit zwei RL-Varianten weiterentwickelt – direkt aus dem Basismodell (RL-Zero) und aus einer feinjustierten Version mit Supervised Fine-Tuning (RL). Beide Varianten griffen auf über 130.000 Aufgaben aus Mathematik und Coding zurück – alle verifizierbar, alle realitätsnah. Für Programmcode entwickelte Xiaomi ein eigenes Belohnungssystem: Der sogenannte „Test Difficulty Driven Reward“ gewichtet Aufgaben nach Schwierigkeitsgrad. Das verhindert, dass einfache Aufgaben überrepräsentiert sind und schwierige untergehen – ein häufiges Problem in klassischen RL-Ansätzen. Gleichzeitig sorgt ein intelligentes Sampling-System dafür, dass bereits gut gelöste Aufgaben nur noch selten wiederholt werden – das spart Ressourcen und stabilisiert das Training. Benchmark-Überraschung aus Fernost Die Ergebnisse sprechen für sich. Im AIME 2025 erreicht MiMo-7B-RL satte 55,4 Punkte – und lässt damit OpenAIs o1-mini deutlich hinter sich. Im Coding-Benchmark LiveCodeBench v5 erzielt das Modell 57,8 %, fast 16 Punkte mehr als Alibabas deutlich größeres QwQ-Preview mit 32 Milliarden Parametern. Damit reiht sich MiMo-7B in eine neue Generation kompakter Modelle ein, die trotz geringer Größe beeindruckende Leistungen liefern – und dabei Ressourcen schonen. Xiaomi positioniert sich damit klar gegen den Trend zur Modellinflation und macht deutlich: Fortschritt misst sich nicht nur in Parameterzahlen. AUSBLICK David gegen Goliath – mit Köpfchen Xiaomis MiMo-7B ist mehr als ein technisches Experiment. Es ist ein Statement. In einer Branche, in der Rechenpower oft mit Fortschritt verwechselt wird, zeigt MiMo, dass durchdachtes Training und strategische Modellpflege zu konkurrenzfähigen Ergebnissen führen können. Die Open-Source-Veröffentlichung setzt ein weiteres Signal: Xiaomi will nicht nur mithalten, sondern mitgestalten – und lädt die Community ein, daran teilzuhaben. Es ist gut möglich, dass MiMo-7B nicht nur ein effizientes Modell ist, sondern ein Vorbote für eine neue Generation schlanker, smarter Sprach-KIs. UNTERSTÜTZUNG Hat dir ein Artikel gefallen oder ein Tutorial geholfen? Du kannst uns weiterhelfen, indem du diese Seite weiterempfiehlst, uns auf Youtube abonnierst oder dich per Paypal an den Serverkosten beteiligst. Wir sind für jede Unterstützung dankbar. Danke. PayPal - Kaffee Youtube - Kanal KURZFASSUNG
Xiaomi stellt mit MiMo-7B ein kompaktes, aber leistungsfähiges Sprachmodell mit nur 7 Milliarden Parametern vor.
Dank effizientem Training, Multi-Token Prediction und intelligentem RL-Belohnungssystem schlägt es deutlich größere Modelle in Benchmarks.
MiMo-7B erzielt in AIME 2025 und LiveCodeBench v5 Top-Werte – und bleibt dabei ressourcenschonend und offen zugänglich.
Das Modell beweist, dass durchdachtes Training oft wichtiger ist als reine Modellgröße.
QUELLEN
THE DECODER
GitHub – Xiaomi MiMo
Hugging Face – MiMo-7B-RL
GizChina
Weiterlesen...