MiMo-7B: 7 Milliarden Parameter großes Sprachmodell für das logische Schließen übertrifft 32 Milliarden Parameter Modelle

2025-04-30
MiMo-7B: 7 Milliarden Parameter großes Sprachmodell für das logische Schließen übertrifft 32 Milliarden Parameter Modelle

Xiaomi stellt MiMo-7B vor, ein 7 Milliarden Parameter großes Sprachmodell, das auf logisches Schließen ausgelegt ist. Durch optimierte Pre-Training-Daten und -Strategien sowie innovative Reinforcement-Learning-Techniken erzielt MiMo-7B außergewöhnliche Ergebnisse bei mathematischen und Code-Reasoning-Aufgaben und übertrifft sogar größere Modelle mit 32 Milliarden Parametern. Das Open-Source-Modell umfasst Checkpoints für das Basismodell, das SFT-Modell und die RL-trainierten Modelle und bietet wertvolle Ressourcen für die Entwicklung leistungsstarker Reasoning-LLMs.