Mistral Small 3: Geschwindigkeitsoptimiertes Open-Source-Modell mit 24 Milliarden Parametern
2025-01-30
Mistral AI hat Mistral Small 3 vorgestellt, ein auf Geschwindigkeit und Leistung optimiertes Modell mit 24 Milliarden Parametern unter der Apache 2.0-Lizenz. Es übertrifft größere Modelle wie Llama 3.3 70B und Qwen 32B um mehr als das Dreifache an Geschwindigkeit und erreicht über 81 % Genauigkeit auf MMLU. Es ist ideal für generative KI-Aufgaben, die schnelle Reaktionszeiten erfordern. Mistral Small 3 läuft auf einer einzelnen RTX 4090 oder einem Macbook mit 32 GB RAM und ist über Hugging Face und andere Plattformen verfügbar.
KI