DeepSeek V3: Spitzenleistung mit begrenzten Ressourcen

2025-01-23
DeepSeek V3: Spitzenleistung mit begrenzten Ressourcen

Das neue DeepSeek V3-Modell, trainiert auf nur 2048 H800-GPUs – ein Bruchteil der Ressourcen, die von Giganten wie OpenAI verwendet werden – erreicht oder übertrifft GPT-4 und Claude in mehreren Benchmarks. Die Trainingskosten von 5,5 Millionen US-Dollar sind deutlich geringer als die geschätzten 40 Millionen US-Dollar für GPT-4. Dieser Erfolg, der teilweise auf den US-amerikanischen Exportkontrollen beruht, die den Zugang zu High-End-GPUs einschränken, unterstreicht das Potenzial für Architekturinnovation und Algorithmusoptimierung gegenüber reiner Rechenleistung. Es ist ein überzeugendes Argument dafür, dass Ressourcenbeschränkungen paradoxerweise bahnbrechende Fortschritte in der KI-Entwicklung vorantreiben können.