Weltweit schnellstes KI-Sprachmodell für das Schlussfolgern jetzt in der Cerebras Inference Cloud verfügbar

2025-07-23
Weltweit schnellstes KI-Sprachmodell für das Schlussfolgern jetzt in der Cerebras Inference Cloud verfügbar

Cerebras Systems gab heute die Einführung von Qwen3-235B mit vollständiger 131K-Kontextunterstützung auf seiner Inferenz-Cloud-Plattform bekannt. Dieser Meilenstein stellt einen Durchbruch in der Leistung von KI-Modellen dar, der Spitzentechnologie mit beispielloser Geschwindigkeit zu einem Zehntel der Kosten von Closed-Source-Modellen kombiniert und die Bereitstellung von KI in Unternehmen grundlegend verändert. Qwen3-235B erreicht Geschwindigkeiten von 1.500 Tokens pro Sekunde und reduziert die Antwortzeiten von 1-2 Minuten auf 0,6 Sekunden. Die erweiterte Kontextlänge von 131K ermöglicht die Generierung von Produktionscode durch die Verarbeitung großer Codebasen und komplexer Dokumente. Eine Partnerschaft mit Cline integriert Qwen-Modelle direkt in dessen VS Code-Editor und bietet erhebliche Geschwindigkeitsverbesserungen.

Technologie