Cerebras bringt blitzschnelle KI-Coding-Pläne heraus: Pro & Max

2025-08-02
Cerebras bringt blitzschnelle KI-Coding-Pläne heraus: Pro & Max

Cerebras präsentiert zwei neue KI-Coding-Pläne: Code Pro (50 $ pro Monat) und Code Max (200 $ pro Monat), beide angetrieben von Alibabas Qwen3-Coder, einem führenden Open-Weight-Coding-Modell. Mit Geschwindigkeiten von bis zu 2000 Tokens pro Sekunde, einem Kontextfenster von 131.000 Tokens und ohne proprietäre IDE-Bindung oder wöchentliche Limits bietet es eine sofortige Codegenerierung. Benutzer können es in ihre bevorzugten KI-IDEs integrieren, für einen nahtlosen Workflow. Code Pro ist ideal für einzelne Entwickler und kleinere Projekte, während Code Max die Anforderungen von Vollzeitentwicklern mit hohem Volumen erfüllt.

Mehr lesen
Entwicklung

Weltweit schnellstes KI-Sprachmodell für das Schlussfolgern jetzt in der Cerebras Inference Cloud verfügbar

2025-07-23
Weltweit schnellstes KI-Sprachmodell für das Schlussfolgern jetzt in der Cerebras Inference Cloud verfügbar

Cerebras Systems gab heute die Einführung von Qwen3-235B mit vollständiger 131K-Kontextunterstützung auf seiner Inferenz-Cloud-Plattform bekannt. Dieser Meilenstein stellt einen Durchbruch in der Leistung von KI-Modellen dar, der Spitzentechnologie mit beispielloser Geschwindigkeit zu einem Zehntel der Kosten von Closed-Source-Modellen kombiniert und die Bereitstellung von KI in Unternehmen grundlegend verändert. Qwen3-235B erreicht Geschwindigkeiten von 1.500 Tokens pro Sekunde und reduziert die Antwortzeiten von 1-2 Minuten auf 0,6 Sekunden. Die erweiterte Kontextlänge von 131K ermöglicht die Generierung von Produktionscode durch die Verarbeitung großer Codebasen und komplexer Dokumente. Eine Partnerschaft mit Cline integriert Qwen-Modelle direkt in dessen VS Code-Editor und bietet erhebliche Geschwindigkeitsverbesserungen.

Mehr lesen
Technologie

Cerebras bricht Inferenzgeschwindigkeitsrekord mit Llama 4 Maverick 400B

2025-05-31
Cerebras bricht Inferenzgeschwindigkeitsrekord mit Llama 4 Maverick 400B

Cerebras Systems hat eine bahnbrechende Inferenzgeschwindigkeit von über 2.500 Tokens pro Sekunde (TPS) auf Metas Llama 4 Maverick 400B-Parametermodell erreicht, mehr als das Doppelte der Leistung von Nvidia. Diese rekordverdächtige Geschwindigkeit, unabhängig von Artificial Analysis verifiziert, ist entscheidend für KI-Anwendungen wie Agents, Codegenerierung und komplexes Reasoning, wodurch die Latenz deutlich reduziert und die Benutzererfahrung verbessert wird. Im Gegensatz zu Nvidias Lösung, die auf nicht verfügbare benutzerdefinierte Optimierungen angewiesen war, ist die Leistung von Cerebras über die kommende API von Meta leicht zugänglich und bietet Entwicklern und KI-Anwendern im Unternehmen eine überlegene Lösung.

Mehr lesen
KI