Cerebras lanza planes de codificación de IA ultrarrápidos: Pro y Max

2025-08-02
Cerebras lanza planes de codificación de IA ultrarrápidos: Pro y Max

Cerebras presenta dos nuevos planes de codificación de IA: Code Pro (50 $/mes) y Code Max (200 $/mes), ambos impulsados por Qwen3-Coder de Alibaba, un modelo de codificación de peso abierto líder. Con velocidades de hasta 2.000 tokens por segundo, una ventana de contexto de 131.000 tokens y sin bloqueo de IDE propietario o límites semanales, ofrece generación de código instantánea. Los usuarios pueden integrarse con sus IDE de IA preferidos para un flujo de trabajo fluido. Code Pro es ideal para desarrolladores independientes y proyectos pequeños, mientras que Code Max satisface las necesidades de los desarrolladores a tiempo completo con alto volumen.

Leer más
Desarrollo

El modelo de razonamiento de IA de frontera más rápido del mundo ahora disponible en Cerebras Inference Cloud

2025-07-23
El modelo de razonamiento de IA de frontera más rápido del mundo ahora disponible en Cerebras Inference Cloud

Cerebras Systems anunció hoy el lanzamiento de Qwen3-235B con soporte de contexto completo de 131K en su plataforma de inferencia en la nube. Este hito representa un avance en el rendimiento del modelo de IA, combinando inteligencia de nivel de frontera con una velocidad sin precedentes a una décima parte del costo de los modelos de código cerrado, transformando fundamentalmente la implementación de IA empresarial. Qwen3-235B alcanza velocidades de 1.500 tokens por segundo, reduciendo los tiempos de respuesta de 1-2 minutos a 0,6 segundos. Su contexto expandido de 131K permite la generación de código de nivel de producción, manejando grandes bases de código y documentos complejos. Una asociación con Cline integra los modelos Qwen directamente en su editor VS Code, ofreciendo mejoras significativas de velocidad.

Leer más
Tecnología

Cerebras bate el récord de velocidad de inferencia con Llama 4 Maverick 400B

2025-05-31
Cerebras bate el récord de velocidad de inferencia con Llama 4 Maverick 400B

Cerebras Systems ha alcanzado una velocidad de inferencia innovadora de más de 2.500 tokens por segundo (TPS) en el modelo de 400B parámetros Llama 4 Maverick de Meta, más del doble del rendimiento de Nvidia. Esta velocidad récord, verificada de forma independiente por Artificial Analysis, es crucial para aplicaciones de IA como agentes, generación de código y razonamiento complejo, reduciendo significativamente la latencia y mejorando la experiencia del usuario. A diferencia de la solución de Nvidia, que dependía de optimizaciones personalizadas no disponibles, el rendimiento de Cerebras es fácilmente accesible a través de la próxima API de Meta, ofreciendo una solución superior para desarrolladores y usuarios empresariales de IA.

Leer más
IA