DeepSeek V3: Rendimiento de vanguardia con recursos limitados

2025-01-23
DeepSeek V3: Rendimiento de vanguardia con recursos limitados

El nuevo modelo V3 de DeepSeek, entrenado con solo 2048 GPUs H800 —una fracción de los recursos utilizados por gigantes como OpenAI— iguala o supera a GPT-4 y Claude en varios puntos de referencia. Su costo de entrenamiento de 5,5 millones de dólares es mucho menor que los 40 millones de dólares estimados para GPT-4. Este éxito, impulsado en parte por los controles de exportación de EE. UU. que limitan el acceso a GPU de alta gama, destaca el potencial de la innovación arquitectónica y la optimización de algoritmos sobre la potencia de cálculo pura. Es un argumento convincente de que las restricciones de recursos pueden, paradójicamente, impulsar avances innovadores en el desarrollo de IA.

Leer más

Invierno de Startups: La fe de Hacker News en el mito de las startups se congela

2025-01-21
Invierno de Startups: La fe de Hacker News en el mito de las startups se congela

Una publicación reciente en Hacker News destaca un cambio en el sentimiento hacia las startups. Mientras que en 2013, los fundadores que fracasaron recibían comentarios de apoyo, ahora historias similares se reciben con escepticismo sobre los riesgos. Este cambio se atribuye a: la mayor visibilidad de las consecuencias negativas (agotamiento, problemas de relación, problemas de salud mental); los altos salarios en las grandes empresas de tecnología que hacen que el incentivo financiero para las startups sea menos atractivo; las limitaciones del modelo de capital riesgo que se están volviendo claras; y los frutos de bajo coste de la era móvil/web que se han recogido en gran medida. El autor sugiere que esto señala un 'Invierno de Startups', que potencialmente conducirá a un ecosistema de startups más auténtico y sostenible.

Leer más