DeepSeek V3: Desempenho de ponta com recursos limitados

2025-01-23
DeepSeek V3: Desempenho de ponta com recursos limitados

O novo modelo V3 da DeepSeek, treinado em apenas 2.048 GPUs H800 - uma fração dos recursos usados por gigantes como OpenAI - iguala ou supera o GPT-4 e o Claude em vários benchmarks. Seu custo de treinamento de US$ 5,5 milhões é muito menor do que os estimados US$ 40 milhões para o GPT-4. Esse sucesso, em parte impulsionado pelos controles de exportação dos EUA que limitam o acesso a GPUs de alta performance, destaca o potencial de inovação arquitetônica e otimização de algoritmos em relação à pura capacidade de computação. É um argumento convincente de que restrições de recursos podem, paradoxalmente, impulsionar avanços inovadores no desenvolvimento de IA.

Leia mais

Inverno de Startups: A fé do Hacker News no mito das startups congela

2025-01-21
Inverno de Startups: A fé do Hacker News no mito das startups congela

Uma postagem recente no Hacker News destaca uma mudança no sentimento em relação às startups. Enquanto em 2013, fundadores que fracassaram recebiam comentários de apoio, agora histórias semelhantes são recebidas com ceticismo sobre os riscos. Essa mudança é atribuída a: maior visibilidade das consequências negativas (esgotamento, problemas de relacionamento, problemas de saúde mental); altos salários em grandes empresas de tecnologia tornando o incentivo financeiro para startups menos atraente; limitações do modelo de capital de risco se tornando claras; e os frutos de baixo custo da era móvel/web sendo amplamente colhidos. O autor sugere que isso sinaliza um 'Inverno de Startups', potencialmente levando a um ecossistema de startups mais autêntico e sustentável.

Leia mais