SmolLM3: Um raciocinador pequeno, multilíngue e de longo contexto
2025-07-09

SmolLM3 é um modelo de linguagem multilíngue de código aberto com 3 bilhões de parâmetros que oferece um equilíbrio impressionante entre eficiência e desempenho. Superando Llama-3.2-3B e Qwen2.5-3B em vários benchmarks, ele até compete com modelos maiores de 4 bilhões de parâmetros. Com suporte para 6 idiomas e comprimento de contexto de até 128k tokens, o SmolLM3 possui uma capacidade única de raciocínio de modo duplo (think/no_think). Além do próprio modelo, os pesquisadores estão lançando o blueprint de engenharia completo, incluindo detalhes de arquitetura, misturas de dados e metodologia de treinamento — um recurso valioso para quem está construindo ou estudando modelos nessa escala.