A Ascensão dos Pequenos Modelos de Linguagem: 30 bilhões de parâmetros e ainda 'pequeno'

Em 2018, um 'modelo pequeno' significava alguns milhões de parâmetros rodando em um Raspberry Pi. Hoje, um modelo de 30 bilhões de parâmetros é considerado 'pequeno' — exigindo apenas uma GPU. A definição mudou. Agora, 'pequeno' enfatiza a capacidade de implantação em vez do tamanho puro. Esses modelos se dividem em duas categorias: modelos otimizados para borda (como Phi-3-mini, rodando em dispositivos móveis) e modelos compatíveis com GPU (como Meta Llama 3 70B, rodando em uma única GPU). Os modelos pequenos se destacam em tarefas especializadas, oferecendo maior eficiência e ajuste fino mais fácil. Mesmo modelos de 70 bilhões de parâmetros, com otimização, rodam suavemente em GPUs de consumo de alta qualidade. Isso marca a chegada da era dos modelos pequenos, abrindo possibilidades para startups, desenvolvedores e empresas.