Hugging Face 发布了 SmolLM2 系列轻量级语言模型,包含 135M、360M 和 1.7B 参数三种规模。该模型使用 FineWeb-Edu、DCLM、The Stack 等数据集以及新的数学和编码数据集,共计 11 万亿个token进行训练。SmolLM2 能够在设备上运行,并高效地完成各种任务。模型权重以 Apache 2 许可证发布。Simon Willison 通过 llm-gguf 插件进行了测试,并给出了积极的评价,同时提供了使用 LLM 和 lmstudio-community 运行模型的示例。