QB64 搜索技巧 核手提箱 文字记录 海洋云增白 开源地图 Bliss AI 搜索答案 深海沉船 自由职业 policy 小团队 颈挂空调 Chumby 个人电脑 极端主义 团队 世界 PostgreSQL AI工具 证券 DirectX 防溢 DrawingPics Zulip 儿童读物 化学 连续滚动 代码审查 三菱电机 更多

更小、更弱、却更好:通过计算优化采样训练大型语言模型推理器 (arxiv.org)

这篇论文研究了在固定推理预算下,使用更强大但更昂贵的语言模型(SE)与更弱但更便宜的语言模型(WC)生成合成数据之间的权衡。研究发现,WC模型生成的数据可能具有更高的覆盖率和多样性,但也表现出更高的假阳性率。然而,在知识蒸馏、自我改进和弱到强改进设置等不同情况下,使用WC模型生成的数据微调的语言模型在多个基准测试和多个WC和SE模型选择中始终优于使用SE模型生成的数据训练的模型。