搜索技巧 海洋云增白 开源地图 AI 搜索答案 沙丘魔堡2 压缩机站 自由职业 policy 小团队 颈挂空调 Chumby 个人电脑 极端主义 团队 PostgreSQL AI工具 证券 DirectX DrawingPics 化学 KDE 披萨农场 多动症 植物学 分析化学 Three.js 大会 残疾人学校 初创 QB64 更多

TokenFormer:用模型参数标记化重塑Transformer缩放 (arxiv.org)

TokenFormer 是一种新型可缩放架构,利用注意力机制处理输入标记和模型参数之间的交互,从而增强架构灵活性。通过将模型参数视为标记,它用标记-参数注意力层取代了 Transformer 中的所有线性投影,其中输入标记充当查询,模型参数充当键和值。这种方法允许模型通过递增添加新的键值参数对,从 1.24 亿个参数扩展到 14 亿个参数,在大大减少训练成本的同时,实现与从头训练的 Transformer 相当的性能。

评论已经关闭!