QB64 搜索技巧 核手提箱 文字记录 海洋云增白 开源地图 Bliss AI 搜索答案 沙丘魔堡2 深海沉船 自由职业 policy 小团队 颈挂空调 Chumby 个人电脑 极端主义 团队 世界 PostgreSQL AI工具 证券 DirectX 防溢 DrawingPics Zulip 儿童读物 化学 连续滚动 三菱电机 更多

我们还需要RNN吗? (arxiv.org)

这篇论文重新审视了传统的循环神经网络(RNNs),如LSTMs和GRUs,发现通过移除其输入、遗忘和更新门中的隐藏状态依赖关系,LSTMs和GRUs不再需要BPTT,可以高效地并行训练。作者介绍了LSTMs和GRUs的最小版本(minLSTMs和minGRUs),它们使用比传统版本少得多的参数,并且在训练期间完全可并行化。最后,作者表明这些简化版的RNNs与最近的序列模型的经验性能相匹配。

评论已经关闭!