图解Transformer

2024-07-02

本文介绍了Transformer模型,它是一种使用注意力机制来提高训练速度的模型。Transformer模型在特定任务上的表现优于谷歌神经机器翻译模型,其最大优势在于其易于并行化。文章详细讲解了Transformer的编码器和解码器结构,以及自注意力机制、多头注意力机制和位置编码等关键概念。

阅读更多
未分类

The Illustrated Word2vec – Jay Alammar – Visualizing machine learning one concept at a time.

2024-04-19

该网站展示了 Word2Vec 的概念,一个用于学习单词嵌入的自然语言处理模型。它使用交互式可视化和解释性文本展示了 Word2Vec 的工作原理,包括 CBOW 和 Skip-Gram 模型,以及可视化单词嵌入空间的方法。网站还提供了有关使用 Gensim 库在 Python 中实施 Word2Vec 的教程。

阅读更多
未分类