[2404.15653] CatLIP: CLIP-level Visual Recognition Accuracy with 2.7x Faster Pre-training on Web-scale Image-Text Data
2024-04-25
该网站提供arXiv上arxiv2404.15653论文的摘要。这篇标题为“基于Transformer神经网络的预训练语言模型对古书文本的文风模仿生成”的论文探索了如何使用预训练语言模型(PLM)来生成模仿古书文本风格的文本来训练PLM模型。研究结果表明,该方法可以有效地生成与给定古籍文本风格相似的文本。
40
未分类