-
Transformers 多语言模型 | 十一
作者|huggingface 编译|VK 来源|Github 该库中可用的大多数模型都是单语言模型(英语,中文和德语)。有一些多语言模型可用,并且与单语言模型具有不同的机制。本页详…
-
Transformers 从pytorch-pretrained-bert迁移 | 十
作者|huggingface 编译|VK 来源|Github 这是从pytorch-pretrained-bert迁移到transformers时应注意的事项的快速摘要。 模型始终…
-
Transformers 转换Tensorflow的Checkpoints | 九
作者|huggingface 编译|VK 来源|Github 提供了一个命令行界面来转换模型中的原始Bert/GPT/GPT-2/Transformer-XL/XLNet/XLM的…
-
Transformers 保存并加载模型 | 八
作者|huggingface 编译|VK 来源|Github 本节说明如何保存和重新加载微调模型(BERT,GPT,GPT-2和Transformer-XL)。你需要保存三种文件类…
-
Transformers 加载预训练模型 | 七
作者|huggingface 编译|VK 来源|Github 加载Google AI或OpenAI预训练权重或PyTorch转储 from_pretrained()方法 要加载Go…
-
Transformers 示例 | 六
作者|huggingface 编译|VK 来源|Github 在本节中,将结合一些示例。所有这些示例都适用于多种模型,并利用 了不同模型之间非常相似的API。 重要 :要运行示例的…
-
Transformers 模型上传和共享 | 五
作者|huggingface 编译|VK 来源|Github 从v2.2.2开始,你可以使用库中内置的CLI上传与社区共享你的微调模型。 首先,在以下网址上创建一个帐户。 http…
-
Transformers 中使用 TorchScript | 四
作者|huggingface 编译|VK 来源|Github 注意:这是我们使用TorchScript进行实验的开始,我们仍在探索可变输入大小模型的功能。它是我们关注的焦点,我们将…
-
Transformers 库常见的用例 | 三
作者|huggingface 编译|VK 来源|Github 本章介绍使用Transformers库时最常见的用例。可用的模型允许许多不同的配置,并且在用例中具有很强的通用性。这里…
-
Transformers 词汇表 | 二
作者|huggingface 编译|VK 来源|Github 词汇表每种模型都不同,但与其他模型相似。因此,大多数模型使用相同的输入,此处将在用法示例中进行详细说明。 输入ID 输…
-
Transformers 快速入门 | 一
作者|huggingface 编译|VK 来源|Github 理念 Transformers是一个为NLP的研究人员寻求使用/研究/扩展大型Transformers模型的库。 该库…
-
Transformers 简介(下)
作者|huggingface 编译|VK 来源|Github Transformers是TensorFlow 2.0和PyTorch的最新自然语言处理库 Transformers(…
-
Transformers 简介(上)
作者|huggingface 编译|VK 来源|Github Transformers是TensorFlow 2.0和PyTorch的最新自然语言处理库 Transformers(…