Transformers:支持TensorFlow 2.0 和 PyTorch 的自然语言处理预训练语言模型-python

时间:2024-07-08 12:26:39
【文件属性】:

文件名称:Transformers:支持TensorFlow 2.0 和 PyTorch 的自然语言处理预训练语言模型-python

文件大小:9.86MB

文件格式:ZIP

更新时间:2024-07-08 12:26:39

自然语言处理

Transformers:支持TensorFlow 2.0 和 PyTorch 的自然语言处理预训练语言模型(BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet…) 8种架构/33种预训练模型/102种语言 用于 PyTorch 和 TensorFlow 2.0 的最先进的自然语言处理:hugging_face: Transformers(以前称为 pytorch-transformers 和 pytorch-pretrained-bert)提供最先进的通用架构(BERT、GPT-2、 RoBERTa、XLM、DistilBert、XLNet、T5、CTRL...) 用于自然语言理解 (NLU) 和自然语言生成 (NLG),具有 100 多种语言的数千个预训练模型以及 PyTorch 和 TensorFlow 2.0 之间的深度互操作性。 特点 NLU 和 NLG 任务的高性能 教育工作者和从业者的入门门槛低 适合所有人的最先进的 NLP 深度学习研究人员 实践从业者 AI/ML/NLP 教师和教育工作者 降低计算成本,减少碳足迹 研究人员可以共


网友评论