文件名称:bert-embedding:m来自mxnet和gluonnlp上BERT模型的令牌级嵌入
文件大小:30KB
文件格式:ZIP
更新时间:2024-02-24 12:02:29
nlp natural-language-processing mxnet word-embeddings bert
伯特嵌入 [不推荐使用]感谢您检查此项目。 不幸的是,我没有时间来维护这个项目了。 如果您有兴趣维护该项目。 请提出一个问题,让我知道。 由发布的是获得预先训练的语言模型单词表示的新方法。 BERT可以使许多NLP任务受益,从而获得SOTA。 该项目的目标是从BERT的预训练模型中获取令牌嵌入。 通过这种方式,您可以仅通过利用或令牌嵌入来构建模型,而不必为端到端NLP模型进行构建和微调。 该项目使用实施。 特别感谢团队。 安装 pip install bert-embedding # If you want to run on GPU machine, please install `m
【文件预览】:
bert-embedding-master
----.travis.yml(1KB)
----.coveragerc(59B)
----bin()
--------bert(66B)
----docs()
--------conf.py(6KB)
--------make.bat(787B)
--------api_reference()
--------Makefile(611B)
--------bert_models()
--------index.rst(1KB)
----.pylintrc(15KB)
----tox.ini(0B)
----LICENSE(11KB)
----bert_embedding()
--------cli.py(3KB)
--------dataset.py(782B)
--------tests()
--------__init__.py(57B)
--------bert.py(7KB)
----requirements.txt(0B)
----setup.py(4KB)
----.gitignore(7KB)
----requirements.readthedocs.txt(88B)
----README.md(4KB)