文件名称:bert-as-service:使用BERT模型将可变长度句子映射到固定长度向量
文件大小:3.23MB
文件格式:ZIP
更新时间:2024-02-23 23:46:24
nlp machine-learning natural-language-processing deep-neural-networks ai
您在寻找X即服务吗? 试试! X可以是albert,pytorch-transformer,vgg,resnet,videobert或任何深度学习表示模型吗? •••• • 了解如何使用Jina通过任何深度学习表示来提取特征向量 伯特即服务 使用BERT模型作为句子编码服务,即将可变长度的句子映射到固定长度的向量。 •••• •••• 韩晓制作• :globe_with_meridians: 它是什么 BERT是为预训练语言表示而的NLP模型。 它利用了在网络上公开提供的大量纯文本数据,并且以无人监督的方式进行了培训。 对于每种语言而言,预训练BERT模型是一项相当昂贵但一次性的过程。 幸运的是,Google发布了一些经过预先训练的模型,。 句子编码/嵌入是许多NLP应用程序所需的上游任务,例如,情绪分析,文本分类。 目标是将可变长度句子表示为固定长度向量,例如[0.1, 0.3, 0.9] hello world 。 向量的每个元素都应“编码”原始句子的某些语义。 最后, bert-as-service使用BERT作为句子编码器,并通过ZeroMQ将其托管为服务,从而使
【文件预览】:
bert-as-service-master
----client()
--------setup.py(1KB)
--------bert_serving()
--------requirements.txt(90B)
--------MANIFEST.in(34B)
--------README.md(61KB)
----.gitignore(1KB)
----readthedocs.yaml(92B)
----server()
--------setup.py(2KB)
--------bert_serving()
--------requirements.txt(212B)
--------__init__.py(0B)
--------MANIFEST.in(34B)
--------README.md(61KB)
----LICENSE(1KB)
----.github()
--------gnes-logo-tight.svg(14KB)
--------client_batch_size.png(11KB)
--------max_batch_size.png(12KB)
--------ISSUE_TEMPLATE.md(1KB)
--------max_seq_len.png(10KB)
--------pool_max.png(644KB)
--------server-run-demo.gif(256KB)
--------bert-parallel-pipeline.png(98KB)
--------pool_mean.png(577KB)
--------pooling_layer.png(11KB)
--------cosine-vs-rougel.png(30KB)
--------demo.gif(513KB)
--------workflows()
--------server-demo.gif(311KB)
--------qasearch-demo.gif(593KB)
--------dashboard.png(179KB)
--------num_clients.png(10KB)
--------fp16-xla.svg(103KB)
----README.md(62KB)
----plugin()
--------dashboard()
----example()
--------example4.py(2KB)
--------example2.py(2KB)
--------example1.py(1KB)
--------example8.py(1KB)
--------example3.py(1KB)
--------example6.py(2KB)
--------example7.py(5KB)
--------example5.py(4KB)
----docs()
--------requirements.txt(55B)
--------Makefile(8KB)
--------index.rst(997B)
--------conf.py(10KB)
--------tutorial()
--------section()
--------source()
----release.sh(2KB)
----docker()
--------Dockerfile(272B)
--------entrypoint.sh(78B)