kb2vec:向量化知识库以进行实体链接

时间:2024-06-10 03:31:50
【文件属性】:

文件名称:kb2vec:向量化知识库以进行实体链接

文件大小:1.57MB

文件格式:ZIP

更新时间:2024-06-10 03:31:50

neural entity-linking graph-embeddings Python

kb2vec 向量化知识库以进行实体链接 安装 pip install -r requirements.txt python -m nltk.downloader stopwords python -m nltk.downloader punkt python -m nltk.downloader averaged_perceptron_tagger 下载data文件夹并解压缩: wget http://ltdata1.informatik.uni-hamburg.de/kb2vec/data.zip unzip data.zip 启动Web服务: 实体链接NIF服务器: python nif_ws.py 它将在http://localhost:5000 (从基于NIF-沙鼠评估服务器gerbil目录): bash start.sh 它将运行在http://localh


【文件预览】:
kb2vec-master
----.gitignore(1KB)
----converter.py(4KB)
----dataset_stats.py(1KB)
----patterns.py(48B)
----fwd.sh(111B)
----construct_graph.py(4KB)
----linkers()
--------sparse.py(11KB)
--------dense.py(9KB)
--------__init__.py(0B)
--------supertagger.py(3KB)
--------nn_graph.py(1KB)
--------baseline.py(6KB)
--------context_aware.py(7KB)
----diffbot_api.py(3KB)
----requirements.txt(79B)
----candidate.py(2KB)
----datasets()
--------top-cities.txt(543B)
--------n3-reuters-128.ttl.phrases.tsv(17KB)
--------n3-news-128.tsv(107KB)
--------kore50.tsv(5KB)
--------n3-reuters-128-urls.txt.absent(13KB)
--------entities.tsv(48KB)
--------actors.txt(12KB)
--------kore50-urls.txt.absent(629B)
--------n3-reuters-128.tsv(107KB)
--------kore50-urls.txt(6KB)
--------award-actors.txt(12KB)
--------n3-reuters-128.ttl.contexts.tsv(95KB)
--------kore50.ttl(79KB)
--------dbpedia.ttl.contexts.tsv(10KB)
--------dbpedia-url.txt.absent(606B)
--------dbpedia.tsv(13KB)
--------phrases.txt(18KB)
--------kore50.ttl.phrases.tsv(3KB)
--------oke-sample-dataset-task2.ttl(207KB)
--------ace2004.tsv(132KB)
--------oke-evaluation-dataset-task2.ttl(510KB)
--------dbpedia.ttl(170KB)
--------subset()
--------us-states.txt(451B)
--------n3-reuters-128.ttl(521KB)
--------dzerczynski.tsv(46KB)
--------singleton.tsv(304B)
--------test.phrases.tsv(72B)
--------oke-evaluation-dataset-task1.ttl(435KB)
--------kore50.ttl.contexts.tsv(4KB)
--------us-universitites.txt(27KB)
--------oke-sample-dataset-task1.ttl(242KB)
--------dbpedia.ttl.phrases.tsv(9KB)
--------dbpedia-url.txt(13KB)
--------n3-reuters-128-urls.txt(40KB)
----nif_ws.py(6KB)
----generate_absent.py(2KB)
----test_supertagger.py(280B)
----utils.py(1KB)
----cache()
--------__init__.py(0B)
----README.md(1002B)
----data_helper.py(1KB)
----tests()
--------test_construct_dict.py(832B)
--------diffbot_api_test.py(1KB)
--------supertagger_test.py(2KB)
--------dense_linker_test.py(1KB)
--------ttl_test.py(977B)
--------sparse_linker_single_test.py(1KB)
--------test_data_helper.py(209B)
--------baseline_linker_dbpedia_test.py(584B)
--------score_test.py(337B)
--------sparse_linker_test.py(2KB)
--------supervised()
--------baseline_linker_test.py(628B)
----nif_ws_graph.py(835B)
----ttl.py(3KB)
----Diffbot API test.ipynb(3KB)
----preprocess.py(3KB)
----supervised()
--------requirements.txt(92B)
--------negative_sampling.py(20KB)
--------README.md(915B)
--------nn.py(24KB)
--------negative_sampling_test.py(9KB)
----tmp.ipynb(11KB)

网友评论