Scispacy:完整的空间流水线和科学生物医学文献模型

时间:2024-02-24 09:07:05
【文件属性】:

文件名称:Scispacy:完整的空间流水线和科学生物医学文献模型

文件大小:233KB

文件格式:ZIP

更新时间:2024-02-24 09:07:05

nlp bioinformatics spacy biomedical custom-pipes

该存储库包含与使用spaCy获取科学文档有关的自定义管道和模型。 特别是,有一个自定义令牌生成器,它在spaCy基于规则的令牌生成器的基础上添加了令牌生成规则,经过生物医学数据训练的POS标记器和语法解析器以及实体跨度检测模型。 另外,还有用于更具体任务的NER模型。 只是想测试数据模型? 查看我们的。 安装 安装Scispacy需要两个步骤:安装库和安装模型。 要安装该库,请运行: pip install scispacy 要安装模型(请参见下面的可用模型的完整选择),请运行以下命令: pip install https://s3-us-west-2.amazonaws.com/ai2-s2-scispacy/releases/v0.3.0/en_core_sci_sm-0.3.0.tar.gz 注意:我们强烈建议您使用隔离的Python环境(例如virtualenv或conda)来安装Scispacy。 如果您需要帮助,请在下面的“设置虚拟环境”部分中查看。 此外,scispacy使用Python的现代功能,因此仅适用于Python 3.6或更高版本。 设置虚拟环境 可


【文件预览】:
scispacy-master
----MANIFEST.in(185B)
----docs()
--------example.svg(8KB)
--------_config.yml(138B)
--------Gemfile(76B)
--------.gitinclude(0B)
--------scispacy-logo-square.png(82KB)
--------index.md(5KB)
--------scispacy-logo.png(42KB)
----requirements.in(341B)
----pytest.ini(28B)
----proto_model()
--------__init__.py(325B)
----data()
--------craft_ner.json(332B)
--------meta_small.json(322B)
--------jnlpba_ner.json(334B)
--------meta_medium.json(322B)
--------bc5cdr_ner.json(334B)
--------meta_large.json(322B)
--------bionlp13cg_ner.json(342B)
----.github()
--------workflows()
----Dockerfile(770B)
----scispacy()
--------per_class_scorer.py(4KB)
--------train_utils.py(1KB)
--------umls_utils.py(7KB)
--------umls_linking.py(111B)
--------linking_utils.py(4KB)
--------candidate_generation.py(20KB)
--------file_cache.py(5KB)
--------data_util.py(10KB)
--------umls_semantic_type_tree.py(4KB)
--------custom_tokenizer.py(5KB)
--------custom_sentence_segmenter.py(2KB)
--------util.py(1KB)
--------__init__.py(52B)
--------hyponym_detector.py(4KB)
--------abbreviation.py(9KB)
--------consts.py(294B)
--------hearst_patterns.py(16KB)
--------linking.py(5KB)
--------version.py(150B)
----tests()
--------test_candidate_generation.py(2KB)
--------test_abbreviation_detection.py(7KB)
--------conftest.py(4KB)
--------test_per_class_scorer.py(2KB)
--------test_linking.py(3KB)
--------custom_tests()
--------test_file_cache.py(3KB)
--------__init__.py(0B)
--------test_umls_utils.py(2KB)
--------test_hyponym_detector.py(2KB)
--------test_util.py(449B)
--------test_data_util.py(4KB)
--------fixtures()
--------test_umls_semantic_type_tree.py(2KB)
----RELEASE.md(1KB)
----LICENSE(11KB)
----setup.py(2KB)
----.gitignore(1KB)
----evaluation()
--------sentence_splitting_evaluation.py(4KB)
----README.md(14KB)
----scripts()
--------train_parser_and_tagger.py(10KB)
--------count_word_frequencies.py(3KB)
--------init_model.py(7KB)
--------train_specialised_ner.py(7KB)
--------ner_pipeline.sh(3KB)
--------mypy.sh(102B)
--------parser.sh(1KB)
--------train_ner.py(6KB)
--------create_model_package.sh(379B)
--------ner.sh(507B)
--------create_linker.py(636B)
--------base_model.sh(919B)
--------export_umls_json.py(4KB)
--------pipeline.sh(967B)
----.flake8(570B)

网友评论