文件名称:chariot:向您的 NLP 模型提供可训练的数据
文件大小:3.45MB
文件格式:ZIP
更新时间:2024-06-18 03:43:33
python natural-language-processing tensorflow keras preprocessing
战车 将可训练的数据传送到您的 NLP 模型。 准备数据集您可以通过准备典型的 NLP 数据集。 构建和运行预处理 您可以构建预处理管道,如 。 并行执行每个数据集列的预处理。 支持多语言文本标记化。 格式化批处理 从预处理数据集中采样一批并格式化以训练模型(填充等)。 您可以通过使用预训练的词向量。 chariot让您可以专注于训练您的模型! 安装 pip install chariot 准备数据集 您可以使用下载各种数据集。 import chazutsu from chariot . storage import Storage storage = Storage ( "your/data/root" ) r = chazutsu . datasets . MovieReview . polarity (). download ( storage . path
【文件预览】:
chariot-master
----setup.py(1KB)
----.gitignore(1KB)
----requirements.txt(256B)
----.travis.yml(1KB)
----LICENSE(11KB)
----requirements-test.txt(374B)
----notebooks()
--------movie_review_sentiment_analysis.ipynb(16KB)
--------language modeling.ipynb(111KB)
--------language modeling sequential.ipynb(44KB)
----README.md(6KB)
----tests()
--------test_language_model_preprocessor.py(3KB)
--------data()
--------__init__.py(0B)
--------resource()
--------test_util.py(3KB)
--------test_dataset_preprocessor.py(4KB)
--------test_preprocessor.py(2KB)
--------test_spacy.py(32KB)
--------test_chakin.py(3KB)
--------test_storage.py(1KB)
--------transformer()
----chariot()
--------__init__.py(0B)
--------resource()
--------dataset_preprocessor.py(6KB)
--------preprocessor.py(4KB)
--------storage.py(6KB)
--------base_dataset_preprocessor.py(4KB)
--------visualization()
--------util.py(2KB)
--------language_model_preprocessor.py(4KB)
--------transformer()
----mkdocs.yml(822B)
----docs()
--------images()
--------index.md(1KB)
--------css()
--------tutorial()
--------custom_theme()