文件名称:Python-使用神经网络对英语句子进行分词
文件大小:151KB
文件格式:ZIP
更新时间:2022-08-30 01:34:42
Python开发-机器学习
使用神经网络对英语句子进行分词
【文件预览】:
neural_tokenizer-master
----.gitignore(1KB)
----README.md(6KB)
----eval.py(3KB)
----data_load.py(2KB)
----train.py(5KB)
----LICENSE(1KB)
----hyperparams.py(741B)
----modules.py(12KB)
----requirements.txt(237B)
----results()
--------model_epoch_15_gs_4914(605KB)