基于Ngram双向匹配最大中文分词

时间:2022-05-14 09:43:31
【文件属性】:

文件名称:基于Ngram双向匹配最大中文分词

文件大小:4.05MB

文件格式:ZIP

更新时间:2022-05-14 09:43:31

中文分词 自然语言处理 nlp

基于Ngram双向匹配最大中文分词 包含data:停用词语料,标准切分语料,测试集,训练集 PrePostNgram1.py为双向最大匹配程序 Evaluate.py为评估程序结果 word内容为程序说明以及原理


【文件预览】:
9
----data()
--------gold.txt(758KB)
--------train_data.txt(3.07MB)
--------test_result_file_Pre.txt(652KB)
--------test_result_file_Post.txt(620KB)
--------__pycache__()
--------test_result.txt(660KB)
--------test_result_file_prepostBigram.txt(622KB)
--------test.txt(547KB)
--------dic.txt(4.42MB)
----__pycache__()
--------PrePostNgram1.cpython-39.pyc(6KB)
--------Evaluate.cpython-39.pyc(1KB)
----Evaluate.py(2KB)
----PrePostNgram1.py(14KB)
----基于Ngram双向匹配最大中文分词.docx(137KB)

网友评论