文件名称:结巴中文分词
文件大小:9.66MB
文件格式:ZIP
更新时间:2017-04-08 15:02:01
结巴中文分词 python2.7 nlp
比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明
【文件预览】:
jieba-master
----extra_dict()
--------dict.txt.big(8.19MB)
--------dict.txt.small(1.48MB)
----MANIFEST.in(32B)
----.gitattributes(483B)
----Changelog(5KB)
----LICENSE(1KB)
----test()
--------test_pos.py(5KB)
--------test_change_dictpath.py(833B)
--------parallel()
--------test_tokenize_no_hmm.py(5KB)
--------test_bug.py(160B)
--------test_pos_no_hmm.py(5KB)
--------test.txt(118B)
--------test.py(5KB)
--------test_file.py(391B)
--------jieba_test.py(9KB)
--------test_pos_file.py(404B)
--------test_whoosh_flie.py(1KB)
--------foobar.txt(11B)
--------jiebacmd.py(446B)
--------test_whoosh.py(2KB)
--------demo.py(556B)
--------test_tokenize.py(5KB)
--------test_userdict.py(699B)
--------test_cut_for_search.py(5KB)
--------userdict.txt(109B)
--------extract_tags.py(526B)
--------test_cutall.py(5KB)
--------extract_topic.py(1KB)
--------test_multithread.py(827B)
--------test_whoosh_flie_read.py(791B)
--------test_no_hmm.py(5KB)
----setup.py(394B)
----README.md(14KB)
----jieba()
--------analyse()
--------dict.txt(4.84MB)
--------__init__.py(12KB)
--------posseg()
--------finalseg()
----.gitignore(2KB)