结巴中文分词

时间:2017-04-08 15:02:01
【文件属性】:

文件名称:结巴中文分词

文件大小:9.66MB

文件格式:ZIP

更新时间:2017-04-08 15:02:01

结巴中文分词 python2.7 nlp

比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明


【文件预览】:
jieba-master
----extra_dict()
--------dict.txt.big(8.19MB)
--------dict.txt.small(1.48MB)
----MANIFEST.in(32B)
----.gitattributes(483B)
----Changelog(5KB)
----LICENSE(1KB)
----test()
--------test_pos.py(5KB)
--------test_change_dictpath.py(833B)
--------parallel()
--------test_tokenize_no_hmm.py(5KB)
--------test_bug.py(160B)
--------test_pos_no_hmm.py(5KB)
--------test.txt(118B)
--------test.py(5KB)
--------test_file.py(391B)
--------jieba_test.py(9KB)
--------test_pos_file.py(404B)
--------test_whoosh_flie.py(1KB)
--------foobar.txt(11B)
--------jiebacmd.py(446B)
--------test_whoosh.py(2KB)
--------demo.py(556B)
--------test_tokenize.py(5KB)
--------test_userdict.py(699B)
--------test_cut_for_search.py(5KB)
--------userdict.txt(109B)
--------extract_tags.py(526B)
--------test_cutall.py(5KB)
--------extract_topic.py(1KB)
--------test_multithread.py(827B)
--------test_whoosh_flie_read.py(791B)
--------test_no_hmm.py(5KB)
----setup.py(394B)
----README.md(14KB)
----jieba()
--------analyse()
--------dict.txt(4.84MB)
--------__init__.py(12KB)
--------posseg()
--------finalseg()
----.gitignore(2KB)

网友评论

  • 感谢,好用。。。。
  • 说实话,还真不错
  • 是个exe文件