文件名称:Chinese-word-segmentation:通过Python完成中文分词
文件大小:3.18MB
文件格式:ZIP
更新时间:2024-05-30 04:42:30
Python
中文分词 通过Python完成基于MM(最大匹配)和RMM(反向最大匹配)的中文分词。 第0部分说明 第1部分类说明 步骤1。 (CLASS class_import_words_2_db.py) 将搜狗的单元格词库和现代汉语词典中的单词数据导入数据库“ wordsDB”表“ chinese_word_table”。 第2步。 (CLASS class_update_in_db.py) 更新或增加表格的某些字段,例如“拼音”,“含义”字段等。 第三步(CLASS class_bidirectional_matching_algorithm.py) 通过MM和RMM方法进行中文分词。 第四步。 (CLASS class_segmentation_result_analyser.py) 分析中文分词步骤的结果,例如词频统计,结果可视化等。 第5步。 (CLASS class_updat
【文件预览】:
Chinese-word-segmentation-master
----main.py(10KB)
----myclass()
--------class_import_words_2_db.py(26KB)
--------class_update_in_db.py(5KB)
--------__init__.py(21B)
--------class_bidirectional_matching_algorithm.py(30KB)
--------class_segmentation_result_analyser.py(9KB)
----LICENSE(11KB)
----README.md(1KB)
----data()
--------input()
----.gitignore(702B)