THINKPHP 中文分词处理类

时间:2018-04-15 08:07:25
【文件属性】:

文件名称:THINKPHP 中文分词处理类

文件大小:8.3MB

文件格式:ZIP

更新时间:2018-04-15 08:07:25

THINKPHP 中文分词类

将军今天继续分享一款中文分词类库,无需其他扩展组件支持,这个类库基本能满足日常的分词,当然更精准的分词那你还是老老实实去研究分词算法和相关扩展吧。这个类库最重要一点,就是支持中文分词。 废话不多说,来说说如何使用。 首先下载类库压缩包,解压缩。里面只有两个文件,一个是dict.csv,即分词字典。一个是SplitWord.class.php,这个是分词的类库文件。将两个文件同时复制到核心扩展ORG目录或者项目的ORG目录.确保两个文件在同一目录下。 第二步,在action里编写代码如下: 1. public function index() 2.{ 3. //导入类库 4. import("ORG.SplitWord"); 5. //记录下时间,调试下花了多少时间 6. G('run'); 7. $str = "我爸是李刚你妈是梦鸽"; 8. //丫的,开始分词啦 9. $sp = new SplitWord(); 10. echo $sp->SplitRMM($str) . "


"; 11. //析放资源 12. $sp->Clear(); 13. //打印耗时 14. echo '分词完成,耗时:'.G('run','end').'s'; 15.} 复制代码 第三步: 测试下呗 ~~ enjoy it!


【文件预览】:
xdb_r.class.php
index.php
pscws4.class.php
scws
----rules.ini(4KB)
----rules.utf8.ini(4KB)
----dict.utf8.xdb(13.56MB)
PHP中文分词,自动获取关键词 - ThinkPHP框架.mht
dict
----words_addons.dic(3KB)
----base_dic_full.dic(8.05MB)
----not-build()
--------base_dic_full.txt(2.49MB)
----readme.txt(603B)
phpanalysis.class.php

网友评论

  • 不人性化!不好用
  • 垃圾东西!一点用都没