POST http://192.168.10.199:9200/_analyze
body-----raw-----json
{
"analyzer":"ik_smart",
"text": "*万岁"
}
引出
我们都知道ElasticSearch中有内置的IK分词器,然后我们启动ES后,可以尝试一下默认的IK分词器是什么效果的。在地址栏输入“http://127.0.0.1:9200/_analyze?analyzer=chinese&pretty=true&text=手机充值”,显示下面的错误:
然后上网查询了一些资料,然后才知道,原来是因为版本的不同,然后书写格式有变化,我使用的是V7.30版本;然后我换一下形式,用postman进行测试,然后使用如下格式,然后就可以了:
查出的效果图:
扩展
默认的中文分词是将每个字看成一个词,这显然是不符合要求的,所以我们需要安装中文分词器来解决这个问题。这里大家要注意一下呢!