es实现自动补全

时间:2024-10-27 08:29:05

目录

自动补全

拼音分词器

安装拼音分词器

第一步:下载zip包,并解压缩

第二步:去docker找到es-plugins数据卷挂载的位置,并进入这个目录

 第三步:把拼音分词器的安装包拖到这个目录下

第四步:重启es

第五步:测试拼音分词器

自定义分词器

如何自定义分词器呢 

​编辑 声明自定义分词器的语法如下:

测试自定义的分词器

总结:

 自动补全查询

 实现酒店搜索框自动补全

 修改酒店索引库的映射结构

修改HotelDoc实体类

 批量插入数据到es的hotel库中

自动补全查询的JavaAPI 

 实现搜索框自动补全

 controller

service

结果

 分析


自动补全

当用户在搜索框输入字符时,我们应该提示出与该字符有关的搜索项,如图:

这种根据用户输入的字母,提示完整词条的功能,就是自动补全了。

因为需要根据拼音字母来推断,因此要用到拼音分词功能。

拼音分词器

要实现根据字母做补全,就必须对文档按照拼音分词。在GitHub上恰好有elasticsearch的拼音分词插件。地址:GitHub - infinilabs/analysis-pinyin: ???? This Pinyin Analysis plugin is used to do conversion between Chinese characters and Pinyin. 

安装拼音分词器

第一步:下载zip包,并解压缩
第二步:去docker找到es-plugins数据卷挂载的位置,并进入这个目录

 第三步:把拼音分词器的安装包拖到这个目录下

py就是拼音分词器的安装包

第四步:重启es

docker restart es 

第五步:测试拼音分词器

对text文本使用拼音分词器的默认分词器->"pinyin" 

 

可以发现对text文本进行了拼音分词,但是并不够完整,如:"shanghai","shanghaiwaitan"等,所以我们需要自定义分词器 

 

自定义分词器

我们发现默认的拼音分词器只是把每个汉字的拼音给分词出来,而我们希望的是每个词条形成一组拼音,所以我们需要对拼音分词器做个性化定制,形成自定义分词器。

如何自定义分词器呢 

elasticsearch中分词器(analyzer)的组成包含三部分:

  • character filters:在tokenizer之前对文本进行处理。例如删除字符、替换字符
  • tokenizer:将文本按照一定的规则切割成词条(term)。如果文本是keyword,就进行不分词;
  • tokenizer filter:将tokenizer输出的词条做进一步处理(对分词分出来的词条后进行下一步处理)。例如大小写转换、同义词处理、拼音处理等

文档分词时会依次由这三部分来处理文档:

 声明自定义分词器的语法如下:

这里定义mapping结构时,对字段text的分词类型使用的是自定义的分词器,先对text文本进行分词处理后,再对这些分出来的词进行拼音处理,然后把分出的词条和词条的拼音都加入到倒排索引库中。

我们还设置了search_analyzer属性为ik_smart,如果不设置search_analyzer的值,默认和analyzer的属性值一样,都是自定义的分词器。

那我们为什么要额外设置呢?
因为在进行搜索时,输入 "狮子",使用自定义的分词器进行搜索时,也会把狮子变成shizi去倒排索引库中搜索,就会搜索出相同读音的其他词,比如"虱子",这显然是不对的。

所以进行搜索时,指定使用ik_smart进行搜索,不会把中文变成拼音去搜索,输入拼音也可以到倒排索引库中搜索,因为构建索引时,把词条的拼音也加入到了倒排索引库。

PUT /test
{
  "settings": {
    "analysis": {
      "analyzer": { // 自定义分词器
        "my_analyzer": {  // 分词器名称
          "tokenizer": "ik_max_word", //使用最细分词对文本内容进行分词,创建倒排索引
          "filter": "py" //过滤器使用自定义的
        }
      },
      "filter": { // 自定义tokenizer filter
        "py": { // 过滤器名称
          "type": "pinyin", //类型是拼音分词器
		  "keep_full_pinyin": false, 
          "keep_joined_full_pinyin": true,
          "keep_original": true,
          "limit_first_letter_length": 16,
          "remove_duplicated_term": true,
          "none_chinese_pinyin_tokenize": false
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "name": {k
        "type": "text",
        "analyzer": "my_analyzer", # 保存文档内容时,使用自定义分词器-》写操作
        "search_analyzer": "ik_smart" # 搜索时使用ik_smart ---》读操作
      }
    }
  }
}
参数详细说明:
keep_first_letter:这个参数会将词的第一个字母全部拼起来.例如:刘德华->ldh.默认为:true
keep_separate_first_letter:这个会将第一个字母一个个分开.例如:刘德华->l,d,h.默认为:flase.如果开启,可能导致查询结果太过于模糊,准确率太低.
limit_first_letter_length:设置最大keep_first_letter结果的长度,默认为:16
keep_full_pinyin:如果打开,它将保存词的全拼,并按字分开保存.例如:刘德华> [liu,de,hua],默认为:true
keep_joined_full_pinyin:如果打开将保存词的全拼.例如:刘德华> [liudehua],默认为:false
keep_none_chinese:将非中文字母或数字保留在结果中.默认为:true
keep_none_chinese_together:保证非中文在一起.默认为: true, 例如: DJ音乐家 -> DJ,yin,yue,jia, 如果设置为:false, 例如: DJ音乐家 -> D,J,yin,yue,jia, 注意: keep_none_chinese应该先开启.
keep_none_chinese_in_first_letter:将非中文字母保留在首字母中.例如: 刘德华AT2016->ldhat2016, 默认为:true
keep_none_chinese_in_joined_full_pinyin:将非中文字母保留为完整拼音. 例如: 刘德华2016->liudehua2016, 默认为: false
none_chinese_pinyin_tokenize:如果他们是拼音,切分非中文成单独的拼音项. 默认为:true,例如: liudehuaalibaba13zhuanghan -> liu,de,hua,a,li,ba,ba,13,zhuang,han, 注意: keep_none_chinese和keep_none_chinese_together需要先开启.
keep_original:是否保持原词.默认为:false
lowercase:小写非中文字母.默认为:true
trim_whitespace:去掉空格.默认为:true
remove_duplicated_term:保存索引时删除重复的词语.例如: de的>de, 默认为: false, 注意:开启可能会影响位置相关的查询.
ignore_pinyin_offset:在6.0之后,严格限制偏移量,不允许使用重叠的标记.使用此参数时,忽略偏移量将允许使用重叠的标记.请注意,所有与位置相关的查询或突出显示都将变为错误,您应使用多个字段并为不同的字段指定不同的设置查询目的.如果需要偏移量,请将其设置为false。默认值:true
测试自定义的分词器

 

可以发现结果是分出来的词条和词条的拼音 

 

总结:

如何使用拼音分词器?

  • ①下载pinyin分词器

  • ②解压并放到elasticsearch的plugin目录

  • ③重启即可

如何自定义分词器?

  • ①创建索引库时,在settings中配置,可以包含三部分

  • ②character filter

  • ③tokenizer

  • ④filter

拼音分词器注意事项?

  • 为了避免搜索到同音字,搜索时不要使用拼音分词器

 自动补全查询

elasticsearch提供了Completion Suggester查询来实现自动补全功能。这个查询会匹配以用户输入内容开头的词条并返回。为了提高补全查询的效率,对于文档中字段的类型有一些约束:

  • 参与补全查询的字段必须是completion类型。

  • 字段的内容一般是用来补全的多个词条形成的数组,这些词条也叫做关键词,作用就是补全

比如,一个这样的索引库:

PUT test
{
  "mappings": {
    "properties": {
      "title":{
        "type": "completion"
      }
    }
  }
}

 然后插入下面的数据:

给三个文档插入它们对应的关键词组,不写文档id,es默认会自动生成一个文档id

POST test/_doc
{
  "title": ["Sony", "WH-1000XM3"]
}
POST test/_doc
{
  "title": ["SK-II", "PITERA"]
}
POST test/_doc
{
  "title": ["Nintendo", "switch"]
}

 查询的DSL语句如下:

GET /test/_search
{
  "suggest": {
    "title_suggest": { //补全的名字
      "text": "s", // 关键字
      "completion": {
        "field": "title", // 补全查询的字段
        "skip_duplicates": true, // 跳过重复的
        "size": 10 // 获取前10条结果
      }
    }
  }
}

结果,返回了三个补全信息,分别是SK-II,Sony,switch,这三个词分别是三个文档里的关键词信息

 

 实现酒店搜索框自动补全

现在,我们的hotel索引库还没有设置拼音分词器,需要修改索引库中的配置。但是我们知道索引库是无法修改的,只能删除然后重新创建。

另外,我们需要添加一个字段,用来做自动补全,将brand、suggestion放进去,作为自动补全的提示。

因此,总结一下,我们需要做的事情包括:

  1. 修改hotel索引库结构,设置自定义拼音分词器

  2. 修改索引库的name、all字段,使用自定义分词器

  3. 索引库添加一个新字段suggestion,类型为completion类型,使用自定义的分词器

  4. 给HotelDoc类添加suggestion字段,内容包含brand、business

  5. 重新导入数据到hotel库

 修改酒店索引库的映射结构

这里设置了两个自定义分词器,一个分词器需要使用ik分词器,搜索框的文本内容进行搜索时需要进行分词,一个分词器是keyword,不需要进行分词,这个是suggestion字段使用的分词器,因为suggestion存的是关键字数组,关键字是我们自己设置的,所以不需要进行分词了 

// 酒店数据索引库
PUT /hotel
{
  "settings": {
    "analysis": {
      "analyzer": {
        "text_anlyzer": {
          "tokenizer": "ik_max_word",
          "filter": "py"
        },
        "completion_analyzer": {  
          "tokenizer": "keyword",
          "filter": "py"
        }
      },
      "filter": {
        "py": {
          "type": "pinyin",
          "keep_full_pinyin": false,
          "keep_joined_full_pinyin": true,
          "keep_original": true,
          "limit_first_letter_length": 16,
          "remove_duplicated_term": true,
          "none_chinese_pinyin_tokenize": false
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "id":{
        "type": "keyword"
      },
      "name":{
        "type": "text",
        "analyzer": "text_anlyzer",
        "search_analyzer": "ik_smart",
        "copy_to": "all"
      },
      "address":{
        "type": "keyword",
        "index": false
      },
      "price":{
        "type": "integer"
      },
      "score":{
        "type": "integer"
      },
      "brand":{
        "type": "keyword",
        "copy_to": "all"
      },
      "city":{
        "type": "keyword"
      },
      "starName":{
        "type": "keyword"
      },
      "business":{
        "type": "keyword",
        "copy_to": "all"
      },
      "location":{
        "type": "geo_point"
      },
      "pic":{
        "type": "keyword",
        "index": false
      },
      "all":{
        "type": "text",
        "analyzer": "text_anlyzer",
        "search_analyzer": "ik_smart"
      },
      "suggestion":{
          "type": "completion",
          "analyzer": "completion_analyzer"
      }
    }
  }
}

修改HotelDoc实体类

suggestion设置为List<String>属性,然后把brand,business,city作为关键字存入suggestion数组中

/**
 * 构建一个Hotel类插入es索引库的封装类类
 */
@Data
@NoArgsConstructor
public class HotelDoc {
    private Long id;
    private String name;
    private String address;
    private Integer price;
    private Integer score;
    private String brand;
    private String city;
    private String starName;
    private String business;
    private String location;
    private String pic;
    //距离
    private Object distance;
    //是否打广告
    private boolean isAD;
    //价值
    private Integer value;
    //关键字集合
    private List<String>suggestion;
    public HotelDoc(Hotel hotel){
        this.id=hotel.getId();
        this.name=hotel.getName();
        this.address=hotel.getAddress();
        this.price=hotel.getPrice();
        this.score=hotel.getScore();
        this.brand=hotel.getBrand();
        this.city=hotel.getCity();
        this.starName=hotel.getStarName();
        this.business=hotel.getBusiness();
        this.location=hotel.getLatitude()+", "+hotel.getLongitude();
        this.pic=hotel.getPic();
        // 组装suggestion
        if(this.business.contains("/")){
            // business有多个值,需要切割
            String[] arr = this.business.split("/");
            // 添加元素
            this.suggestion = new ArrayList<>();
            this.suggestion.add(this.brand);
            this.suggestion.add(this.city);
            Collections.addAll(this.suggestion, arr);
        }else {
            this.suggestion = Arrays.asList(this.brand, this.business,this.city);
        }
    }
}

 批量插入数据到es的hotel库中

    /**
     * 批量导入数据
     */
    @Test
    public void test05() throws IOException {
        //使用mapper查询到所有数据
        List<Hotel> hotels = hotelMapper.selectList(null);
        BulkRequest bulkRequest = new BulkRequest("hotel");
        hotels.stream().forEach(hotel -> {
            //把hotel变成hotelDoc类对象,并序列化成json数据
            String jsonDSL = JSON.toJSONString(new HotelDoc(hotel));
            //构建 新增文档请求对象
            IndexRequest request = new IndexRequest("hotel").id(hotel.getId()+"").source(jsonDSL, XContentType.JSON);
            //将请求对象添加到bulkRequest中
            bulkRequest.add(request);
        });
        //发送请求
        restHighLevelClient.bulk(bulkRequest,RequestOptions.DEFAULT);
    }

插入成功

自动补全查询的JavaAPI 

 解析数据

 实现搜索框自动补全

查看前端页面,可以发现当我们在输入框键入时,前端会发起ajax请求:

 返回值是补全词条的集合,类型为List<String>

 controller
 /**
     * 补全功能
     * @param prefix 需要补全的内容
     */
    @GetMapping("suggestion")
    public List<String> getSuggestions(@RequestParam("key") String prefix) {
        return hotelService.getSuggestions(prefix);
    }
service
/**
     * 补全功能
     * @param prefix 需要补全的内容
     */
    @Override
    public List<String> getSuggestions(String prefix) {
        SearchRequest request = new SearchRequest("hotel");
        request.source()
                .suggest(new SuggestBuilder().addSuggestion(
                        "mySuggestion",
                        SuggestBuilders.completionSuggestion("suggestion")
                                .prefix(prefix)
                                .skipDuplicates(true)
                                .size(10)
                ));
        //发起请求
        SearchResponse response = null;
        try {
            response = restHighLevelClient.search(request, RequestOptions.DEFAULT);
        } catch (IOException e) {
            throw new RuntimeException("补全功能失效");
        }

        //解析返回数据
        Suggest suggest = response.getSuggest();
        //根据名称获取补全结果
        CompletionSuggestion mySuggestion = suggest.getSuggestion("mySuggestion");
        List<String>suggestions=new ArrayList<>();
        //如果不存在这个名字的补全名字或者没有匹配的关键字,直接返回空集合
        if(mySuggestion==null||CollectionUtils.isEmpty(mySuggestion.getOptions())){
            return suggestions;//返回空集合
        }
        for (CompletionSuggestion.Entry.Option option : mySuggestion.getOptions()) {
            String key = option.getText().string();
            suggestions.add(key);
        }
        return suggestions;
    }
结果

 分析

1.实现搜索内容补全为什么要额外创建一个关键词数组字段

因为如果直接把all字段作为关键字字段是时,需要匹配搜索的内容过于庞大。

2.关键字自动补全的好处

输入一个拼音可以自动补全要搜索的内容,用户可以直接点击补全的内容,前端就会直接使用补全的内容去es进行搜索匹配,效率更高

3.为什么输入拼音可以自动补全出中文的内容

因为我们自定义了一个关键字分词器,里面有一个拼音分词器,会把中文和中文对应的拼音都加入到suggestion字段的倒排索引库中,输入拼音,然后根据倒排索引库自动补全这个拼音全称,最后再根据这个拼音全称匹配到我们自定义的关键字

根据shang拼音自动补全到上海产业园关键字 和上海关键字

 

4.不使用关键字补全,直接使用拼音进行搜索,可以出结果吗

可以,因为all字段也使用的自定义的分词器,会把分词后的词条拼音也加入到all字段的倒排索引库中,所以也可以直接使用拼音搜索