logstash-filter-dedupe:Redis的重复数据删除过滤器

时间:2024-06-06 13:18:05
【文件属性】:

文件名称:logstash-filter-dedupe:Redis的重复数据删除过滤器

文件大小:7KB

文件格式:ZIP

更新时间:2024-06-06 13:18:05

Ruby

注意:正在进行中,大多数def暂时不起作用! Logstash重复数据删除插件 这是的插件,旨在处理在HA体系结构中进入Logstash集群的事件的重复数据删除。 我们通过对要删除重复数据的字段进行哈希处理并将其存储在我们随后要检查的数据存储中来实现此目的。 如果找到匹配项,我们将对其进行标记。 然后,您可以继续删除{}它或类似的东西。 快速开始 对于初学者来说,此插件将redis用作其数据存储,以便您可以让多个logstash节点共享相同的重复数据删除信息。 您需要下载redis并将其安装在某个地方。 接下来,您需要使用/opt/logstash/bin/plugin -install logstash-filter-dedupe 最后,将过滤器添加到您的logstash配置中: filter { dedupe { keys => ["keys", "to", "h


【文件预览】:
logstash-filter-dedupe-master
----Rakefile(86B)
----Dockerfile(134B)
----Gemfile(37B)
----docker-compose.yml(153B)
----spec()
--------filters()
----.gitignore(50B)
----lib()
--------logstash()
----README.md(3KB)
----logstash-filter-dedupe.gemspec(947B)

网友评论