filebeat output redis 报错 i/o timeout
先把报错内容贴出来。
ERROR redis/client. go: Failed to RPUSH to redis list with write tcp 172.16.73.32:->172.16.73.33:: i/o timeout
ERROR redis/client. go: Failed to publish events: write tcp 1172.16.73.32:->172.16.73.33:: i/o timeout
报错内容是写入超时了。解析问题,在redis的服务的信息正常情况下,可能的问题,第一可能性:是消息队列堵塞了,第二可能性是:连接redis 服务器的网络不太好。
1 redis消息队列阻塞
我的错误就是这个,我在logstash 进行读取redis 的时候配置出了问题,解析也出了问题,所以导致消息队列阻塞了,filebeat 也自然写不进去了。
解决办法:
先检查 logstash 的input的配置:
正确配置实例:
input {
redis {
host => "172.16.73.33" #redis ip
port => "" #redis 端口
password =>"" #redis 密码
db => 9 # 指定redis 库编号
batch_count => 1 # 这个默认值125,指从redis一次性读取多少条数据,关于这个为什么设置为1,我在的另外一篇文章会写到。
data_type => "list" #数据类型
key => "filebeat" #key 值名称
}
}
output 的配置也需要指定正确 ,否则输出不出去,也是会堵塞的。
检查 input 堵塞了还是 output 堵塞了,我们可以先让output 输出到控制台 ,然后看是否可以输出数据,可以的话就是 ouput 的配置有误。
反之则是我们的 input 获取不到消息队列 ,检查input 的配置是否正确。
2. 连接redis 网络不太好。
由于一些网络原因会导致我们连接redis 会超时 ,最后导致 io timeout .我们可以在filebeat 里面进行设置超时时间来避免这一问题。
filebeat.yml
output.redis:
hosts: ["172.16.73.33:52611"]
password: ""
key: "filebeat"
db: 9
timeout: 60 #添加这个参数,设置超时时间,默认值这个是5。
添加 timeout 参数 用来设置 超时时间。来减缓网络带来的影响。具体设置的数值根据你业务的情况进行设置。
3. redis 版本过低。
官方建议的redis版本是2.6版本以上,所以如果我们是使用的redis 2.6 以下的版本,那么很大可能性就是版本导致的问题,我们可以使用2.6 以上的版本进行测试。看看是否是版本导致的问题。
redis的新版本安装文档:redis 安装 与错误