6000ms
于是我就回去把我那个builder的参数也修改了,一执行flink程序,这次不负众望,成功消费到数据了!!!
return KafkaSource.<String>builder()
.setProperty("max.poll.interval.ms","10000") // 设置拉取超时时间为10s
.setProperty("partition.discovery.interval.ms", "10000")
.setProperty("commit.offsets.on.checkpoint", "true")
.setProperty("isolation.level", "read_committed")//read_committed 只会读取事务型成功提交事务写入的消息; read_uncommitted 默认值,能够读取到 Kafka 写入的任何消息
.setBootstrapServers(bootstrapServers)
.setTopics(topicName)
.setGroupId(groupId)
.setClientIdPrefix(clientIdPrefix)
.setStartingOffsets(OffsetsInitializer.committedOffsets(OffsetResetStrategy.EARLIEST));
亦菲、彦祖们,搞定了!如果不是这个问题的话,也参照我上面的排查思路看看是哪里出现了问题!我能解决也是一个一个排查到,给点耐心。
如果帮到你,恭喜呀!如果解决不了,那当我没说,你去看别人的文章吧!
感谢各位的观看,创作不易,能不能给哥们来一个点赞呢!!!