挂掉之后是有很多down-peer
其它的peer类型查出来的count 都是0
可以先扩容一个tikv,然后在缩容掉问题节点
好的我尝试一下
修改了一些参数,sysbench prepare成功了,个人猜测Tikv节点挂掉的原因就是落盘的压力太大了。
对照在前面发过的配置图,主要修改了
raftstore.apply-max-batch-size(一轮处理数据落盘最大请求数),raftstore.store-max-batch-size(一轮处理的最大请求个数),server.max-grpc-send-msg-len(设置可发送的最大 gRPC 消息长度,针对dispatch raft msg from gRPC to raftstore fail报错)
raftstore.raft-max-size-per-msg(产生的单个消息包的大小限制 ,针对KvService::batch_raft send response fail报错)
成功截图
感觉可能就是落盘的时候压力太大了
ok. 混合部署最好是各个tkv使用单独的ssd
明白了 谢谢!
此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。