tikv扩容缩容,出现大量慢查询

总结一下,做个记录:

  1. 线上业务tikv做缩容,不要直接tiup cluster scale-in 集群名 --node 10.100.100.101:20161 --node 10.100.100.102:20161,这样会出现大面积dml慢查询,backoff重试
  2. tikv扩容几乎没有影响,或者说性能影响低
  3. tikv下线操作先手动进行leader迁移:tiup ctl:v6.5.5 pd store weight 69804641 0 1 --pd=“http://10.100.100.111:2379
  4. 然后再进行scale-in缩容
  5. 应急操作直接stop掉下线的tikv instance:tiup cluster stop 集群名 --node 10.100.100.101:20161 --node 10.100.100.102:20161