总结一下,做个记录:
- 线上业务tikv做缩容,不要直接tiup cluster scale-in 集群名 --node 10.100.100.101:20161 --node 10.100.100.102:20161,这样会出现大面积dml慢查询,backoff重试
- tikv扩容几乎没有影响,或者说性能影响低
- tikv下线操作先手动进行leader迁移:tiup ctl:v6.5.5 pd store weight 69804641 0 1 --pd=“http://10.100.100.111:2379”
- 然后再进行scale-in缩容
- 应急操作直接stop掉下线的tikv instance:tiup cluster stop 集群名 --node 10.100.100.101:20161 --node 10.100.100.102:20161