对刚下线的 tikv 节点进行扩容失败

为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。

  • 【TiDB 版本】:3.0.1
  • 【问题描述】:您好,进行功能测试,部署2Tidb + 3Tikv + 3PD的一个Tidb集群,max-replicas =2 ,按照文档下线一个Tikv实例,查看store状态为 Tombstone,下线成功;重新添加刚下线的tikv节点(部署目录已经情况)到集群,tikv store状态一直保持Tombstone

PS,请问 max-replicas=$num,表示数据会存储$num份还是$num+1份?

你好,

max-replicas 目前建议是配置 3 ,因为 tikv 建议是部署三个,保证 raft 多副本能选出 leader ,这样一台 stroe 挂掉有一定几率部分数据还是可用的

已下线节点,deploy_dir data_dir 建议清理,在进行扩容,看下是否可行,

不强制要求 max-replicas 的数量,其中也涉及 region 的平衡