关闭tikv维护的问题

【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】
【附件:截图/日志/监控】
现在我这有套4台主机,8个tikv节点的裸tikv,需要关闭一台主机更换内存,请问可以同时关闭上边的两个tikv节点吗,关闭之后上边的leader region会迁移到其他节点吗,如果有迁移,会有性能损耗吗

如果打了 label,可以停。只要你判断关闭一个物理机 不会丢失多个副本即可。

不放心的话可以考虑先下线掉这个节点。

影响的话:
如果直接关闭节点,会有影响,短时间这个节点上的 leader 会重新选举,应用如果没有超时,应该是有响应时间变高一点 但是没有报错。

tidb 默认 30min 后会补数据,开始前 30min 只是 leader 选举到其他节点。你可以用 pd-ctl 去改补数据的时间。

当然 你可以用 pd-ctl 驱逐要关闭节点的 leader ,这样影响会小一些。

其他影响就是你少了一个存储节点,集群整体性能肯定会下降的。

  1. leader肯定会转移的,有转移,肯定就会有性能抖动
  2. 最好是换完一个再换一个;同时关闭两个节点,可能会导致某些region不可用

image
image
image

我同一台机器上的两个节点zone值相同,rack值不同。pd-ctl,config show里边的 “isolation-level”: “”,这个配置为空可以吗

看你有 location-labels ,应该没问题

不放心的话 发下你的 label 是怎么打的,一起瞅瞅

image
image

你这个截图没看懂,再说内网 ip 你怕啥。

或者看下 dashboard


这个地方

哥,在帮看下我这个label

应该没问题,不过你这个 label 有点问题,一个 host 的服务器 怎么可能 rack 不一样。

搞得有点拿捏不住啊。

关于 label,看下这个:https://docs.pingcap.com/zh/tidb/dev/schedule-replicas-by-topology-labels#设置-pd-的-location-labels-配置

你得看下整体的 label,符合哪一层,你这个 rack 如果失效了 应该没问题,最好是根据 host 做的数据分布。

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。