你好,我已经将tikv增加了location标签,请问如何将异地中心已有的raft leader赶走?
通过这条命令对之前已有的raft leader分布有效吗
config set label-property reject-leader xxx
你好,我已经将tikv增加了location标签,请问如何将异地中心已有的raft leader赶走?
通过这条命令对之前已有的raft leader分布有效吗
config set label-property reject-leader xxx
通过 pd-ctl scheduler add evict-leader-scheduler store-id 对现有 leader 进行驱逐,并添加如上设置即可
还有个问题,如果本地中心down机,但异地中心做了config set label-property reject-leader xxx,那异地中心的副本还能当leader吗
本地中心不建议使用该选项,先清楚当前集群场景在使用该设置。可以看下 tidb in action 中对此场景的描述,主要是异地集群网络延迟问题,该设置也是在异地集群中进行配置的。
禁止向异地机房调度 raft leader 当 raft leader 在异地数据中心时,会造成不必要的本地数据中心与异地数据中心间的网络消耗,同时由于网络带宽和延迟的影响,也会对 TiDB 的集群性能产生影响。需要禁用 raft leader 的调度。
config set label-property reject-leader dc dc3
我的意思是,如果设置了禁止向异地机房调度 raft leader,那么如果本地中心机器全部down机,异地中心的副本是否还可以成为leader?
哦好的了解了,我想接着再问两个问题:
1、如果集群半数以上tikv故障,集群会变为一个什么状态?
3、故障的tikv无法恢复,靠剩余的tikv,要怎么让集群恢复可服务状态?
好的,多谢解答
是否可以这样理解,比如我们是5个tikv,5副本的配置,现在4个tikv故障,剩余异地中心的一个副本,异地中心副本保存有完整的region,但仍旧不能提供服务,需要先补充副本数才行是吗?
是的,需要做一些处理才可以将异地副本对外提供服务
好的,谢谢
ok
此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。