tikv3个节点,是不是1个tikv都不能宕掉

【 TiDB 使用环境】生产环境
【 TiDB 版本】v5.4.0 2tidb 3pd 3tikv
【复现路径】咨询下现在3个tikv,如果宕了一个tikv服务器,是不是整个tidb集群写数据有问题。假如需要能宕1个tikv,是不是需要4个tikv节点。
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】

我记得3节点的设置是为了当宕机的时候还不至于不能用。

所以随时保留 3个可用的 tikv 即可,如果你知道有某个 tikv 坏了,可以通过先扩容后缩容的方式把坏掉的 tikv 换成好的即可。

如果是3副本的话不会有问题,但是再当宕机1台就不能用了,另外需要注意3台宕机一台后需要补充一台才能缩容掉老机器

1 个赞

可以用,但是要及时修好。

TiDB默认数据是三副本,一个leader,两个follower,而且这些副本会分散在各个结点上,写入成功的时候能保证至少两个结点数据是完整的,所以如果任意一个结点出了问题,数据完整性还是有保证的,tidb会把挂掉那台机器的上的region的主结点移动到存活的两台机器上,集群依然能够正常允许,不过另外两台tikv的压力会变大,毕竟机器少了

建议定期巡检tidb dashboard和grafana监控,或者设置报警

3副本并且均匀分布的话,宕机一个tikv节点是没有问题的。

3个tikv可以坏一个,但是要尽早发现尽快修复,再坏一个数据就丢了

分布式数据库,肯定容忍单节点故障的

生产环境一般不会混部,可以用

准确点是3个tikv实例,宕1个实例没问题。如果是3台服务器,每台部署了多个实例,没有配置label标签,同一份数据的2个副本在一台集群的2个实例上,宕机了也会有问题的。

2 个赞

可以用,但碰到要快点去修复

可以且只能挂掉1个

可以挂

可以挂,但必须尽快的修复。
集群使用单数节点,偶数节点,可能会出现‘脑裂’问题,出现多个leader,导致数据不一致。

我试过,三个挂一个tikv数据库还正常跑,挂两个就不工作了

tikv也是多数派原则

可以dang

有条件可以准备 5个 节点,至于是三副本,还是五副本可选…

这样你就不用担心了

副本太多影响性能吧,数量越多要求修改要求大部分都完成持久化,资源消耗越大

高可用和备份机制,就必须更多的资源支持,
数据修改的请求和处理,以及节点之间的同步,是两个事情

至于资源消耗的问题,是业务要求,性能要求和灾备要求的平衡,不是一句话能概括的