【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】v7.5.0
-
我在测试存算分离架构的TiFlash遇到以下问题:
- 相关知识点:https://docs.pingcap.com/zh/tidb/stable/tiflash-disaggregated-and-s3
- 两个写节点
- 表副本数是两个
- 当我的一台写节点故障时,表不可访问:
ERROR 1105 (HY000): other error for mpp stream: Code: 0, e.displayText() = DB::Exception: EstablishDisaggTask Failed14: failed to connect to all addresses, e.what() = DB::Exception,
- 查看表的region的分布时,可以看到所有的region都有副本在存活的写节点上
-
遇到这个问题,应该如何快速修复,本来原来的架构的tiflash,是可以高可用的,那这个架构是不是存在单点故障了
-
注意:我用的是新的存算分离架构,tiflash的数据是放在s3点,tiflash分为两个角色,写节点和读节点。我的问题中是写节点故障不可用或者人为宕机的情况下,如果测试过的朋友可以先看一下官方文档