关于TiDB集群的TiKV配置策略

【 TiDB 使用环境】
PD: 1节点
TiKV: 3节点
TiDB: 3节点
TiFlash: 1节点

【概述】+ 【现象】
目前生产环境,TiKV 3个节点(集群配置3副本),TiDB 3个节点,频繁update操作时会导致其他表查询变慢

【问题】
请问是因为3节点3副本导致的吗?如果增加到4或5个TiKV是否会缓解这样的问题
【TiDB 版本】
TiDB v5.2.1

1 Like

频繁update 操作有几个注意的事项:

  • 数据是否存在热点问题,如果是update,读写热点都会有(因为要先读出来,更新后,在写回去)

  • 频繁是批次处理,还是一条条的处理? 然后对于事务来说,是有限制的,需要考虑下场景的要求

  • 增加节点,还是会存在热点问题,除非满足打散的要求,可以缓解

以上看是否能帮到你

1 Like

增加tikv节点,切身经历,我们原来和您的一样,后来增加到5个TIKV节点(单节点存储不超过2TB),update和insert都变得很快,慢sql都控制在800ms以下了(以前是5S-6S)

2 Likes

十分感谢您的经验分享!

这个得具体情况具体分析,看看压力点在哪里,不一定非扩容。结合dashboard、granafa的监控信息分析一下。

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。