store limit设置多少合适,设置太大有啥风险

【 TiDB 使用环境】生产环境
【 TiDB 版本】
4013
【复现路径】做过哪些操作出现的问题
扩容节点region平衡太慢

12个小时移动了2000个region,之前设置的15,现在改成了30 ,能不能继续调大,调大有没有啥风险

之前设置的15,现在改成了30,能不能继续调大,太大有啥风险
080c3166-5aa0-455c-bba0-17890bd71e48

调的太大会对现有业务产生影响,io压力会大一点

1 个赞

我们这边业务都是晚上,白天没啥业务,那就是调大应该没啥事了

1 个赞

结合自己机器IO能力,留出足够部分业务使用,其它可以留出做平衡

1 个赞

设置太大可能导致IO占用过多,影响正常写入,TiKV相应时间增加,影响前台业务,

观察IO,调整一个合适值

该参数用于限制每个Store(即TiKV实例)在存储数据时的最大容量,设置过大会可能对存储资源和写入性能会有影响

调太大也没啥用了。调到100时,io已经打满了

:joy:IO打满的话,确实是没什么可调整的了。

不过4.x这个配置参数可以加快读写,不过可能有数据丢失的风险。我们在4.x版本且服务器都是机械硬盘的时候,是关闭了个配置,读写速度提高了。

嗯,store limit设置和你的硬件资源有关系,不是随便设置的

之前我发的贴,参考下

1 个赞

根据业务,调试到一个合适值

逐步调高把,主要影响IO

Store Limit 是 PD 在 3.0 版本引入的特性,旨在能够更加细粒度地控制调度的速度,针对不同调度场景进行调优。
Store Limit 相关的参数可以通过 pd-ctl 进行设置。
https://docs.pingcap.com/zh/tidb/stable/configure-store-limit

动态调整
store-limit-version 设置为 v2 时,Store Limit v2 生效。在此模式下,Operator 调度限制将根据 TiKV Snapshot 执行情况进行动态调整。当 TiKV 积压的任务较少时,PD 会增加其调度任务。相反,PD 会减少对该节点的调度任务。此时,你无需关注如何设置 store limit 以加快调度进度。

在该模式下,TiKV 执行速度成为迁移进度的主要瓶颈。你可以通过 TiKV Details > Snapshot > Snapshot Speed 面板判断当前调度速度是否达到 TiKV 限流设置。通过调整 TiKV Snapshot Limit (snap-io-max-bytes-per-sec) 来增加或减少该节点的调度速度。

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。