tikv内存不释放,需要手动解决

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:

【TiDB 版本】


3.0.12

5 tidb

3 tipd

5 tikv 双实例

CPU Gold 5218 * 2 64C

MEM 32G * 16 512G

SSD 3T * 2 用于双实例

【问题描述】

tikv内存不释放,每当集群稳定运行2-3个月后,需要手动滚动重启来缓解该问题.

以下是监控图

监控是一个月的时间,前面的数据应该是被滚动清除了

图片都是大图,可以点击或拖拽到新窗口查看

node_exporter

overview

kv

可以参考下这几个帖子:

THP默认关闭的

看到其他的文章主要在说是调节 block-cache capacity 的大小

我现在是512内存,按照官方文档的推荐是配置

512 * 0.5 / 2 = 128G

我现在配置的是80G

那么我应该是调大 还是 调小的?

这个问题持续了差不多一年了把,基本上每2-3个月重启下kv

block_cache 内存这块的大小应该是固定了的,超过 block cache size 部分的内存肯能是 Linux 内存中的 buffer 和 cache 的内存,可以尝试通过 linux 的命令手动清理一下

他的期望是tikv 可以自动释放内存,不用手工运维,关注ing…

每几个月重启一下也很闹心的,如果内存持续增长要溢出,是不是 Linux 会 OOM 掉这个很吃内存的服务?

哥们懂我 :handshake::handshake::handshake:

虽然每隔个几个月这么手动运维,或者搞个自动化运维脚本,不痛不痒;

但是这个问题我问了好几个公司,目前都是这样,需要手动处理,确实有点尴尬;

:+1: