节点buff/cache过高,求助大佬

四台32g服务器,混合部署两套tidb集群,配置中限制tikv节点内存使用,基本没效果。
之前对服务器A的一个tikv节点迁到服务器B上面,服务器A的buff/cache降到12g左右

应该怎么调整呢

这又不影响啥, buff/cache 是可释放的吧,就是读写缓冲吧

1 个赞

极限情况时这样的,然后pd节点全部down掉了

宕掉的日志呢?不是因为内存宕掉的吧

1 个赞

tikv里面就是各种超时,感觉就像服务没响应了

其他节点呢,感觉这个节点是连不上远程节点了,看下 pd leader 日志呢

上面那个就是leader

内存有swap么

有没有防火墙这些

PD 几个节点的进程都没有重启吗

pid为1360029跑的是什么

内存该加还得加

感觉资源不够用

内存就是太小了,tidb很吃内存,你不要在一个配置不高机器上混合部署这么多节点

先从/var/log/message里看下是否是因为内存oom导致的

cpu和内存占用都很低,报错也集中在网络问题上,还是要从网络的方向查一查。

buff/cache 的内存占比大概率不是问题所在,如果看不惯可以调整按照上面这个文档调整一下。再尝试一下。

看官方文档适当调整一下吧

linux里面buff/cache里面占用的内存都是可以使用的内存,可以把他当成free就可以,就你现在的资源使用来看,内存肯定不是你这个机器的瓶颈。你的pd报错也是提示请求etcd失败,大概率是pd和tikv之间的网络有问题,往这个方向排查下吧。。。

日志中显示 connection refused 错误,这通常意味着 PD 服务没有在预期的端口上监听,或者网络配置阻止了连接。检查 PD 服务是否在预期的 IP 地址和端口上运行,并且网络配置(如防火墙规则)允许从其他节点到 PD 的连接。

没有oom

1 个赞