为什么grafana和kubectl top看到的内存信使用量差那么多

还没设置block cache测试,但是通过kubectl exec到pod里ps看,tikv进程确实是只用了17G内存,距离32G还远着呢。设置block cache总不能按照17G的总内存去设置。这一块还得再调研下,到底少统计的那一块是干什么用的,能不能设置成0。

了解,那目前的情况是 k8s top pods 统计不准的问题?后续还需要我们协助做些什么吗?

谢谢,暂时先这样吧,我有结论的时候贴在这里。

1 个赞

:+1:

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。