tidb节点、tikv节点oom

测试环境,发现tidb节点、tikv节点经常重启,系统日志相关信息:



混合部署的,尽量做一下资源限制,比如tikv的block-cache进行手动设置并降低。

    • storage.block-cache.capacity:调整存储层块缓存的容量。
  • raftdb.rate-limiter.capacity:调整 RaftDB 的写入速度限制。
  • grpc-concurrency:调整 gRPC 并发度,以减少内存使用。
  • server.grpc-concurrent-streams:调整 gRPC 最大并发流数量。
    试试调整上述参数试试。

这是 oom 了呀, 可以参考文档配置下相关参数
tidb :
https://docs.pingcap.com/zh/tidb/v8.0/configure-memory-usage#tidb-内存控制文档

tikv :
https://docs.pingcap.com/zh/tidb/stable/tune-tikv-memory-performance#tikv-内存参数性能调优

也考虑下优化一下SQL

1.TiDB和TiKV要合理分配下内存 2.内存过低需要对内存扩容 3.看看服务器有没有其他进程占用内存较多 4.是不是执行了啥SQL造成的

tidb 和tikv 混部了,没台服务器上2个tikv实例,2个tidb实例,block-cache 由之前的128G 修改为50G ,修改完了之后还有重启的问题,是需要再改小点吗?机器的配置值512G 128核

看了下重启时间段的sql ,最大内存占用不超过1G

tikv仍然还有被kill的情况发生?发几个监控图看一下。
1.Overview → System info → Memory Available
2.TiDB → Server → Memory Usage
3.TiKV-Details → Cluster → Memory
4.TiDB-Runtime → OOM节点 → Memory Usage
顺便看一下绑没绑numa,绑了的话怎么绑的

内存溢出了

TiDB和TiKV节点还是尽量不要混合部署在一起,这样很容易内存紧张的时候导致占用内存大的节点进程被干掉

混合部署也不好