tispark读取kv数据OOM

使用tispark读取一张200G的表,发现tikv有OOM的情况,一直失败。
集群的tikv有6个节点,16核*64G内存
读取过程中,tikv的资源消耗不均衡,先是2台工作,慢慢加到4台,然后出现oom
磁盘使用情况不高

我换一个tidb集群测试,这个集群是从5.1.4版本升级到6.5.3版本的,这个使用没有问题,内存消耗正常,而出问题的集群是直接安装的6.5.3版本,不知道是不是默认参数的变化引起的
大家有没有遇到类似的情况,帮忙解答一下

你描述的应用场景,tikv存储层出现oom ,大概率是一次读到了太多的数据导致block cache爆了,或者是读到了大量数据但返回数据的速度比较慢而导致OOM。

先去对比检查一下两个集群的配置情况,尤其是block cache配置大小

以尝试调整Tikv节点的内存配置,增加每个节点的内存限制