每10分钟读一次,大概不到两天的数据量,使用时间字段取数(不超过两天,最近两天),跑了半年,为啥spark的计算任务(task),越来越多?
是不是spark 设定的计算模型 没达到预期? 严格上来说,tikv 只提供数据而已
哪要判断很简单,到底是读慢,还是计算慢?
如果是读慢,参考tidb slow query,很容易定位到慢查询了…
后续参考执行计划下,做优化即可…
每10分钟读一次,大概不到两天的数据量,使用时间字段取数(不超过两天,最近两天),跑了半年,为啥spark的计算任务(task),越来越多?
是不是spark 设定的计算模型 没达到预期? 严格上来说,tikv 只提供数据而已
哪要判断很简单,到底是读慢,还是计算慢?
如果是读慢,参考tidb slow query,很容易定位到慢查询了…
后续参考执行计划下,做优化即可…