TiFlash group by 非常慢

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
线上使用v5.1.1 tidb版本,3个tikv,2个tiflash节点,一张8亿多的表创建2个副本同步到tiflash, 执行group by 非常慢,需要9分多钟,请问如何优化呢?



走tikv

走tiflash

没什么差别。。。请问如何优化呢?

【附件】 相关日志及配置信息

  • TiUP Cluster Display 信息
  • TiUP CLuster Edit config 信息

监控(https://metricstool.pingcap.com/)

  • TiDB-Overview Grafana监控
  • TiDB Grafana 监控
  • TiKV Grafana 监控
  • PD Grafana 监控
  • 对应模块日志(包含问题前后 1 小时日志)

若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。

1赞

可以发一下对应 explain analyze SQL 以及对应的 schema table 哈

1赞

大佬这个问题我找到了,是我 手工 Hint 走tiflash 没生效,我现在想在edit-config 配置文件里面强制让所有查询走tiflash,不走tikv,请问如何设置?我设置了
server_configs:
tidb:
isolation-read.engines: tiflash

在交互命令查看isolation-read.engines 还是[“tikv”,“tiflash”,“tidb”],没生效,请问要如何设置?

1赞

配置完成以后 ,reload 了吗 ?

1赞

tidb.config (4.1 KB)

我restart 整个集群了,还是没生效

这个 yaml 语法配置生效了吗? 看起来配置有点问题。
https://docs.pingcap.com/zh/tidb/stable/use-tiflash#engine-隔离

我重启集群没报错,那请问需要如何配置呢?

参考一下这个 是否可以通过TiUP修改TiDB的isolation-read参数

请问通过tiflash时间上有提升吗?为什么我们的SQL通过tiflash执行20多分钟都不出结果,但是通过tikv 3分钟左右就能出结果,具体SQL类似select xx,xx,xx,xx where date_time >date_sub() group by xx,xx,xx;