TiFlash 无法做聚合计算

为提高效率,提问时请提供以下信息,问题描述清晰可优先响应。

  • 【TiDB 版本】:v4.0.0-rc
  • 【问题描述】:

搭建好了单节点的tiflash,使用时发现无法做聚合计算。

具体见下方截图。按照tiflash官方教程做的。检测完该表已同步后,写select count 报语法错误。

你好,

首先,count() 函数是可以下推到 tiflash 的,目前推荐在 4.0-rc.1 上测试 tiflash,这边也是优化了很多的内容,会有更好的体验。
https://pingcap.com/docs-cn/stable/tiflash/upgrade-tiflash/#升级-tiflash-节点

对于当前问题,请协助反馈写一下信息,以便排查:

  1. 集群目前的拓扑情况
  2. 当前 ,max-replicas 值,获取方式:pd-ctl -u http://pd-ip:pd-port config show |grep max-replicas
  3. 尝试将 tiflash 副本数设置为 1。看是否可以解决
  1. 3 pd, 4 kv , 2 tidb ,1 tiflash

{
  "replication": {
    "enable-placement-rules": "true",
    "location-labels": "",
    "max-replicas": 3,
    "strictly-match-label": "false"
  },
  "schedule": {
    "enable-cross-table-merge": "false",
    "enable-debug-metrics": "false",
    "enable-location-replacement": "true",
    "enable-make-up-replica": "true",
    "enable-one-way-merge": "false",
    "enable-remove-down-replica": "true",
    "enable-remove-extra-replica": "true",
    "enable-replace-offline-replica": "true",
    "high-space-ratio": 0.6,
    "hot-region-cache-hits-threshold": 3,
    "hot-region-schedule-limit": 4,
    "leader-schedule-limit": 4,
    "leader-schedule-policy": "count",
    "low-space-ratio": 0.8,
    "max-merge-region-keys": 200000,
    "max-merge-region-size": 30,
    "max-pending-peer-count": 16,
    "max-snapshot-count": 3,
    "max-store-down-time": "30m0s",
    "merge-schedule-limit": 8,
    "patrol-region-interval": "100ms",
    "region-schedule-limit": 4,
    "replica-schedule-limit": 8,
    "scheduler-max-waiting-operator": 3,
    "split-merge-interval": "1h0m0s",
    "store-balance-rate": 15,
    "store-limit-mode": "manual",
    "tolerant-size-ratio": 5
  }
}
  1. 先删,在导入 ,副本设置为1,还是一样的问题。

你好

请帮忙反馈下

  1. {tiflash-deploy-dir}/log/ 下的所有日志文件,这边分析下。

每次 执行SQL语句,tiflash_error.log报错:

2020.05.18 14:31:01.628985 [ 148 ] <Error> DAGDriver: void DB::DAGDriver<batch>::execute() [with bool batch = false]: std exception: Syntax error

你好,

前端执行报错日志输出类似信息也算是预期吧,但是具体原因还需要反馈一下

  1. tiflash - log 下的所有日志。
  2. 可以排查下 tidb.log 和 tikv.log 是否存在类似的报错