TiFlash 同步无进度问题

是的。。

收到,正在内部分析。

帮忙执行下:SELECT HIGH_PRIORITY variable_value FROM mysql.tidb WHERE variable_name=‘tikv_gc_safe_point’; 拿下结果。

不好意思哈,再辛苦拿下信息:
1、执行 tiup ctl pd -u ${pd_ip:port} service-gc-safepoint 拿下结果信息

2、执行 select VARIABLE_NAME, VARIABLE_VALUE from mysql.tidb;
在结果里看下这项: tikv_gc_leader_desc 所对应的 tidb-server 节点信息,麻烦拿下对应节点的日志信息

3、集群有使用其他工具吗,比如 CDC 之类的?

  1. 执行结果:

  2. gc_leader 信息:

93上的 tidb 日志:
tidb.log (1.2 MB)

  1. 除了一开始迁移数据使用了DM工具,其他都未使用。架构为 3tidb+3tikv+3pd+1tiflash

能确定拿到的 tidb.log 是 GC leader 的日志吗?

是这样的,我通过91的tidb去连,返回结果是localhost。通过93的tidb去连返回结果也是localhost。。。

也不确定gc_leader在哪台机器上,还有什么办法确认吗?

或者我把三天 tidb 的 log 都发你

这样,一共就三个 tidb-server 吧,都拿下可以吗?

tidb_91.log (307.1 KB) tidb_93.log (1.6 MB)

我去92上拿日志,发现 92 上的 tidb 日志不能正常打开:

因为比较大,没办法上传

重启了 92 的 tidb 节点,日志还是无法打开。

是否可以关闭 tidb 节点,然后删除日志文件,再启动?

我先翻翻这两日志

后面是怎么处理这个节点的,有没有 tidb.log 产生以及正常打开?

辛苦再跑跑这个信息:EXPLAIN ANALYZE SELECT HIGH_PRIORITY variable_value FROM mysql.tidb WHERE variable_name=‘tikv_gc_safe_point’;

暂时还没处理,在等你们回复:joy:

execution_info:

time:1.32ms, loops:2, Get:{num_rpc:2, total_time:1.28ms}, scan_detail: {total_process_keys: 2, total_keys: 2, rocksdb: {delete_skipped_count: 0, key_skipped_count: 0, block: {cache_hit_count: 10, read_count: 0, read_byte: 0 Bytes}}}

诶诶,感谢小哥及时回复,研发小哥一直在盯着问题。

小哥,92 节点的 tidb.log 怎么样了?能拿出来一份吗?如果太大不好传,grep gc_worker 试试

等6点后,我关闭92的 tidb 节点,然后 rm 日志文件,再启动 tidb,到时候看下重新生成的日志,可以查看的话我去下来发你

tidb_92.log (308.9 KB)

92的 tidb log 取出来了

收到,辛苦小哥