insert 批量插入2000行数据prepare耗时很长

为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】
V4.0.13

【概述】 场景 + 问题概述
insert 批量插入2000行数据prepare耗时很长
表结构如下,有9个索引


【执行计划内容】


【 SQL 文本、schema 以及 数据分布】

【业务影响】

【TiDB 版本】
V4.0.13
【附件】 相关日志及监控(https://metricstool.pingcap.com/)

  • TiUP Cluster Display 信息
  • TiUP CLuster Edit config 信息
  • TiDB-Overview Grafana监控
  • TiDB Grafana 监控
  • TiKV Grafana 监控
  • PD Grafana 监控
  • 对应模块日志(包含问题前后 1 小时日志)
2 个赞

prewrite时需要将数据写到tikv,可按写入流程排查下 TiDB 写入慢流程排查系列(二)— 典型问题排查

1 个赞

是prepare 阶段,不是prewrite阶段

1 个赞

你看下 tidb监控的parse compile时间高吗 ? insert …value较多时会造成解析时间增大

1 个赞

image

1 个赞
  • 麻烦上传一个完整的 slowlog 进行分析。(敏感数据可以先脱敏)
  • 表结构以及 insert 的语句辛苦也提供一下。
  • 另外麻烦确认一下这个 SQL 是否执行成功,我看 prewrite 和 commit 的耗时都是 0 。
1 个赞







  • SQL 以及 schema 信息麻烦上传文本。我们这边尝试复现。
  • 另外使用 mysql-client 能否正常复现这个问题。如果可以麻烦上传 explain analyze 的结果。

好像是这个问题,主键是自增的,但是我们现在是发号器给的值导致的,把自增属性去掉没这个问题,下周再测测

之前主键的长度短没这个问题,现在改成17位有这个问题。
去掉自增没问题

2 个赞

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。