为提高效率,请提供以下信息,问题描述清晰能够更快得到解决:
【 TiDB 使用环境】
【概述】 场景 + 问题概述
一般情况下传统数据事务提交时会先刷wal日志,内存中也同时会存储插入或修改后的数据,如Oracle的database buffer cache,
TiDB也是先刷wal日志,但是却需要Leader的raft log通过raft协议进行节点间日志复制,待集群中大多数follower反馈成功后,然后再apply日志到KV region,
即生成数据,大致看多了3个步骤,对比起来,效率影响怎样?
【背景】 做过哪些操作
【现象】 业务和数据库现象
【问题】 当前遇到的问题
【业务影响】
【TiDB 版本】
【应用软件及版本】
【附件】 相关日志及配置信息
- TiUP Cluster Display 信息
- TiUP CLuster Edit config 信息
监控(https://metricstool.pingcap.com/)
- TiDB-Overview Grafana监控
- TiDB Grafana 监控
- TiKV Grafana 监控
- PD Grafana 监控
- 对应模块日志(包含问题前后 1 小时日志)
若提问为性能优化、故障排查类问题,请下载脚本运行。终端输出的打印结果,请务必全选并复制粘贴上传。