并发读慢会和绑核有关吗

【 TiDB 使用环境】生产环境
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
【附件:截图/日志/监控】
现在3台服务器64G16核500G,每个都有pd,kv,db,没有用numctl绑核,然后三个服务器的cpu都不高可能也就最高10%,内存启动后运行一段时间会到50%,现在单表速度还行,但是如果界面中有十几个请求,每个请求中都会查询数据库,会出现2个2个接口响应,mysql基本会十几个同时响应,这个有哪些配置可以改善这种情况吗

只看描述不太好判断,可以看看下面的文章,里面有不同部署情况下的性能对比:
专栏 - 单机 8 个 NUMA node 如何玩转 TiDB - AMD EPYC 服务器上的 TiDB 集群最优部署拓扑探索 | TiDB 社区

先不用管numctl绑核,你看看没查询,检查什么sql慢

1 个赞

按照我在k8s(绑核)中的测试,cpu分配的太低会是会影响并发性能的,即使cpu使用率不高。
经验之谈,仅供参考。

1 个赞

参考下这个 《TiDB 性能优化实践》

在没有更多信息的情况下,按照你的这个描述,应该是要问请求访问TiDB为什么会变慢。
问题就转为慢查询分析的场景了。怎么样分析慢查询,社区和官方文档都有很多内容,可以搜一下对应的优化方式。

如果想要社区协助具体的分析,你就把具体的集群监控、慢查询SQL、运行日志等内容都发上来,社区的大佬会帮你一起出谋划策。

也不是查询变慢,单独查的时候挺快的,就是接口多的页面会阻塞

建议做一个全链路的延迟分析,明确一下接口多的时候:

  • 数据库响应时间有没有变慢(数据库延迟)
  • 从应用侧看延迟情况(应用延迟+数据库延迟)
  • 单个接口的延迟

先定位到慢的地方,然后再去针对性优化,不然都是很空泛地在这里讨论,没办法具体问题具体分析。

1 个赞

业务慢的话,建议从上到下捋业务,而不是直接看数据库。

是不是什么参数限制并发了?

现在怀疑呢,但是不知道哪些参数能决定这些

有装numactl吗?来个numactl --hardware 和 numastat -m

tidb的特性本来就是读慢

没有安装

这个影响很大吗

你机器是x86还是arm?