96核3台裸TIKV集群 go-ycsb性能压测,TIKV-server CPU拉不满

【 TiDB 使用环境】测试
【 TiDB 版本】6.5.0
【复现路径】./go-ycsb run tikv -P workloads/workloadc -p tikv.pd=“51.20.128.101:2379” -p tikv.type=“raw” -p recordcount=1000000 -p operationcount=10000000 -p threadcount=200
【遇到的问题:问题现象及影响】


image

【资源配置】裸机1PD3TIKV集群
image

【附件:截图/日志/监控】
网络 25GE 磁盘nvme 基本不可能达到瓶颈
应该如何调整使得CPU占用率升高

当前现象是调整readpool.unified.max-thread-count 设置为 10 可以性能提高 但是CPU占用率还是低

CPU使用率不高是好现象,为什么非让它升高?增加并发是可以升高的

压测是测试集群极限和弱点,cpu、内存、网络、磁盘读写都有可能造成性能瓶颈

压测吗

每个节点多少块NVME硬盘?

你有多少颗CPU呢,看下TiKV面板的cpu线程池监控,有没有满的

目前来看就是增加并发量(尝试增加线程数) 依旧是上不去,当前想把压力拉满上去看看性能指标

每个节点都是单块nvme给tikv做数据盘

两颗cpu共96核数 所以这点CPU占用远远不够压测

来个TiKV监控看看,主要是线程cpu那里

无法上传图片呢,看起来就是Unified read pool 峰值能在1300% 调整readpool.unified.max-thread-count 设置为 10 后 峰值稳定在700左右,性能上升3倍,但是CPU占用率依旧在整体的20%

go-ycsb这个工具是哪个版本的?

那铁定吃不满的,单块NVME这个数据量,TiKV节点的基础功能消耗的CPU有限,除非是做计算下推。

96核心还是96线程?EPYC 9474F?

这是个啥工具

96核心的 TiKV节点的基础功能消耗的CPU有限具体指的是哪些基础功能呢,瓶颈在哪个模块处理。这个IOPS 离NVME单盘8K读写的理论IOPS还差的很多吧

1.0.1

TiKV是MemTable转储落盘,所以是顺序写而非随机写,要看MBPS而非IOPS。其实要看瓶颈是不是在硬盘很简单,上两块硬盘,看看CPU占用有没有提升就可以了。

1 个赞

跑大复杂sql

1 个赞