关于TiDB的几个问题

1.在什么情况下,TiKV server会出现cpu飙升或者磁盘利用率几乎100%的状况? 2.多个Tikv SERVER的节点上的数据存储,是不是必须对应不同的存储路径? 3.在实际生产环境下,rocksdb的默认压缩是不是导致cpu飙升的元凶之一? 4…在实际生产环境下,大家会修改rocksdb默认的压缩类型吗?比如都改成lz4或者改成zstd? 5. 通常大家在一个TiKV server节点上会利用多少块机械硬盘或者SSD?

建议可以看下官方文档以及 TUG 论坛上 技术文章的版块,有很多实践的文章,各个用户选型、使用、调优等

https://pingcap.com/docs-cn/stable/how-to/deploy/orchestrated/ansible/

https://pingcap.com/docs-cn/stable/reference/configuration/tikv-server/configuration-file/#compression-per-level

https://pingcap.com/docs-cn/stable/reference/performance/tune-tikv/

问下,对于 Tikv 磁盘 io 的问题,有找到对应的问题或者解决方法么? 我们最近在调研 Tikv,测试的时候,也发现磁盘 IO 远比同类的 KV 存储要高。但是也没找到相关的资料或者介绍,请问你现在解决这个问题了么?

5. 通常大家在一个TiKV server节点上会利用多少块机械硬盘或者SSD?

关于第五个问题, 另一个讨论里曾有所涉及, 不妨参考一下.

官方建议使用1TB左右的SSD, 不做RAID; 并建议在单台物理服务器上运行多个TiKV实例. 这些措施都有助于提高TiDB集群整体性能, 并兼顾硬件使用效率.

实际使用过程中, 我们的TiKV仍然使用4块 960GB SAS SSD, 并且做RAID 5. 之所以这么做, 主要是出于管理成本和可用性两方面的考虑:

  • 增加一种新机型配置会加大采购和管理复杂度. 若当前整体TiDB集群规模不算太大, 暂时沿用已有机型较为合算.
  • 不使用RAID会带来可用性降低, 并加重IDC工程师负担.
1 个赞