tidb虚拟化下的后端存储架构选型

【TiDB 使用环境】生产环境 /测试/ Poc
【TiDB 版本】v7.5.2
【操作系统】centos7.9
【部署方式】机器配置卫openstack虚拟化机器
【背景】公司业务线初期计划在虚拟化的openstack平台上规划机器资源,预算有限,其中后端存储打算初期购置集中式的后端存储柜,主要也是新华三、浪潮等等比较主流的后端存储厂商,且如果铺开的话这套后端集中式存储设备可能虚拟化被使用在各自不同的数据库上,存储厂商反馈在集中式存储柜中上层使用分布式的应用,可能存在数据一致性的问题,想咨询下咱们tidb这边能适配么?或者有踩过坑的大佬分享一下需要注意什么?

你这集中式存储设备用肯定能用的,但是性能堪忧,有很大概率多个kv数据节点会存储在同一个磁盘上。

了解,你们都是独立划分的物理机么

看你需求啊,核心数据库对性能有要求,肯定要考虑磁盘性能的。

你说的很对,不过预算有限,如果说在集中式作为后端存储,不存在一致性上的问题就行,具体设备的性能那要测评才知道是否符合要求,多谢

不理解为什么上层是分布式会有一致性问题
存储层面不应该是条带化后挂到主机层面吗?

先留个贴子记录下,目前和后端存储厂商交流过程中有谈论到这个问题,而且多家存储厂商的集中式存储,反应ob就存在这个问题,具体信息渠道,深入交流后在更贴,有兴趣的可以蹲个点,或者有过经验的大佬可以总结下 :smile:

集中式存储你是用fc光纤网络吗,一般来说也没问题,就是存储最好都是ssd,这样速度就够用了

很有意思,本质上ob的数据一致性是通过自身paxos协议保证的;
存储导致ob数据不一致,数据落盘形式不兼容?

没有用过,我们没有搞过分布式

注意下iops,分布式数据库比较吃iops,后端是集中式存储的情况下,虚拟化多个节点之间的iops能否并行增长,可能会是性能的瓶颈点。

“分布式应用 + 集中式存储” 的一致性风险,本质是集中式存储的锁机制 / 缓存策略与分布式应用的多副本共识冲突,但 TiDB 的架构从底层规避了这一问题:

  1. TiKV 自身的多副本共识 TiDB 的存储层 TiKV 采用 Raft 协议管理数据副本(默认 3 副本),数据一致性由 Raft 协议保证,而非依赖底层存储的一致性能力。即使底层是集中式存储,TiKV 也会通过副本间的日志同步、投票确认等机制,确保数据写入的原子性和一致性。
  2. 存储解耦 TiKV 对底层存储的感知仅为 “块设备 / 文件系统”,集中式存储的 LUN 映射到虚拟机后,TiKV 会在其上构建自己的分布式存储逻辑,集中式存储仅承担 “数据持久化载体” 的角色,不参与分布式一致性决策。

挺详细的呀

基本上国产的主流数据库上下游都适配支持

建议你们采购前先做一个官方咨询:联系我们-平凯数据库(TiDB 企业版)