之前测试tidb的时候用了三台tikv,灌了1亿多的数据,每台tikv的ssd(200G)占据了20G左右,请问一下官方或者大佬们,如果我要存储百亿级的数据推荐的配置是什么样的呢?
集群现有配置如下:
因为在验证阶段,所以ssd都只申请了200G的空间。
请大佬们解答一下~拜托
之前测试tidb的时候用了三台tikv,灌了1亿多的数据,每台tikv的ssd(200G)占据了20G左右,请问一下官方或者大佬们,如果我要存储百亿级的数据推荐的配置是什么样的呢?
集群现有配置如下:
请大佬们解答一下~拜托
我也期待大牛来解答这个问题,也是我关心的了
个人建议:
1、百亿的数据量也要根据单行的数据的大小来评估数据量,可以理解为关系型数据库中的字段多少来评估,10个字段和100个字段以及单列存储的大小都有关系, 单从百亿数据量来评估存储量,评估不准确
2、评估tidb 集群的配置分为两个方案,计算和存储,分别以来tidb 和tikv 存粗包括计算下推因子 同时还要评估查询sql的复杂度以及执行计划信息
3、数据量是一个循序渐进的增长过程,配置集群的时候做好磁盘扩容,以及集群扩容的准备
此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。