集群配置,只有一个tiflash write_node
节点,并没有计算节点:
看监控可以看到,在set tiflash replica 1
后,tiflash对OSS的操作,Read竟然比Write的量大很多,这个原因是?
集群配置,只有一个tiflash write_node
节点,并没有计算节点:
看监控可以看到,在set tiflash replica 1
后,tiflash对OSS的操作,Read竟然比Write的量大很多,这个原因是?
TiFlash副本之间在同步数据
数据分片读
tiflash本来就是面向MPP的,就是应对大量读的
仔细看了下文档,现在大概明白了,所谓的write_node
的local
数据也真的仅仅是一个cache
,数据量非常非常少,仅仅是充当一个写缓存,写S3成功之后就会在本地被删除掉。
通过分析那段时间的监控也可以发现,即便是在迁移期间write_node
的本地数据也一直只有4 MB
多。在S3
上的内容在初始上传后有96 GB
,不过在经过一段时间稳定后只有55 GB
,TiFlash也就不会再对S3
产生GET
操作。(我这套集群是个测试集群,上面没有读写请求,都是静态数据)
通过这里,也就可以发现TiFlash on S3
架构现阶段时将S3
当成普通的磁盘来使用的,有多少个write_node节点,在S3上就有多少个子目录,每个目录对应一个write_node
节点。
日常的Merge/Split/GC/compact
等操作,都需要直接读写S3
中的数据。
学习了
此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。