【 TiDB 使用环境】生产环境 /测试/ Poc
【 TiDB 版本】
【复现路径】做过哪些操作出现的问题
【遇到的问题:问题现象及影响】
【资源配置】进入到 TiDB Dashboard -集群信息 (Cluster Info) -主机(Hosts) 截图此页面
disk Fail multiple components tikv:/app/TiDB/tidb-data/tikv-20160,tiflash:/app/TiDB/tidb-data/tiflash-9000 are using the same partition 192.168.0.116:/ as data dir
这两个存储引擎不一样,数据格式也不同,是要分开的啊。
你建立2个目录就能分开了。和磁盘没关系啊。
tikv和tiflash原则上不要放在一个盘。但是,如果非要放在一个盘也可以,只是不能使用一个目录。
非用一个盘建两个目录呗
我分了两个目录了:
global:
user: “tidb”
ssh_port: 22
deploy_dir: “/app/TiDB/tidb-deploy”
data_dir: “/app/TiDB/tidb-data”
tiflash_servers:
- host: 192.168.0.116
data_dir: /app/tidb-tiflash
然后依旧报错:
192.168.0.116 disk Fail multiple components tikv:/app/TiDB/tidb-data/tikv-20160,tiflash:/app/tidb-tiflash are using the same partition 192.168.0.116:/ as data dir
,我只有一块磁盘,且已有数据服务在运行了:
nvme0n1 259:0 0 465.8G 0 disk
├─nvme0n1p1 259:1 0 1G 0 part /boot/efi
└─nvme0n1p2 259:2 0 464.7G 0 part /
贴一下完整的topology文件
global:
user: “tidb”
ssh_port: 22
deploy_dir: “/app/TiDB/tidb-deploy”
data_dir: “/app/TiDB/tidb-data”
listen_host: 0.0.0.0
arch: “amd64”
monitored:
node_exporter_port: 3001
blackbox_exporter_port: 3002
pd_servers:
- host: 192.168.0.116
tidb_servers: - host: 192.168.0.116
tikv_servers: - host: 192.168.0.116
tiflash_servers: - host: 192.168.0.116
data_dir: /app/tidb-tiflash
monitoring_servers: - host: 192.168.0.116
grafana_servers: - host: 192.168.0.116
alertmanager_servers: - host: 192.168.0.116
我执行的是:
tiup cluster check ./topology.yaml --user tidb -p
用于检测的,但是报错了,不知道忽略的话部署后会不会出问题
你把global下面的data_dir去掉,然后在各自标签下写自己的目录应该就可以
性能会很差,测试环境可以考虑,生产就算了吧。其实测试环境如果不测试tpch之类的面向olap的业务,可以不部署tiflash。
这个和磁盘的关系不大吧,你应该一台跑多个服务吧,那就设置不同的数据目录就可以了
你好,咨询下我只有一台物理服务器,可以部署TiDB数据库吗,数据量大概20G,但是并发量不大。
可以测试一些一台机器部署的tidb QPS 是否满足你的需求
可以,但没必要,单机不如mysql
可以的,但是对内存有要求,部署一个1pd 1tikv 1tidb单机,内存不低于16G,配置tidb和tikv内存限制
TiKV 和 TiFlash 是两个高性能、高吞吐的数据存储引擎,它们对磁盘性能和容量都有较高要求,TiKV写密集型,大量 WAL 日志 + RocksDB 数据写入。TiFlash列式存储,压缩率低,读写并重,占用空间大。
可以在同一个盘下,建不同目录