TIDB集群不依赖grafana监控,是否还有其他的手段

自己的监控从prometheus里抓取就行

自卖自夸一波,多集群方案可以考虑我们现在用的这套架构,个人用着来挺方便的:专栏 - TiDB多集群监控部署方案实战 | TiDB 社区

另外,也可以考虑直接通过SQL抓取, METRICS_SCHEMA 是基于 Prometheus 中 TiDB 监控指标的一组视图,最终会转换成PromSQL查询Prometheus。
具体看文档:https://docs.pingcap.com/zh/tidb/stable/metrics-schema

这块我确实深入看过,系统库里有很多监控数据,估计metrics接口获取的数据也是从这表里获取的,非常感谢

也是一种解决方案 :+1:

通过sql转换为promQL,如果集群没有部署prometheus,那就代表访问METRICS_SCHEMA没有意义了呗。metrics数据都在各组件的metrics接口可以获得,为何还要走一个prometheus,想不通这里设计的初衷 :joy:

应该是为了缓解TiDB自身的压力,如果不复用Prometheus,那TiDB自己就得实现一套抓取指标、解析、存储的逻辑,太复杂了。
术业有专攻,监控采集这方面事实的标准已经是Prometheus了,与其造轮子实现类似Prometheus的采集逻辑(大概率自己采集的逻辑只是Prometheus的简化版,还只能和内部的一些组件适配),还不如考虑使用其他工具来扩展这一套玩法,现在很多开源的组件也都兼容从Prometheus里读Metrics,可玩性很高的。

其实不是,metrics接口是实时获取的,只能得到当前状态。这个反而是封装了一下,直接查Prometheus的 :joy:

要实时数据更准了,哈哈

如果不部署monitoring_servers,grafana_servers的话,其实TIDBServer默认也是暴露出metrics接口的,是吧

有道理 :+1:

是的,prometheus是从tidb各组件的metrics接口拉取数据的,可以看下prometheus的配置文件

可以从tidb各组件的metrics接口拉取数据的,但是我记得社区有人搞过的

开始搞起 :grin:

只要知道接口调用方式,用什么监控软件应该都可以

是的,目前接口这块信息基本收集完毕了

此话题已在最后回复的 60 天后被自动关闭。不再允许新回复。