【TiDB 4.0 PCTA学习笔记】3.2.1 TiDB Cluster Monitoring(K8s 部署的 TiDB 集群监控)@2班+陈墨

3.2.1 TiDB Cluster Monitoring(K8s 部署的 TiDB 集群监控)

一、Config and Deploy Grafana and Prometheus

  1. 创建一个拓扑文件.yaml
  • metadat.name配置的是TiDB监控本身的名称
  • spec.clusters.name配置需要监控TiDB集群本身的名称
  1. 执行Kubectl apply
    $ kubectl apply -f ${tidb-monitor-file}.yaml -n ${namespace}
    3.确认监控是否正常启动
    $kubectl get pod -l app.kubernets.io/instance=basic -n ${namespace} | grep monitor
  2. 监控数据持久化保持
  • 配置persistent true
  • 配置storageClassName
  1. 删除监控
    $ kubectl delete tidbmonitor ${tidb-monitor-name} -n ${namespace}

二、Access Grafana and Prometheus

  1. $ kubectl get svc -n ${namespace}
  2. $ kubectl -n ${namespace} port-forward svc/${grafana-svc-name} 3000:3000 &>/tmp/pf-grafana.log &
  3. 通Ingress方式访问
  • 首先部署Ingress controller
  • 配置监控
  • 通过Ingress访问界面

三、Monitor Kubernetes
通过prometheus监控kubernets

imageimage.jpg1581×312 78.8 KB

四、Access the dashboard

  1. 前提

    imageimage.jpg1075×473 63.1 KB

  2. 通过 kubectl port-forward访问

    imageimage.jpg1606×730 178 KB

  3. 通过Ingress访问

    imageimage.jpg1529×732 138 KB

同学你好,感谢参与 TiDB 4.0 课程的学习!

本篇笔记逻辑清晰、内容丰富,被评选为优质笔记,将额外获得 20 积分,并在 「TiDB 培训」分类下获得“置顶”权益,积分兑换规则将于近期开放,敬请关注!

期待您继续产出优质内容!

此话题已在最后回复的 1 分钟后被自动关闭。不再允许新回复。