掘金 后端 ( ) • 2024-04-22 09:59

本文为稀土掘金技术社区首发签约文章,30天内禁止转载,30天后未获授权禁止转载,侵权必究!

前言

在上一篇文章 OpenTelemetry 实践指南:历史、架构与基本概念中回顾了可观测性的历史以及介绍了一些 OpenTelemetry 的基础概念,同时也介绍了 OpenTelemetry 社区常用的开源项目。

基础背景知识了解后,这篇就来介绍一下使用 OpenTelemetry 如何实战部署应用,同时在一个可视化页面查看 trace、metric 等信息。

项目介绍

我们参考官方文档构建几个 spring boot 、Golang 项目再配合 Agent 其实也可以很方便的集成 OpenTelemetry。

但是要完整的体验 OpenTelemetry 的所有功能,包含 trace、logs、metrics,还有社区这么多语言的支持其实还是比较麻烦的。

我们还需要单独部署 collector、存储的 backend service 等组件、包括 trace UI 展示所需要的 Jaeger,metric 所需要的 grafana 等。

这些所有东西都自己从头弄的话还是比较费时,不过好在社区已经将这些步骤都考虑到了。

特地为大家写了一个 opentelemetry-demo

这个项目模拟了一个微服务版本的电子商城,主要包含了以下一些项目:

Service Language Description accountingservice Go 处理和计算订单数据 adservice Java 广告服务 cartservice .NET 购物车服务,主要会依赖 Redis checkoutservice Go checkout currencyservice C++ 货币转换服务,提供了较高的 QPS 能力。 emailservice Ruby 邮件服务 frauddetectionservice Kotlin 风控服务 frontend JavaScript 前端应用 loadgenerator Python/Locust 模拟压测服务 paymentservice JavaScript 支付服务 productcatalogservice Go 商品服务 quoteservice PHP 成本服务 recommendationservice Python 推荐服务 shippingservice Rust shipping service 可以发现在这个 demo 中提供了许多的服务,而且包含了几乎所有主流的语言,可以很好的模拟我们实际的使用场景了。

通过这张图可以更直观的查看各个服务之间的关系。

整体来说前端所有的请求都会通过 front-end-proxy 这个组件代理,最终再由 front 这个服务进行转发到不同的后端服务中。


除了一个项目的架构图之外,还有一个关于 OpenTelemetry 的数据流转图。

在 OpenTelemetry 中数据流转是它的特点也是非常重要的核心,这点在上一篇文章中讲过,用户可以自由定制数据的流转以及任意的处理数据,在这个图中就将数据流转可视化了。

  • 客户端可以通过 OTLP 协议或者是 HTTP 将数据上传到 OTel Collector 中。
  • 在 collector 中会根据我们配置的 Process pipeline 处理数据。
  • Metric 数据通过 OTLP HTTP exporter 将数据导入到 Prometheus 中。
    • Prometheus 已经于 23 年七月份支持 OTLP 格式的 metric 数据导入了。
  • Trace 数据则是通过 OTLP Exporter 写入到 Jaeger 中进行存储,最后通过 Jaeger 的 UI 进行查询展示。
  • 而存入 Prometheus 中的 metric 数据则是有 grafana 进行查询。

关于 collector 的配置会在后文讲解。

部署

接下来便是安装 Demo 了,我更推荐使用 helm 安装。

这里的版本要求是:

  • Kubernetes 1.24+
  • Helm 3.9+
helm repo add open-telemetry https://open-telemetry.github.io/opentelemetry-helm-charts
helm repo update
helm install my-otel-demo open-telemetry/opentelemetry-demo

这样就可以很简单的将 demo 所涉及到的所有组件和服务都安装到 default 命名空间中。

helm show values open-telemetry/opentelemetry-demo > demo.yaml

不过在安装前还是建议先导出一份 value.yaml,之后可以使用这个 yaml 定制需要安装的组件。

在这个 yaml 中我们可以看到有哪些组件和服务可以定制: 可以看到这里包含了我们刚才提到的所有服务,以及这些服务所依赖的 Kafka、redis、Prometheus 等中间件,都可以自己进行定制修改。

当所有的 Pod 都成功运行之后表示安装成功。

正常情况下安装不会有什么问题,最大可能的问题就是镜像拉取失败,此时我们可以先在本地手动 docker pull 下来镜像后再上传到私服,然后修改 deployment 中的镜像地址即可。

暴露服务

为了方便使用我们可以用这个 demo 进行测试,还需要将 front-proxy 的服务暴露出来可以在本地访问:

kubectl port-forward svc/my-otel-demo-frontendproxy 8080:8080
Component Path Shop 首页 http://localhost:8080 Grafana http://localhost:8080/grafana 压测页面 http://localhost:8080/loadgen Jaeger UI http://localhost:8080/jaeger/ui 正常情况下就可以打开这些页面进行访问了。

不过使用 port-forward 转发的方式只是临时方案,使用 ctrl+c 就会停止暴露服务,所以如果想要一个稳定的访问链接时便可以配置一个 ingress。

components:
  frontendProxy:
    ingress:
      enabled: true
      annotations: {}
      hosts:
        - host: otel-demo.my-domain.com
          paths:
            - path: /
              pathType: Prefix
              port: 8080

在之前的 helm 的 value.yaml 中配置即可,本地测试的话需要将这个 host 和 ingress 暴露出来的 IP 进行绑定才可以使用这个域名机进行访问。

更多关于 ingress 的使用可以参考我之前的文章:

当然简单起见也可以直接将 front-proxy 的 service 类型改为 LoadBalancer。(默认是 ClusterIP 只可以在集群内访问)

这样就可以直接通过这个 service 的 IP 进行访问了。

components:
  frontendProxy:
    service:
      type: LoadBalancer

不过需要注意的是如果 demo 安装完成之后是不可以再次修改 service 的类型的,需要手动这个 service 删掉之后再次新建才可以。

临时测试使用的话还是推荐直接使用 port-forward 进行转发。

查看 Trace

通过之前的项目架构图可以得知,我们在项目首页刷新会直接请求 AdService 来获取广告。

为了简单起见我们只查询这一链路的调用情况:

打开 http://localhost:8080/jaeger/ui/search Jeager 的 UI 页面便可以筛选服务,之后点击查找 Traces 就可以列出一段时间内的访问 trace。

可以看到这个请求链路是从前端访问到 adService 中的 getAds()接口,然后在这个接口中再访问了 getAdsByCategory 函数。

最终在源码中也可以看到符合链路的调用代码。

在刚才的链路图的右下角有一个 spanID,整个 trace 是由这些小的 span 组成,每一个 span 也会有唯一 spanID; trace 也会有一个 traceID 将这些 span 串联起来;更多关于 trace 的内容会在后面的文章进行分析。

查看 Metrics

我们再打开 grafana 便可以看到刚才访问的 adService 的延迟和接口的 QPS 情况:


在opentelemetry-collector-data-flow 面板中还可以看到 OpenTelemetry 的数据流转。

更多监控信息可以查看其它的面板。

而刚才面板中的数据流转规则则是在我们的 collector 中进行配置的:


receivers:
  otlp:
    protocols:
      grpc:
      http:
        cors:
          allowed_origins:
            - "http://*"
            - "https://*"
  httpcheck/frontendproxy:
    targets:
      - endpoint: http://frontendproxy:${env:ENVOY_PORT}

exporters:
  debug:
  otlp:
    endpoint: "jaeger:4317"
    tls:
      insecure: true
  otlphttp/prometheus:
    endpoint: "http://prometheus:9090/api/v1/otlp"
    tls:
      insecure: true
  opensearch:
    logs_index: otel
    http:
      endpoint: "http://opensearch:9200"
      tls:
        insecure: true

processors:
  batch:

connectors:
  spanmetrics:

service:
  pipelines:
    traces:
      receivers: [otlp]
      processors: [batch]
      exporters: [otlp, debug, spanmetrics]
    metrics:
      receivers: [httpcheck/frontendproxy, otlp, spanmetrics]
      processors: [batch]
      exporters: [otlphttp/prometheus, debug]
    logs:
      receivers: [otlp]
      processors: [batch]
      exporters: [opensearch, debug]

重点的就是这里的 service.piplines,可以进行任意的组装。

更多关于 collector 的配置也会在后续文章中继续讲解。

我们也可以继续访问这个 demo 网站,模拟加入购物车、下单等行为,再结合 trace 和 metric 观察系统的变化。

这样一个完整的 OpenTelemetry-Demo 就搭建完毕了,我们实际在生产环境使时完全可以参考这个 demo 进行配置,可以少踩很多坑。

参考链接: