快速入门链路追踪sleuth整合zipkin(代码演示)

1、演示项目背景

2、pom.xml

3、启动项目

4、测试

5、保存数据到数据库

6、通过mq保存数据到mysql

7、通过mq保存数据到es


1、演示项目背景

下载zipkin,建议使用2.x版本的,3.x版本的要求jdk高版本。如果自己是1.8,就下载2.x

下载地址:Central Repository: io/zipkin/zipkin-server (maven.org)

使用consul作为注册配置中心,自己也可以使用nacos等其他的。

三个微服务(consumer和provider代码在上一篇文章)

新加个gateway是为了更能清楚查看链路信息

service-gateway代码

application.yml

server:
  port: 9092
spring:
  application:
    name: service-gateway
  cloud:
    consul:
      host: localhost
      port: 8500
      discovery:
        register: true  #是否需要注册
        instance-id: ${spring.application.name}-01 #实例名称(必须唯一)
        service-name: ${spring.application.name} #服务名称
        port: ${server.port}  #服务端口
        prefer-ip-address: true #是否使用ip注册服务
        ip-address: ${spring.cloud.client.ip-address} #请求服务ip地址
        health-check-timeout: 5s
    gateway:
      routes:
        - id: service-consumer
          uri: lb://service-consumer
          predicates:
            - Path=/service-consumer/**
          filters:
            - StripPrefix=1

        - id: service-provider
          uri: lb://service-provider
          predicates:
            - Path=/service-provider/**
          filters:
            - StripPrefix=1
  zipkin:
    base-url: http://localhost:9411/ 
    sender:
      type: web     #传输方式,web、rabbit、kafka、rocketmq
  sleuth:
    sampler:
      probability: 1.0   #应该采样的请求的概率。 
#例如。 1.0-应抽样100%的请求。 精度仅是整数(即不支持0.1%的迹线).    如果是1.0就会保存所有的请求。

启动类

package com.txd;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;

@SpringBootApplication
public class GatewayApplication
{
    public static void main(String[] args) {
        SpringApplication.run(GatewayApplication.class,args);
    }
}

pom

 <dependencies>

        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-gateway</artifactId>
            <version>2.2.1.RELEASE</version>
        </dependency>

        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-consul-discovery</artifactId>
            <version>2.2.1.RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-zipkin</artifactId>
            <version>2.2.1.RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-sleuth</artifactId>
            <version>2.2.1.RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-actuator</artifactId>
        </dependency>
    </dependencies>

service-consumer的yml

server:
  port: 9090
spring:
  application:
    name: service-consumer
  cloud:
    consul:
      host: localhost
      port: 8500

      discovery:
        register: true  #是否需要注册
        instance-id: ${spring.application.name}-01 #实例名称(必须唯一)
        service-name: ${spring.application.name} #服务名称
        port: ${server.port}  #服务端口
        prefer-ip-address: true #是否使用ip注册服务
        ip-address: ${spring.cloud.client.ip-address} #请求服务ip地址

  zipkin:
    base-url: http://localhost:9411/ 
    sender:
      type: web     #传输方式,web、rabbit、kafka、rocketmq
  sleuth:
    sampler:
      probability: 1.0    #应该采样的请求的概率。 
#例如。 1.0-应抽样100%的请求。 精度仅是整数(即不支持0.1%的迹线).    如果是1.0就会保存所有的请求。

service-provider的yml


spring:
  application:
    name: service-provider
  cloud:
    consul:
      host: localhost
      port: 8500

      discovery:
        register: true  #是否需要注册
        instance-id: ${spring.application.name}-01 #实例名称(必须唯一)
        service-name: ${spring.application.name} #服务名称
        port: ${server.port}  #服务端口
        prefer-ip-address: true #是否使用ip注册服务
        ip-address: ${spring.cloud.client.ip-address} #请求服务ip地址
      config:
        enabled: true     #是否开启配置中心
        format: yaml      #配置文件格式,这里用的yaml
        profile-separator: "-"  #例如: service-provider和dev中间的符号 用-就是service-provider-dev
        data-key: data    #默认的值就是data  是config的key
        prefix: config    #默认的值就是config 是配置的前缀
  profiles:
    active: dev
  zipkin:
    base-url: http://localhost:9411/  
    sender:
      type: web     #传输方式,web、rabbit、kafka、rocketmq
  sleuth:
    sampler:
      probability: 1.0    #应该采样的请求的概率。 
#例如。 1.0-应抽样100%的请求。 精度仅是整数(即不支持0.1%的迹线).    如果是1.0就会保存所有的请求。

server:
  port: 9091

2、pom.xml

因为需要用sleuth和zipkin,依赖必须导。保证三个微服务都有

        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-sleuth</artifactId>
            <version>2.2.1.RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-zipkin</artifactId>
            <version>2.2.1.RELEASE</version>
        </dependency>

3、启动项目

保证consul和zipkin服务端都已经运行

zipkin启动:        java -jar zipkin....jar

consul启动:    consul.exe agent -dev

启动后分别访问:localhost:8500        localhost:9411 

启动三个微服务项目,查看consul都已经注册上去了

4、测试

接口逻辑1:通过gateway网关访问consumer服务,consumer服务调用provider服务

接口逻辑2:直接访问consumer服务,consumer服务调用provider服务

测试接口:访问localhost:9092/service-consumer/1

查看zipkin:

可以看到我们调用的方法,经过了三个服务的链路(其他的链路是consul的异步请求不用管)

点进去查看,我们可以看到每一个服务的耗时、地址等信息。

点击依赖:

我们可以看到每个服务之间的调用关系

直接访问consumer服务,不经过网关:localhost:9090/1

如果太多了,我们可以进行筛选:

现在的请求都是保存在内存中,如果我们重启zipkin这些链路数据就会全部丢失。

5、保存数据到数据库

不用改代码

新建数据库zipkin        建表语句(官方提供的,我复制到这里)

CREATE TABLE IF NOT EXISTS zipkin_spans (
  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
  `trace_id` BIGINT NOT NULL,
  `id` BIGINT NOT NULL,
  `name` VARCHAR(255) NOT NULL,
  `remote_service_name` VARCHAR(255),
  `parent_id` BIGINT,
  `debug` BIT(1),
  `start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL',
  `duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query',
  PRIMARY KEY (`trace_id_high`, `trace_id`, `id`)
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTracesByIds';
ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT 'for getTraces and getSpanNames';
ALTER TABLE zipkin_spans ADD INDEX(`remote_service_name`) COMMENT 'for getTraces and getRemoteServiceNames';
ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT 'for getTraces ordering and range';

CREATE TABLE IF NOT EXISTS zipkin_annotations (
  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
  `trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id',
  `span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id',
  `a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or Annotation.value if type == -1',
  `a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller than 64KB',
  `a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if Annotation',
  `a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp',
  `endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is null',
  `endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint is null, or no IPv6 address',
  `endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null',
  `endpoint_service_name` VARCHAR(255) COMMENT 'Null when Binary/Annotation.endpoint is null'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`, `span_id`) COMMENT 'for joining with zipkin_spans';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTraces/ByIds';
ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT 'for getTraces and getServiceNames';
ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT 'for getTraces and autocomplete values';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`) COMMENT 'for dependencies job';

CREATE TABLE IF NOT EXISTS zipkin_dependencies (
  `day` DATE NOT NULL,
  `parent` VARCHAR(255) NOT NULL,
  `child` VARCHAR(255) NOT NULL,
  `call_count` BIGINT,
  `error_count` BIGINT,
  PRIMARY KEY (`day`, `parent`, `child`)
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

重新启动zipkin,启动命令:

java -jar zipkin-server-2.24.1-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=localhost --MYSQL_TCP_PORT=3306 --MYSQL_USER=root --MYSQL_PASS=123456 --MYSQL_DB=zipkin

可以发现数据已经存入到mysql中,当我们继续使用上面配置数据库命令启动时就会自动恢复数据库中的数据

链路信息是巨多的,长时间持续写入对数据库压力也是巨大的

6、通过mq保存数据到mysql

给三个微服务都添加rabbit依赖

        <dependency>
            <groupId>org.springframework.amqp</groupId>
            <artifactId>spring-rabbit</artifactId>
        </dependency>

修改配置文件:(三个都修改)


spring:
  application:
    name: service-provider
  cloud:
    consul:
      host: localhost
      port: 8500

      discovery:
        register: true  #是否需要注册
        instance-id: ${spring.application.name}-01 #实例名称(必须唯一)
        service-name: ${spring.application.name} #服务名称
        port: ${server.port}  #服务端口
        prefer-ip-address: true #是否使用ip注册服务
        ip-address: ${spring.cloud.client.ip-address} #请求服务ip地址
      config:
        enabled: true     #是否开启配置中心
        format: yaml      #配置文件格式,这里用的yaml
        profile-separator: "-"  #例如: service-provider和dev中间的符号 用-就是service-provider-dev
        data-key: data    #默认的值就是data  是config的key
        prefix: config    #默认的值就是config 是配置的前缀

  profiles:
    active: dev

  zipkin:
    base-url: http://localhost:9411/  #服务名称
    sender:
      #传输方式改为rabbit
      type: rabbit     #传输方式,web、rabbit、kafka、rocketmq
    #指定rabbitmq的传输队列
    rabbitmq:
      queue: zipkin
  sleuth:
    sampler:
      probability: 1.0

#rabbitmq相关配置
  rabbitmq:
    addresses: 192.168.133.102
    port: 5672
    username: guest
    password: guest
    listener:
      direct:
        retry:
          enabled: true
          max-attempts: 5
          initial-interval: 5000
      simple:
        retry:
          enabled: true
          max-attempts: 5
          initial-interval: 5000
server:
  port: 9091


启动rabbitmq。

为了更加清楚看到链路数据发送到mq中,我们先关掉zipkin服务端。

如果打开,消息发送到mq就会被直接消费掉。

并且清空数据库之前的链路数据,清空三个表的数据。

现在队列是没有任何东西的,我们重新启动三个服务

数据库zipkin表中也没有任何数据

启动微服务项目

可以看到zipkin队列已经自动创建出来了,而且也有了消息。(注册中心调用的异步请求)

我们再调用几次接口

启动zipkin(连接信息换成自己的)

java -jar zipkin-server-2.24.1-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=localhost --MYSQL_TCP_PORT=3306--MYSQL_USER=root --MYSQL_PASS=123456 --MYSQL_DB=zipkin --RABBIT_ADDRESSES=192.168.133.102:5672 --RABBIT_USER=guest --RABBIT_P
ASSWORD=guest --RABBIT_VIRTUAL_HOST=/ --RABBIT_QUEUE=zipkin

配置数据库信息和RabbitMQ连接信息

可以看到zipkin中已经有了链路数据

再查看数据库

数据也已经成功保存到mysql中

7、通过mq保存数据到es

不用修改代码,启动es服务   ,启动kibana

重新启动zipkin

启动命令:(换成自己的es地址和mq地址)

java -jar zipkin-server-2.24.1-exec.jar --STORAGE_TYPE=elasticsearch --ES_HOSTS=192.168.133.102:9200 --RABBIT_ADDRESSES=192.168.133.102:5672 --RABBIT_USER=guest --RABBIT_PASSWORD=guest --RABBIT_QUEUE=zipkin

启动微服务项目

查看rabbitmq界面(已经有数据被消费了)

这时候查看elasticsearch

打开192.168.133.102:5601

zipkin会自动根据当前年月日创建index

可以看到数据已经成功被存储到es中了

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/698520.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Postman环境变量以及设置token全局变量!

前言百度百科解释&#xff1a; 环境变量&#xff08;environment variables&#xff09;一般是指在操作系统中用来指定操作系统运行环境的一些参数&#xff0c;如&#xff1a;临时文件夹位置和系统文件夹位置等。 环境变量是在操作系统中一个具有特定名字的对象&#xff0c;它…

Ubuntu server 24 (Linux) 安装部署 Zabbix 7.0 LTS

一 安装Mysql 8.03 testtest:~$ mysqld --version /usr/sbin/mysqld Ver 8.0.36-2ubuntu3 for Linux on x86_64 ((Ubuntu)) #mysql 大于8.03.x ,启动zabbix-server会报错如下 Unable to start Zabbix server due to unsupported MySQL database version (8.04.00). Must not…

英伟达最新GPU和互联路线图分析

Nvidia在计算、网络和图形领域独树一帜&#xff0c;其显著优势在于雄厚的资金实力及在生成式人工智能市场的领先地位。凭借卓越的架构、工程和供应链&#xff0c;Nvidia能够自由实施创新路线图&#xff0c;引领行业未来。 到 21 世纪&#xff0c;Nvidia 已经是一个非常成功的创…

GStreamer学习2.1----获取mp4中的图片

这里通过获取mp4中的图片例子来加深Gstreamer的理解&#xff0c;问问AI实现这样功能的命令&#xff0c; 得到 gst-launch-1.0 filesrc locationtest.mp4 ! qtdemux ! queue ! h264parse ! avdec_h264 ! videoconvert ! jpegenc ! multifilesink locationoutput_image_%03d.jp…

大福利!微信付费进群源码

微信付费进群源码 前言效果图搭建教程源码领取下期更新预报 前言 1、修复SQL表 2、修复支付文件 3、修复支付图标不显示 4、修复定位、分销逻辑、抽成逻辑 5、新增支持源支付、易支付的支付接口 6、修复官方微信、支付宝支付接口文件 本来早就可以完工的&#xff0c;电脑…

MEGALODON:突破传统,实现高效无限上下文长度的大规模语言模型预训练和推理

在人工智能领域&#xff0c;尤其是在自然语言处理&#xff08;NLP&#xff09;中&#xff0c;大模型&#xff08;LLMs&#xff09;的预训练和推理效率一直是研究的热点。最近&#xff0c;一项突破性的研究提出了一种新型神经网络架构——MEGALODON&#xff0c;旨在解决传统Tran…

Redis 7.2.x 主从复制+哨兵模式

IP操作系统服务版本192.168.140.153CentOS 7redis-master,sentinel7.2.5192.168.140.156CentOS 7redis-slave,sentinel7.2.5192.168.140.159CentOS 7redis-slave,sentinel7.2.5 一、安装Redis 配置主从复制 参考下面文档&#xff1a; Redis 7.2.x 主从复制-CSDN博客文章浏览…

论文略读:Onthe Expressivity Role of LayerNorm in Transformers’ Attention

ACL 2023 研究了LayerNorm在 Transformers 中对注意力的作用LayerNorm为Transformer的Attention提供了两个重要的功能&#xff1a; 投影&#xff0c;projection LayerNorm 帮助 Attention 设计一个注意力查询&#xff0c;这样所有的Key都可以平等地访问通过将Key向量投影到同一…

pinctrl 和 gpio 子系统实验学习

pinctrl 子系统主要工作内容如下&#xff1a; ①、获取设备树中 pin 信息。 ②、根据获取到的 pin 信息来设置 pin 的复用功能 ③、根据获取到的 pin 信息来设置 pin 的电气特性&#xff0c;比如上/下拉、速度、驱动能力等。 对于我们使用者来讲&#xff0c;只需要在设备树里面…

【计算机网络基础】OSI七层网络模型 TCPIP四层网络模型

文章目录 ISO介绍网络模型介绍OSI七层模型OSI七层模型介绍OSI七层特点一、TCP/IP四层模型介绍二、TCP/IP四层模型TCP/IP协议簇一次C/S通信 &#x1f308;你好呀&#xff01;我是 山顶风景独好 &#x1f388;欢迎踏入我的博客世界&#xff0c;能与您在此邂逅&#xff0c;真是缘分…

人工智能和机器学习这两个概念有什么区别?

什么是人工智能&#xff1f; 先来说下人工智能&#xff0c;人工智能&#xff08;Artificial Intelligence&#xff09;&#xff0c;英文缩写为AI&#xff0c;通俗来讲就是用机器去做在过去只有人能做的事。 人工智能最早是由图灵提出的&#xff0c;在1950年&#xff0c;计算机…

【背就有效】软考中项计算公式汇总,简答题轻松拿下

宝子们注意啦&#xff01;系统集成管理师的报名8月就要开始啦&#xff01;你准备好迎接挑战了吗&#xff1f; 备考下半年软考的小伙伴们&#xff0c;在这里给大家准备了一份超实用的备考秘籍——系统集成项目管理工程师计算公式汇总。亲测有效&#xff0c;每天只需抽出一点时间…

数据库错误[ERR] 1071 - Specified key was too long; max key length is 1000 bytes

环境&#xff1a;phpstudy的mysql8 索引长度问题&#xff1a; 试了很多解决办法&#xff0c;例如需改配置&#xff1a; set global innodb_large_prefixON; set global innodb_file_formatBARRACUDA; 试了还是有问题&#xff0c;直接启动不了了。因为mysql8取消了这个配置。…

[linux]基于Ubuntu24.04原内核6.8.0升级到6.9.0

物理机操作系统&#xff1a; 虚拟机操作系统&#xff1a; Ubuntu 24.04 下载地址&#xff1a; https://mirror.nju.edu.cn/ubuntu-releases/24.04/ubuntu-24.04-desktop-amd64.iso VM版本信息&#xff1a; 内核源代码来源&#xff1a; https://ftp.sjtu.edu.cn/sites/ftp.kern…

React+TS前台项目实战(六)-- 全局常用组件Button封装

文章目录 前言Button组件1. 功能分析2. 代码注释说明3. 使用方式4. 效果展示 总结 前言 今天这篇主要讲全局按钮组件封装&#xff0c;可根据UI设计师要求自定义修改。 Button组件 1. 功能分析 &#xff08;1&#xff09;可以通过className属性自定义按钮样式&#xff0c;传递…

ZDH-智能营销-标签模块

目录 主题 项目源码 预览地址 安装包下载地址 标签模块 什么是标签 标签场景分类 标签设计 标签按照场景做了分类&#xff0c;但是运营人员需要感知到吗 标签按照场景做了分类&#xff0c;底层的计算引擎是否需要划分&#xff1f; 标签模块&#xff0c;是否需要涉及…

利安科技上市首日股价大涨:2023营收净利润下滑,募资金额大幅缩水

《港湾商业观察》施子夫 6月7日&#xff0c;宁波利安科技股份有限公司&#xff08;以下简称&#xff0c;利安科技&#xff09;正式在深交所创业板挂牌上市&#xff0c;股票简称为利安科技&#xff0c;股票代码300784。 上市当天&#xff0c;利安科技股价大涨348.76%。 2022年…

DriveWorld:一个预训练模型大幅提升检测+地图+跟踪+运动预测+Occ多个任务性能

1. 写在前面 以视觉为中心的自动驾驶技术近期因其较低的成本而引起了广泛关注&#xff0c;而预训练对于提取通用表示至关重要。然而&#xff0c;当前的以视觉为中心的预训练通常依赖于2D或3D预训练任务&#xff0c;忽视了自动驾驶作为4D场景理解任务的时序特征。这里通过引入一…

Golang | Leetcode Golang题解之第135题分发糖果

题目&#xff1a; 题解&#xff1a; func candy(ratings []int) int {n : len(ratings)ans, inc, dec, pre : 1, 1, 0, 1for i : 1; i < n; i {if ratings[i] > ratings[i-1] {dec 0if ratings[i] ratings[i-1] {pre 1} else {pre}ans preinc pre} else {decif dec…

mmdetection使用未定义backbone训练

首先找到你需要用到的 backbone&#xff0c;一般有名的backbone 都会在github有相应的代码开源和预训练权重提供 本文以mobilenetv3 fastercnn 作为举例&#xff0c;在mmdetection中并未提供 mobilenetv3&#xff0c;提供的仅有 mobilenetv2&#xff1b; 在github上找到 mobil…