zookeeper+kafka+ELK+filebeat集群

目录

一、zookeeper概述:

1、zookeeper工作机制:

2、zookeeper主要作用:

3、zookeeper特性:

4、zookeeper的应用场景:

5、领导者和追随者:zookeeper的选举机制

二、zookeeper安装部署:

三、消息队列:kafka

1、消息队列概述:

1.1、消息队列的作用:

1.2、消息队列的模式:

1.3、kafka的工作流程:

四、 Kafka(2.7.0)的安装部署:

五、kafka3.4.1安装部署

六、ELK+filebeat+kafka的安装部署


一、zookeeper概述:

zookeeper:是一个开源的分布式架构。提供协调服务(Apache项目)

1、zookeeper工作机制:

基于观察者模式设计的分布式服务管理架构。

主要职责:存储和管理数据。分布式节点上的服务接收观察者的注册。一旦这些分布式节点上的数据发生变化,由zookeeper来负责通知分布式节点上的服务

总结:zookeeper = 文件系统 + 通知机制。

zookeeper分为领导者和被迫者 leader follower 组成的集群

只要有一半以上的集群存活,zookeeper集群就可以正常工作。适用于安装奇数台的服务集群

2、zookeeper主要作用:

全局数据一致,每个zookeeper节点都保存相同的数据。维护监控服务的数据一致

3、zookeeper特性:

  1. Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
  2. Zookeepe集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器。
  3. 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
  4. 更新请求顺序执行,来自同一个Client的更新请求按其发送顺序依次执行,即先进先出。
  5. 数据更新原子性,一次数据更新要么成功,要么失败。
  6. 实时性,在一定时间范围内,Client能读到最新数据。

4、zookeeper的应用场景:

  1. 统一命名服务:在分布式的环境下,对所有的应用和服务进行统一命名
  2. 统一配置管理:配置文件同步,kafka的配置文件被修改,可以快速同步到其他节点
  3. 统一集群管理:实时掌握所有节点的状态
  4. 服务器动态上下限
  5. 负载均衡,把访问的服务器的数据,发送到访问最少的服务器处理客户端的请求

5、领导者和追随者:zookeeper的选举机制

三台服务器:A B C

A先启动,发起第一次选举,投票投给自己,有3台但是自己只有1票,不满足半数,A的状态的looking

B启动,再发起一次选举,A和B分别投自己一票,交换选票信息,A发现B的myid比A大,A的这一票会转而投给B。A0 B2,没有半数以上的结果,A B会进入looking(B有可能成为leader)

C启动,C的myid若最大,A和B都会把票都会投给C 这时A B C都会把票投给C,A0 B0 C3

C的状态变为leader A和B会变成follower

只要leader确定,后续的服务器都是追随者。

只有两种情况会开启选举机制:

  1. 初始化到达情况下会产生选举
  2. 服务器之间和leader丢失了连接状态

若leader已存在,建立连接即可

leader不存在

1、服务器ID大的胜出

2、EPOCH大,直接胜出

3、EPOCH相同,事务ID大的胜出

EPOCH是每个leader任期的代号,没有leader,大家的逻辑地位是相同的,没投完一次之后,数据是递增的。

事务ID是用来标识服务器的每一次变更,每变更一次,事务ID变化一次

服务器ID,zookeeper集群中都有一个ID,每台机器不重复,和myid保持一致

service zookeeper restart

service kafka restart

二、zookeeper安装部署:

部署zookeeper集群(三台都安装zookeeper+kafka,最少2核4G)

20.0.0.24

20.0.0.25

20.0.0.26

关闭防火墙和安全机制

升级java环境

yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel

安装 Zookeeper

cd /opt

tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz

mv apache-zookeeper-3.5.7-bin /opt/zookeeper

修改配置文件

三台节点上同步操作:

cd /opt/zookeeper/conf/

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg

tickTime=2000   #通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒

initLimit=10    #Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量),这里表示为10*2s

syncLimit=5     #Leader和Follower之间同步通信的超时时间,这里表示如果超过5*2s,Leader认为Follwer死掉,

                并从服务器列表中删除Follwer

dataDir=/opt/zookeeper/data      ●修改,指定保存Zookeeper中的数据的目录,目录需要单独创建

dataLogDir=/opt/zookeeper/logs   ●添加,指定存放日志的目录,目录需要单独创建

clientPort=2181   #客户端连接端口

#最后一行添加集群信息

server.1=20.0.0.24:3188:3288

server.2=20.0.0.25:3188:3288

server.3=20.0.0.26:3188:3288

1:每个zookeeper集群的初始myid

20.0.0.24:服务器的初始地址

3188:领导者和追随者之间交换信息的端口(内部通信的端口)

3288:一旦leader丢失响应,开启选举,3288就是用来执行选举时的服务器之间通信端口。

在每个节点上创建数据目录和日志目录

mkdir /opt/zookeeper/data

mkdir /opt/zookeeper/logs

创建myid文件

在每个节点的dataDir指定的目录下创建一个 myid 的文件,不同节点分配1、2、3

echo 1 > /opt/zookeeper/data/myid

echo 2 > /opt/zookeeper/data/myid

echo 3 > /opt/zookeeper/data/myid

配置 Zookeeper 启动脚本

三台节点全部配置

vim /etc/init.d/zookeeper

#!/bin/bash

#chkconfig:2345 20 90

#description:Zookeeper Service Control Script

ZK_HOME='/opt/zookeeper'

case $1 in

start)

echo "---------- zookeeper 启动 ------------"

$ZK_HOME/bin/zkServer.sh start

;;

stop)

echo "---------- zookeeper 停止 ------------"

$ZK_HOME/bin/zkServer.sh stop

;;

restart)

echo "---------- zookeeper 重启 ------------"

$ZK_HOME/bin/zkServer.sh restart

;;

status)

echo "---------- zookeeper 状态 ------------"

$ZK_HOME/bin/zkServer.sh status

;;

*)

    echo "Usage: $0 {start|stop|restart|status}"

esac

设置开机自启

chmod +x /etc/init.d/zookeeper

chkconfig --add zookeeper

分别启动 Zookeeper

service zookeeper start

查看当前状态(leader、follower)

service zookeeper status

三、消息队列:kafka

1、消息队列概述:

为什么要引入消息队列(MQ)

他也是一个中间键。在高并发环境下,同步请求来不及处理。来不及处理的请求会形成阻塞

比方说数据库就会形成行锁或者表锁。请求线程满了,超标了,too many connection,引发整个系统雪崩

1.1、消息队列的作用:

异步处理请求。流量削峰,应用解耦。

解耦:只要通信保证,其他的修改不影响整个集群,每个组件可以独立的扩展,修改,降低组件之间的依赖性。

耦合:在软件系统当中,修改一个组件需要修改所有其他组件,高度耦合

低度耦合:改其中一个对其他组件影响不大,无需修改所有

可恢复性:系统当中有一部分组件消失,不影响整个系统。也就是说在消息队列当中,即使有一个处理消息的进程失败,一旦恢复还可以重新加入到队列当中,继续处理消息

缓冲机制:可以控制和优化数据经过系统的时间和速度。解决生产消息和消费消息处理速度不一致的问题。

峰值的处理能力:消息队列在峰值的情况之下,能够顶住突发的访问压力。避免专门为了突发情况而对系统进行修改

异步通信:允许用户把一个消息放入队列,但是不立即处理,等用户想处理的时候在处理

1.2、消息队列的模式:

点对点 一对一 :消息的生产者发送消息到队列中,消费者从队列中提取消息,消费者提取完之后,队列中被提取的消息将会被移除。后续消费者不能再消费队列中的消息。消息队列可以有多个消费者,但是一个消息,只能由一个消费者提取

RABBITMQ

发布、订阅模式:一对多,观察者模式,消费者提取数据之后,队列当中的消息不会被清除

生产者发布一个消息到主题,所有消费者都是通过主题获取消息

主题:topic  topic类似于一个数据流管道,生产者把消息发布到主题,消费者从主题当中订阅数据。每一个主题都可以被分区,每个分区都有自己的偏移量。

分区:partition 每个主题都可以分成多个分区。每个分区是数据的有序子集,分区可以允许kafka进行水平拓展,以处理大量数据。消息在分区中按照偏移量存储,消费者可以独立读取每个分区的数据。

偏移量:是每个消息在分区中的唯一标识。消费者通过偏移量跟踪、获取、已读或者未读消息的位置,也可以通过提交偏移量来记录已处理的信息。

生产者:producer 生产者把数据发送到kafka的主题当中,负责写入消息

消费者:consumer 从主题当中读取数据,消费者可以是一个也可以是多个。每个消费者有一个唯一的消费者组ID,kafka通过消费者实现负载均衡和容错性

经纪人:broker 每个kafka节点都有一个broker,每个broker负责一台服务器,id唯一,存储主题分区中的数据,处理生产和消费者的请求。维护元数据(3.0之前,zookeeper维护。3.0之后自己管理元数据)

zookeeper负责保存元数据,元数据就是topic的相关信息(发布在哪台主机上,指定了多少分区,以及副本数,偏移量)

zookeeper会自建一个主题 __consumer_offsets

3.0之后不依赖zookeeper的核心就是元数据由kafka节点自己管理

1.3、kafka的工作流程:

四、 Kafka(2.7.0)的安装部署:

cd /opt/

tar zxvf kafka_2.13-2.7.0.tgz

mv kafka_2.13-2.7.0 kafka/

修改配置文件

cd /opt/kafka/config

cp server.properties server.properties.bak

vim server.properties

21行

broker的全局唯一编号,每个broker不能重复,因此要在其他机器上配置 broker.id=1、broker.id=2

31行

指定监听的IP和端口,如果修改每个broker的IP需区分开来,也可保持默认配置不用修改

,这里上面broker配置过了

42行

num.network.threads=3  

broker 处理网络请求的线程数量,一般情况下不需要去修改

45行

num.io.threads=8

用来处理磁盘IO的线程数量,数值应该大于硬盘数

48行

socket.send.buffer.bytes=102400

发送套接字的缓冲区大小

51行

socket.receive.buffer.bytes=102400

接收套接字的缓冲区大小

54行

socket.request.max.bytes=104857600

请求套接字的缓冲区大小

60行

log.dirs=/var/log/kafka

kafka运行日志存放的路径,也是数据存放的路径

65行

num.partitions=1

topic在当前broker上的默认分区个数,会被topic创建时的指定参数覆盖

69行

num.recovery.threads.per.data.dir=1  

用来恢复和清理data下数据的线程数量

103行

log.retention.hours=168

segment文件(数据文件)保留的最长时间,单位为小时,默认为7天,超时将被删除

110行

log.segment.bytes=1073741824

一个segment文件最大的大小,默认为 1G,超出将新建一个新的segment文件

Kafka 以日志文件的形式维护其数据,而这些日志文件被分割成多个日志段。当一个日志段达到指定的大小时,就会创建一个新的日志段。

123行

配置连接Zookeeper集群地址

zookeeper.connect=20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181

修改环境变量日志段是主题分区日志文件的一部分。

vim /etc/profile

export KAFKA_HOME=/opt/kafka

export PATH=$PATH:$KAFKA_HOME/bin

source /etc/profile

配置 kafka 启动脚本

vim /etc/init.d/kafka

#!/bin/bash

#chkconfig:2345 22 88

#description:Kafka Service Control Script

KAFKA_HOME='/opt/kafka'

case $1 in

start)

echo "---------- Kafka 启动 ------------"

${KAFKA_HOME}/bin/kafka-server-start.sh -daemon ${KAFKA_HOME}/config/server.properties

;;

stop)

echo "---------- Kafka 停止 ------------"

${KAFKA_HOME}/bin/kafka-server-stop.sh

;;

restart)

$0 stop

$0 start

;;

status)

echo "---------- Kafka 状态 ------------"

count=$(ps -ef | grep kafka | egrep -cv "grep|$$")

if [ "$count" -eq 0 ];then

        echo "kafka is not running"

    else

        echo "kafka is running"

    fi

;;

*)

    echo "Usage: $0 {start|stop|restart|status}"

esac

设置开机自启

chmod +x /etc/init.d/kafka

chkconfig --add kafka

分别启动 Kafka

service kafka start

做地址映射:

vim /etc/hosts

20.0.0.24 test1

20.0.0.25 test2

20.0.0.26 test3

Kafka 命令行操作

kafka的命令也只能在bin目录下执行

cd /opt/kafka/bin

创建topic(主题):

1、在kafka的bin目录下,是所有的kafka可执行命令文件

2、--zookeeper 指定的是zookeeper的地址和端口,保存kafka的元数据

3、--replication-factor 2 定义每个分区的副本数

4、partitions 3 指定主题的分区数

5、--topic test1 指定主题的名称。

kafka-topics.sh --create --zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 --replication-factor 2 --partitions 3 --topic test1

20.0.0.24:2181:定义集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可

--replication-factor:定义分区副本数,1 代表单副本,建议为 2

--partitions:定义分区数

--topic:定义 topic 名称

查看当前服务器中的所有 topic

kafka-topics.sh --list --zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181

查看topic 的详情

kafka-topics.sh  --describe --zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181

查看某个topic 的详情

kafka-topics.sh  --describe --zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 --topic test1

Partition:分区编号

Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。

在上述输出中,领导者的编号分别为 3、1、3。

Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。在上述输出中,Replica 3、1、2 分别对应不同的 Kafka broker。

Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。

ISR 3、1分别表示与领导者同步的副本。

发布消息

kafka-console-producer.sh --broker-list 20.0.0.24:9092,20.0.0.25:9092,20.0.0.26:9092  --topic test1

消费消息

kafka-console-consumer.sh --bootstrap-server 20.0.0.24:9092,20.0.0.25:9092,20.0.0.26:9092 --topic test1

后接--from-beginning:会把主题中以往所有的数据都读取出来

__consumer_offsets 主题的作用是记录每个消费者组中每个消费者在每个分区上的偏移量。

这样,当消费者组中的消费者重新加入或者新的消费者加入时,它们可以从上次提交的偏移量处继续消费消息,

而不会重复消费或错过消息。

请注意,对于这个主题,配置为 Replication Factor 为 1 可能会对高可用性造成一些影响。

在生产环境中,通常会将 __consumer_offsets 主题的 Replication Factor 设置得更高,

以确保偏移量信息的可靠性。

修改分区数

kafka-topics.sh --zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 --alter --topic test1 --partitions 6

//删除 topic

kafka-topics.sh --delete --zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 --topic test1

 "Note: This will have no impact if delete.topic.enable is not set to true."

是关于删除 Kafka 主题的一个重要提示。默认情况下,Kafka 集群禁用了主题删除操作,为了确保不会意外删除数据。

在 Kafka 中,要执行主题删除操作,需要确保 delete.topic.enable 配置项被设置为 true。

这个配置项决定了是否允许删除主题。如果没有设置或设置为 false,即使你执行了删除主题的命令,

实际上也不会删除主题,而只是标记主题为 "marked for deletion"。

在生产环境中,特别谨慎地处理主题删除操作

在配置文件中添加,将彻底删除topic.

delete.topic.enable=true

在zookeeper中查看topic信息:

/zkCli.sh -server 192.168.233.30:2181

ls /brokers/topics

总结:

  1. zookeeper 主要是分布式,观察者模式,统一各个服务器节点的数据

在kafka当中,收集保存kafka的元数据

  1. kafka消息队列,订阅发布模式

五、kafka3.4.1安装部署

kafka3.4.1的安装步骤和2.7.1的步骤一模一样

但是命令有些区别,原因是不再依靠zookeeper传输数据了

Kafka 命令行操作

//创建topic

kafka-topics.sh --create --bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 --replication-factor 2 --partitions 3 --topic test1

-------------------------------------------------------------------------------------

--bootstrap-server:定义 bootstrap-server 集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可

--replication-factor:定义分区副本数,1 代表单副本,建议为 2

--partitions:定义分区数

--topic:定义 topic 名称

-------------------------------------------------------------------------------------

//查看当前服务器中的所有 topic

kafka-topics.sh --list --bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092

//查看某个 topic 的详情

[root@test1 efak]# kafka-topics.sh  --describe --bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092

Topic: test1 TopicId: ihBKilk6SNyP7RrVHygCog PartitionCount: 3 ReplicationFactor: 2 Configs: segment.bytes=1073741824

Topic: test1 Partition: 0 Leader: 2 Replicas: 2,1 Isr: 2,1

Topic: test1 Partition: 1 Leader: 1 Replicas: 1,0 Isr: 1,0

Topic: test1 Partition: 2 Leader: 0 Replicas: 0,2 Isr: 0

Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。

在上述输出中,领导者的编号分别为 2、1、0。

Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。

在上述输出中,Replica 0、1、2 分别对应不同的 Kafka broker。

Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。

ISR 0、1、2 分别表示与领导者同步的副本。

//发布消息

kafka-console-producer.sh --broker-list 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092  --topic test1

//消费消息

kafka-console-consumer.sh --bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 --topic test1 --from-beginning

-------------------------------------------------------------------------------------

--from-beginning:会把主题中以往所有的数据都读取出来

-------------------------------------------------------------------------------------

//修改分区数

kafka-topics.sh --bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 --alter --topic test1 --partitions 6

//删除 topic

kafka-topics.sh --delete --bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 --topic test1

六、ELK+filebeat+kafka的安装部署

工作流程:

部署 Zookeeper+Kafka 集群

zookeeper+kafka节点:

20.0.0.45

20.0.0.46

2.部署 Filebeat

cd /usr/local/filebeat

vim filebeat.yml

filebeat.prospectors:

- type: log

  enabled: true

  paths:

    - /var/log/nginx/access_log

  tags: ["access"]

  

- type: log

  enabled: true

  paths:

    - /var/log/nginx/error_log

  tags: ["error"]

#添加输出到 Kafka 的配置

output.kafka:

  enabled: true

  hosts: ["20.0.0.45:9092,20.0.0.46:9092"]

  topic: "nginx"

因为不转发到logstash,下面的output全部注释掉

启动 filebeat

nohup ./filebeat -e -c filebeat.yml > filebeat.out &

logstash:

启动logstash:

systemctl start logstash.service  

ps -elf | grep logstash

部署 ELK,在 Logstash 组件所在节点上新建一个 Logstash 配置文件

cd /etc/logstash/conf.d/

vim kafka.conf

input {

    kafka {

        bootstrap_servers => "192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092"  

#kafka集群地址

        topics  => "nginx"     

#拉取的kafka的指定topic

        type => "nginx_kafka"  

#指定 type 字段

        codec => "json"        

#解析json格式的日志数据

auto_offset_reset => "latest"  

#拉取最近数据,earliest为从头开始拉取

decorate_events => true   

#传递给elasticsearch的数据额外增加kafka的属性数据

    }

}

output {

  if "nginx_access" in [tags] {

    elasticsearch {

      hosts => ["192.168.233.12:9200","192.168.233.13:9200"]

      index => "nginx_access-%{+YYYY.MM.dd}"

    }

  }

  

  if "nginx_error" in [tags] {

    elasticsearch {

      hosts => ["192.168.233.12:9200","192.168.233.13:9200"]

      index => "nginx_error-%{+YYYY.MM.dd}"

    }

  }

  

  stdout { codec => rubydebug }

}

#启动 logstash

logstash -f /opt/log/kafka.conf --path.data /opt/kafka1 &

在此之前要保证ES启动

systemctl restart elasticsearch

cd /opt/elasticsearch-head-master

npm run start &

netstat -natp |grep 9100

netstat -natp |grep 9200

去kafka看有没有创建topic(是filebeat操作的)

kafka-topics.sh --list --bootstrap-server 20.0.0.45:9092,20.0.0.46:9092

消费消息:

kafka-console-consumer.sh --bootstrap-server 20.0.0.45:9092,20.0.0.46:9092 --topic nginx --from-beginning

logstash也命中消息

最后去logstash浏览器查看:

索引生成

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/213167.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

STM32-SPI 中断

SPI协议 1.1 SPI总线介绍 SPI接口是Motorola (motorola | Smartphones, Accessories & Smart Home Devices)首先提出的全双工三线/四线同步串行外围接口采用主从模式(Master Slave)架构。 时钟由Master控制,在时钟…

【Leetcode题单】(01 数组篇)刷题关键点总结02【统计数组中的元素】

【Leetcode题单】(01 数组篇)刷题关键点总结02【统计数组中的元素】(6题) 统计数组中的元素645. 错误的集合 Easy697. 数组的度 Easy448. 找到所有数组中消失的数字 Easy442. 数组中重复的数据 Medium41. 缺失的第一个正数 Hard27…

Docker镜像制作与推送

目录 Docker镜像制作 搭建私服 将本地镜像推送到私有库 Docker镜像制作 以创建一个新ubuntu镜像,并安装vim命令示例 运行一个ubuntu镜像,发现在镜像里面无法使用vim命令,因为该ubuntu镜像只包括了其最基本的内核命令 [rootlocalhost ~]…

找不到msvcp110.dll如何修复?分享5个亲测有效的修复方法

在计算机使用过程中,我们经常会遇到一些错误提示,其中之一就是“msvcp110.dll丢失”。这个错误通常发生在运行某些程序时,系统无法找到所需的动态链接库文件。那么,msvcp110.dll到底是什么呢?它又有什么作用&#xff1…

算法通关村第七关—理解二叉树的遍历(白银)

深入理解前中后序遍历 给定一棵二叉树 二叉树前序遍历 public void preorder(TreeNode root,List<Integer>res){if&#xff08;rootnull){return;}res.add(root.val);preorder(root.left,res);preorder(root.right,res); }递归的过程如下图所示 从图中可以看到&#x…

〖大前端 - 基础入门三大核心之JS篇㊺〗- 定时器和延时器

说明&#xff1a;该文属于 大前端全栈架构白宝书专栏&#xff0c;目前阶段免费&#xff0c;如需要项目实战或者是体系化资源&#xff0c;文末名片加V&#xff01;作者&#xff1a;不渴望力量的哈士奇(哈哥)&#xff0c;十余年工作经验, 从事过全栈研发、产品经理等工作&#xf…

12月1号作业

实现运算符重载 #include <iostream>using namespace std; class Person{friend const Person operator-(const Person &L,const Person &R);friend bool operator<(const Person &L,const Person &R);friend Person operator-(Person &L,const …

第二十二章 指定元素和属性的命名空间 - 指定被视为Global元素的对象的命名空间

文章目录 第二十二章 指定元素和属性的命名空间 - 指定被视为Global元素的对象的命名空间指定被视为Global元素的对象的命名空间指定映射为元素的属性的命名空间案例1&#xff1a;属性被视为本地元素案例2:属性被视为Global元素 第二十二章 指定元素和属性的命名空间 - 指定被视…

Unity 简单打包脚本

打包脚本 这个打包脚本适用于做demo&#xff0c;脚本放在Editor目录下 using System; using System.Collections; using System.Collections.Generic; using System.IO; using UnityEditor; using UnityEngine;public class BuildAB {[MenuItem("Tools/递归遍历文件夹下…

【蓝桥杯】带分数

带分数 题目要求用一个ab/c的形式得到一个值&#xff0c;而且只能在1~9里面不重复的组合。 可以对1~9进行全排列&#xff0c;然后不断划分区间。 #include<iostream> #include<vector> using namespace std; int st[15]; int num[15]; int res; int n;int calc(i…

基于Python实现的滑动验证码自动识别工具源码

滑动验证码识别 今天的目标地址是字节的巨量纵横&#xff0c;目前东家是一家广告营销型的公司&#xff0c;专注于在各大平台投放信息流广告。巨量纵横为字节跳动的广告平台&#xff0c;用于管理推广账户。今天破解一下这个平台的登陆入口&#xff0c;为今后的数据爬取开个头。…

Android 源码编译

一&#xff0c;虚拟机安装 ​ 1.1 进入https://cn.ubuntu.com/download中文官网下载iso镜像 1.2 这里我们下载Ubuntu 18.04 LTS 1.3虚拟VM机安装ubuntu系统&#xff0c;注意编译源码需要至少16G运行内存和400G磁盘空间&#xff0c;尽量设大点 二 配置编译环境 2.1 下载andr…

进行主从复制时出现的异常FATAL CONFIG FILE ERROR (Redis 6.2.6)Reading the configuration file

错误如下所示&#xff1a; FATAL CONFIG FILE ERROR (Redis 6.2.6) Reading the configuration file, at line 1 >>> include/myredis/redis.conf Bad directive or wrong number of arguments出现错误的原因是.conf文件中命令之间缺少空格&#xff0c;如下所示&…

Sharding-Jdbc(4):Sharding-Jdbc分库

1 新建数据库 创建ds_0数据库和ds_1数据库&#xff0c;在两个数据库新建表如下&#xff1a; CREATE TABLE t_order (order_id bigint(20) NOT NULL,user_id bigint(20) NOT NULL,PRIMARY KEY (order_id) ) ENGINEInnoDB DEFAULT CHARSETutf8 COLLATEutf8_bin; 2 新建maven项目…

GAMES101:作业2记录

总览 在上次作业中&#xff0c;虽然我们在屏幕上画出一个线框三角形&#xff0c;但这看起来并不是那么的有趣。所以这一次我们继续推进一步——在屏幕上画出一个实心三角形&#xff0c;换言之&#xff0c;栅格化一个三角形。上一次作业中&#xff0c;在视口变化之后&#xff0…

yolo.txt格式与voc格式互转,超详细易上手

众所周知,yolo训练所需的标签文件类型是.txt的,但我们平时使用标注软件(labelimage等)标注得到的标签文件是.xml类型的,故此xml2txt之间的转换就至关重要了,这点大家不可能想不到,但是网上的文章提供的代码大多数都是冗余,或者难看,难以上手,故此作者打算提供一个相对…

51单片机PWM讲解

前言 51单片机我已经很久没用过了&#xff0c;毕竟是十年前的产物了&#xff0c;但是由于工作室的学弟学妹需要学习&#xff0c;加之马上就要举行循迹小车比赛&#xff0c;很多人反映看不懂PWM&#xff0c;或者看了不会用&#xff0c;于是写一篇文章简单介绍一下。 PWM普遍应…

“B2B+OMS方案”,赋能家电巨头构建BC订单一体化能力,促进业务增长|徐礼昭

某国际知名家电电器品牌&#xff0c;年营收超过5000亿元。该电器企业其整体业务分三大类&#xff1a;线上线下B2B2C业务、线下B2B业务以及DTC零售业务。 随着业务的发展&#xff0c;该电器品牌对2B业务及DTC业务的数字化系统能力支撑需要更加全面和立体&#xff0c;以适应业务…

5个优质免费自然语言处理学习资源 | 语言技术导航

探索并利用我们的5个免费自然语言处理&#xff08;NLP&#xff09;学习资源&#xff0c;更有效地理解和实施自然语言处理技术。适合初学者和进阶者&#xff0c;涵盖基础理论到实际应用。 近年来&#xff0c;随着人工智能&#xff08;AI&#xff09;解决方案的商业应用&#xff…

前后端数据传输格式(上)

作者简介&#xff1a;大家好&#xff0c;我是smart哥&#xff0c;前中兴通讯、美团架构师&#xff0c;现某互联网公司CTO 联系qq&#xff1a;184480602&#xff0c;加我进群&#xff0c;大家一起学习&#xff0c;一起进步&#xff0c;一起对抗互联网寒冬 作为后端&#xff0c;写…