Filebeat进阶指南:核心架构与功能组件的深度剖析

🐇明明跟你说过:个人主页

🏅个人专栏:《洞察之眼:ELK监控与可视化》🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、什么是ELK

2、FileBeat在ELK中的角色 

二、FileBeat核心架构

1、Filebeat的整体架构图

2、核心组件 注册表(Registrar)

3、核心组件 爬虫(Harvester)

4、核心组件 发布者(Publisher)

三、 数据传输机制

1、异步发送与确认机制 

异步发送机制

确认机制

2、背压(Backpressure)与流量控制 

背压(Backpressure)

流量控制

背压与流量控制的工作流程


一、引言

1、什么是ELK

ELK 是一个流行的开源日志管理解决方案,由三个主要组件组成:

  1. Elasticsearch: 是一个分布式的实时搜索和分析引擎,用于存储、搜索和分析大规模的数据。它是 ELK 堆栈的核心组件,负责处理和存储从日志源收集的数据,并提供灵活的搜索和分析功能。
  2. Logstash: 是一个用于日志数据收集、转换和传输的数据处理管道。Logstash 可以从多种来源收集数据,如日志文件、消息队列等,然后对数据进行结构化处理和转换,最后将数据发送到 Elasticsearch 或其他目标存储中。
  3. Kibana: 是一个基于 Web 的用户界面,用于可视化和分析 Elasticsearch 中的数据。Kibana 提供了丰富的图表、图形和仪表板,使用户可以轻松地探索和分析日志数据,并生成各种可视化报告。

ELK 堆栈通常被用于实时日志监控、日志分析、安全事件分析等用途。它的灵活性和可扩展性使其成为许多组织和开发团队首选的日志管理解决方案。

2、FileBeat在ELK中的角色 

Filebeat 是 ELK(Elasticsearch、Logstash、Kibana)堆栈中的一个组件,用于从不同的日志文件位置收集数据并将其发送到 Logstash 或者 Elasticsearch 进行进一步处理和分析。它的主要角色是作为一个轻量级的日志收集器,专门负责从各种来源(如日志文件、系统日志等)收集日志数据,并将其传输到其他 ELK 组件进行处理。

Filebeat 的主要功能和角色包括:

  1. 数据收集:Filebeat 可以监视指定的日志文件、日志目录或者其他位置,并实时地收集其中的日志数据。
  2. 数据传输:收集到的日志数据被 Filebeat 发送到指定的目标,通常是 Logstash 或者直接发送到 Elasticsearch 进行索引。
  3. 轻量级:Filebeat 是一个轻量级的日志收集器,具有低内存消耗和低 CPU 占用的特点,适合于在各种环境中部署和运行。
  4. 模块化配置:Filebeat 提供了丰富的模块化配置选项,可以轻松地配置和管理不同类型日志数据的收集和传输。

总的来说,Filebeat 在 ELK 堆栈中扮演着数据收集和传输的角色,帮助用户将日志数据从各种来源收集起来,并将其传输到 ELK 的其他组件中进行存储、处理和分析。

二、FileBeat核心架构

1、Filebeat的整体架构图

Filebeat是Elastic Stack(通常称为ELK Stack)中的一个轻量级数据发送器,专门用于从日志文件和其他数据源收集和发送数据到Elasticsearch或Logstash。

其架构可以分为以下几个主要部分:

Input(输入):

  • Filebeat的输入模块负责读取日志文件的数据。它支持多种类型的输入源,例如文件、stdin等。
  • Input模块会监控指定的日志文件路径,当检测到新日志数据时,会立即读取并处理这些数据。


Harvester(采集器):

  • 每个输入源都有一个或多个采集器。采集器负责打开并读取具体的日志文件。
  • 每个采集器都会跟踪文件的读取位置(偏移量),以便在Filebeat重启时可以从上次读取的位置继续。


Spooler(缓冲区):

  • 采集器读取到的数据首先会被发送到缓冲区(Spooler)。
  • 缓冲区的作用是临时存储这些数据,以便后续批量发送,提高传输效率。


Publisher(发布者):

  • 缓冲区中的日志数据会被Publisher模块取出,并按照预定义的规则进行处理,例如添加元数据、进行数据转换等。
  • 处理完成后,Publisher负责将数据发送到输出目的地,例如Elasticsearch、Logstash、Kafka等。


Output(输出):

  • Filebeat支持多种输出方式,可以直接将数据发送到Elasticsearch,或者先发送到Logstash进行进一步处理。
  • 输出模块根据配置将数据传输到目标系统,并处理网络连接、重试机制等问题,确保数据可靠传输。

 

2、核心组件 注册表(Registrar)

Filebeat中的核心组件之一是注册表(Registrar)。注册表的主要职责是跟踪和管理Filebeat已经处理的文件的状态,确保在Filebeat重启或发生故障时,能够从正确的位置继续读取日志文件,从而避免数据丢失或重复。

注册表(Registrar)的功能


1. 跟踪文件偏移量:

  • Registrar记录每个被监控文件的读取位置(偏移量)。当Filebeat重启时,能够从上次读取的位置继续处理文件。

2. 持久化状态:

  • Registrar将这些偏移量和文件状态信息定期持久化到磁盘(通常是一个名为registry的文件)。这保证了即使Filebeat意外停止或重启,日志处理的进度也不会丢失。


3. 管理文件标识:

  • Registrar不仅记录文件路径,还记录文件的唯一标识符(如inode),以处理文件轮换(log rotation)的情况。这样可以防止在文件名相同但内容不同的情况下出现混淆。


注册表的工作流程


1. 启动阶段:

  • 在Filebeat启动时,Registrar会读取之前保存的注册表文件,恢复文件的读取进度。


2. 运行阶段:

Filebeat的Harvester模块读取日志文件的数据并将当前读取位置的偏移量发送给Registrar。

  • Registrar会在内存中更新这些偏移量,并在一定间隔或特定事件(如文件关闭)发生时,将更新后的状态写入到磁盘。


3. 关闭阶段:

  • 当Filebeat停止时,Registrar会确保所有的偏移量都被正确地持久化到磁盘,以便下次启动时能够恢复。

   

3、核心组件 爬虫(Harvester)

Filebeat的核心组件之一是爬虫(Harvester)。Harvester负责实际读取日志文件中的数据,并将这些数据传递给其他组件进行处理和输出。每个Harvester实例对应一个被监控的日志文件,它们独立运行,以确保高效的日志数据收集。

Harvester 的主要功能


1. 文件读取:

  • Harvester负责打开和读取指定的日志文件。它使用操作系统的文件读取机制来逐行读取日志文件中的新数据。


2. 文件轮换处理:

  • Harvester能够处理日志文件的轮换(log rotation)。即使文件名发生变化(例如,日志文件被压缩或归档,新的日志文件被创建),Harvester也能继续正确读取日志数据。

3. 文件状态跟踪:

  • Harvester会跟踪文件的读取位置(偏移量)。这与Registrar组件合作,以确保Filebeat能够在重启或故障后从正确的位置继续读取日志。


4. 数据处理:

  • Harvester读取的日志数据会先经过一些基本处理,如解码、过滤等,然后传递给Filebeat的缓冲区(Spooler)。


Harvester 的工作流程


1. 启动:

  • Filebeat启动时,根据配置文件指定的路径,初始化一个或多个Harvester实例。
  • 每个Harvester会打开并读取对应的日志文件,从指定的起始位置开始(通常是文件末尾)。


2. 读取数据:

  • Harvester逐行读取日志文件的新数据。
  • 读取的数据被临时存储在缓冲区中,等待进一步处理和传输。


3. 发送数据:

  • 从缓冲区读取的数据会被发送到Filebeat的其他组件(如Spooler),最终被传输到配置的输出目标(如Elasticsearch、Logstash等)。


4. 处理文件轮换:

  • 如果日志文件被轮换,Harvester会检测到文件变化,并重新打开新的日志文件进行读取。
  • Harvester使用文件的唯一标识符(如inode)来跟踪文件,即使文件名发生变化也能继续正确处理。

   

4、核心组件 发布者(Publisher)

Filebeat的核心组件之一是发布者(Publisher)。Publisher在Filebeat的整体架构中起着关键作用,负责将收集到的日志数据处理后发送到预配置的目标系统,如Elasticsearch、Logstash、Kafka等。

Publisher的主要功能


1. 数据处理:

  • Publisher从缓冲区(Spooler)获取数据后,会对数据进行处理,包括应用过滤器、添加元数据和格式转换等操作。
  • 处理过程中,Publisher可能会根据配置的处理器(processors)来执行数据增强和转换任务,例如添加时间戳、解析JSON等。


2. 数据传输:

  • Publisher将处理好的数据按批次发送到目标系统。它支持多种输出目标,并能并行处理多个输出。
  • 在数据传输过程中,Publisher负责处理网络连接的建立和维护,确保数据传输的可靠性和效率。


3. 故障处理与重试机制:

  • 为了保证数据不丢失,Publisher内置了故障处理机制。如果在发送过程中发生网络故障或目标系统不可用,Publisher会进行重试。
  • 重试机制包括指数退避(exponential backoff)等策略,以最大限度地提高数据传输的成功率。


Publisher的工作流程


1. 数据收集与初步处理:

  • Filebeat的Harvester模块读取日志数据,并通过缓冲区传递给Publisher。
  • Publisher从缓冲区批量获取数据,进行预处理。


2. 数据处理:

  • Publisher应用配置的处理器对数据进行处理,如添加额外的字段、过滤不需要的数据、格式转换等。
  • 处理后的数据被组织成批次,准备发送。


3. 数据发送:

  • Publisher根据配置,将数据发送到一个或多个输出目标。
  • 支持的输出包括Elasticsearch、Logstash、Kafka、Redis等,具体的输出方式由配置文件中的output部分定义。


4. 错误处理与重试:

  • 在发送过程中,如果发生错误,Publisher会根据配置的重试策略重新尝试发送。
  • 重试过程中,Publisher使用退避算法来控制重试频率,并在多次重试失败后记录错误日志,避免无限制的重试导致资源浪费。

   

三、 数据传输机制

1、异步发送与确认机制 

异步发送机制


什么是异步发送?

异步发送是指Filebeat在发送数据时,不需要等待目标系统的即时响应,而是可以继续处理其他数据。这种方式能够提高数据传输的效率和吞吐量。

异步发送的工作流程


1. 数据收集与处理:

  • Harvester模块读取日志文件,并将数据发送到缓冲区(Spooler)。
  • Publisher从缓冲区中批量获取数据,并应用必要的处理器(如添加元数据、过滤等)。


2. 批量发送:

  • Publisher将处理后的数据组织成批次,并异步发送到配置的输出目标。
  • 在发送过程中,Publisher会将每个批次的数据放入发送队列,然后立即返回继续处理新的数据,而不等待发送完成的结果。


3. 异步回调:

  • 目标系统接收数据后,会异步地返回确认或错误消息。Publisher会使用回调函数处理这些响应。
  • 通过回调机制,Publisher可以知道哪些数据发送成功,哪些需要重试或处理错误。

 

确认机制


什么是确认机制?

确认机制(acknowledgment mechanism)指的是在数据发送后,目标系统返回的响应,用于确认数据已经成功接收或处理。这是确保数据传输可靠性的关键部分。

确认机制的类型


1. Elasticsearch:

  • Elasticsearch使用bulk API来接收数据。每个批次的请求会返回一个响应,包含每个文档的处理结果。Publisher会检查这些响应,确认哪些文档成功处理,哪些失败。


2. Kafka:

  • Kafka支持多种确认模式:
  • acks=0:生产者不等待任何确认。
  • acks=1:生产者等待Leader节点确认接收数据。
  • acks=all:生产者等待所有副本节点确认接收数据。
  • Filebeat通常配置为acks=1acks=all,以确保数据的可靠性。


3. Logstash:

  • 当使用Beats输入插件时,Logstash会在接收到数据后返回一个确认响应。Publisher会根据这个响应确定数据是否成功发送。

 

2、背压(Backpressure)与流量控制 

在数据流处理中,背压(Backpressure)与流量控制是关键机制,确保系统在高负载情况下稳定运行,防止数据丢失和系统崩溃。Filebeat通过这两种机制,管理数据从输入到输出的流动,确保高效和可靠的日志传输。

背压(Backpressure)


背压机制用于在下游组件(例如输出模块)无法跟上上游组件(例如Harvester)处理速度时,调节数据流动速度,防止系统过载。

背压的实现


1. 内部队列:

  • Filebeat使用内部队列存储临时数据。如果输出模块处理速度较慢,队列中的数据会积压,Harvester会感受到背压,从而减缓数据读取速度。


2. 队列大小限制:

  • 可以通过配置限制队列的大小。当队列达到最大容量时,Filebeat会暂停新的数据读取,等待队列中的数据被处理后再继续。

流量控制

流量控制机制用于管理和限制数据流动速率,确保系统各组件之间的数据流动保持平衡,避免资源过度消耗。

流量控制的实现


1. 数据批次大小:

  • 限制每次发送的数据量,防止一次发送过多数据导致目标系统过载。


2. 发送频率:

  • 控制数据发送的频率,通过配置发送间隔,平衡数据流动速率。


3. 并发限制:

  • 限制同时进行的数据发送操作数,防止并发过高导致资源竞争和性能下降。

 

背压与流量控制的工作流程


1. 数据收集与处理:

  • Harvester读取日志数据,并将其传递到内部队列。
  • 如果队列达到容量上限,背压机制会触发,减缓或暂停Harvester的读取速度。


2. 数据传输:

  • Publisher从队列中批量获取数据,进行处理后发送到目标系统。
  • 流量控制机制限制每次发送的数据量和发送频率,防止目标系统过载。


3. 错误处理与重试:

  • 在数据传输过程中,如果发送失败,Publisher会根据重试策略进行重试。
  • 背压机制确保在重试期间不会继续读取和积累新数据,避免系统负载过高。


优点

  • 系统稳定性:通过背压和流量控制机制,Filebeat能够在高负载情况下维持系统稳定,防止过载和数据丢失。
  • 资源优化:限制并发操作和数据发送频率,优化资源使用,提高整体系统效率。
  • 数据可靠性:确保数据从输入到输出的流动有序、可靠,避免数据积压或丢失。

 

💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些关于ELK的文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺

🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!  

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/658042.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【已解决】使用StringUtils.hasLength参数输入空格仍然添加成功定价为负数仍然添加成功

Bug情景 今天在做功能测试时,发现使用使用StringUtils.hasLength()方法以及定价为负数时,添加图书仍然成功 思考过程 0.1 当时在做参数检验时用了spring提供的StringUtils工具包,百度/大数据模型说: 0.2…

Java 中BigDecimal传到前端后精度丢失问题

1.用postman访问接口,返回的小数点精度正常 2.返回到页面里的,小数点丢失 3.解决办法,在字段上加注解 JsonFormat(shape JsonFormat.Shape.STRING) 或者 JsonSerialize(using ToStringSerializer.class) import com.fasterxml.jackson.a…

Vim安装与配置教程(解决软件包Vim没有安装可候选)

一、Vim检测是否安装 1-输入vi查看是否安装; 2-按Tab键,显示以下字符为未安装; 3-显示以下字符为已安装(可以看到有Vim) 二、Vim安装过程 1. 打开终端,输入 sudo apt install vim; 2. 输入Y/y&#xff…

sysbench安装(在线离线)

简介 sysbench是一个多线程基准测试工具,它支持硬件(CPU、内存、I/O)、数据库基准压测等2种测试手段,用于评估系统的基本性能。本篇文章主要介绍sysbench在线和离线2种安装方法,并将离线编译时发生的异常记录到FAQ&…

idm软件是做什么的 IDM是啥软件 idm软件怎么下载 idm软件怎么下载

一、IDM是啥软件 IDM 是由美国 Tonec 公司开发的 Windows 软件,该软件最初于 2005 年发布。IDM全称Internet Download Manager,是一款Windows平台老牌而功能强大的下载加速器,专注于互联网数据下载。这款软件是一款不错的轻量级下载工具&…

【windows】Total Uninstall:一款功能强大的完全卸载软件

软件介绍 Total Uninstall是一款专业的软件卸载工具,旨在帮助用户彻底地清除计算机上的应用程序,包括与应用程序相关的所有文件和注册表项。以下是Total Uninstall的一些主要功能和特点: 完全卸载:软件可以监视应用程序的安装过程…

如何使用git上传linux下的项目!---附带每一步截图

在实际项目中,我们需要把自己的模块递给GitHub,需要别人的模块的时候拉下来,那么我们怎么把自己的项目递给GitHub呢?下面做一个总结: 登录GitHub 创建一个仓库 填写相关信息 项目名称是必填的,项目描述可以…

FPGA时钟:驱动数字逻辑的核心

一、引言 在FPGA(现场可编程门阵列)设计中,时钟信号是不可或缺的关键要素。时钟信号作为时序逻辑的心跳,推动着FPGA内部各个存储单元的数据流转。无论是实现复杂的逻辑运算还是处理高速数据流,都需要精确的时钟信号来保…

LeetCode115:不同的子序列

题目描述 给你两个字符串 s 和 t ,统计并返回在 s 的 子序列 中 t 出现的个数,结果需要对 109 7 取模。 代码 /*dp[i][j]:以i为结尾的s中有以j为尾的t的个数递推公式:当s[i - 1] 与 t[j - 1]相等时,dp[i][j]可以有两…

利用 Scapy 库编写源路由攻击脚本

一、介绍 源路由攻击是一种网络攻击方法,攻击者通过利用IP数据包中的源路由选项来控制数据包的传输路径,从而绕过安全设备或防火墙,直接访问目标系统。源路由功能允许数据包的发送方指定数据包通过的路径,而不是由路由器根据路由…

基于物联网技术的智能家居实训教学解决方案

引言 随着信息技术的飞速发展,,物联网(IoT)已深入至我们生活的每一个角落,从智能家居、智能健康、智能交通到智慧城市,无所不在。物联网技术已成为推动社会进步和产业升级的重要力量。智能家居作为物联网技…

【数据结构】二叉树-堆(上)

个人主页~ 二叉树-堆 一、树的概念及结构1、概念2、相关概念3、树的表示4、树的实际应用 二、二叉树的概念和结构1、概念2、特殊二叉树3、二叉树的性质4、二叉树的存储结构(1)顺序存储(2)链式存储 三、二叉树的顺序结构以及实现1、…

QT加载CAD文件(二)LibreCAD源码编译

一、LibreCAD LibreCAD是一个开源软件,不用破解激活,可以打开编辑DXF格式的文档,软件大小只有二十多M,对于一些比较简单的图纸还是可以胜任的。本文主要讲该软件源码编译。如果了解软件的基本使用可以参考https://blog.csdn.net/…

申请的商标名称相同或近似,如何解决!

最近遇到一些首次申请注册商标的主体,基本想的名称都是两个字或或者两个字加通用词,还有用的行业描述词或缺乏显著特征词,这样去申请注册商标,普推知产老杨分析这样去直接申请注册大概率驳回。 两个字基本上注册的差不多了&#…

介绍Django Ninja框架

文章目录 安装快速开始特性详解自动文档生成定义请求和响应模型异步支持中间件支持测试客户端 结论 Django Ninja是一个基于Python的快速API开发框架,它结合了Django和FastAPI的优点,提供了简单易用的方式来构建高性能的Web API。 安装 使用以下命令安…

IC618 虚拟机 EDA Calibre2019 Hspice2018 Spectre19.1

虚拟机包含 CentOS 7.9 Cadence IC618 Calibre 2019 Hspice 2018 Spectre19.1 下载地址: 链接:https://pan.baidu.com/s/1aMtPO2G5ad-x5BtIJjCDig?pwdxcii 提取码:xcii

【Game】Rumble Heroes

文章目录 1 英雄2 守护兽3 符文4 祝福5 阵容推荐6 Boss7 兑换码 1 英雄 (1)力量 神话英雄 圣骑士-乌瑟尔 传说英雄 双刀-宫本武藏死亡骑士-阿萨斯冰霜骑士-亚瑟疾风焰刃-缘壹熊猫武僧-阿宝 史诗英雄 大剑-克劳德狂战士-奎托斯魔山-克里刚猎人-奈辛瓦里 稀…

行为设计模式之状态模式

文章目录 概述定义结构图 2.代码示例小结 概述 定义 状态模式(state pattern)的定义: 允许一个对象在其内部状态改变时改变它的行为。 对象看起来似乎修改了它的类。 状态模式就是用于解决系统中复杂对象的状态转换以及不同状态下行为的封装问题.。状态模式将一个对象的状态…

翻译《Use FILE_SHARE_DELETE in your shell extension》

在写 《翻译《The Old New Thing》- What did MakeProcInstance do?》 文章时,了解到了 Michael Geary ,他也有不少优秀的技术文章,现翻译一篇关于文件操作的细节的文章 原文 Use FILE_SHARE_DELETE in your shell extension | mg.tohttps:…