当前位置:AIGC资讯 > 数据采集 > 正文

Logstash日志采集分析工具

ELK(ElasticSearch、Logstash、Kibana )的组合,是一种比较常见的数据采集分析进行可视化展示的技术方案,这里重点展示介绍下logstash的用法。

借用官方的介绍:https://www.elastic.co/cn/products/logstash

集中、转换和存储数据

Logstash 是开源的服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到您最喜欢的 “存储库” 中。

下面,用一个比较直接的图形,表示其功能和关系。

简单的汇总logstash的工作流程:输入->过滤->输出

1、输入过程:

采集各种样式、大小和来源的数据

数据往往以各种各样的形式,或分散或集中地存在于很多系统中。 Logstash 支持各种输入选择 ,可以在同一时间从众多常用来源捕捉事件。能够以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各种 AWS 服务采集数据

2、过滤

实时解析和转换数据

数据从源传输到存储库的过程中,Logstash 过滤器能够解析各个事件,识别已命名的字段以构建结构,并将它们转换成通用格式,以便更轻松、更快速地分析和实现商业价值。

利用 Grok 从非结构化数据中派生出结构 从 IP 地址破译出地理坐标 将 PII 数据匿名化,完全排除敏感字段 简化整体处理,不受数据源、格式或架构的影响

我们的过滤器库丰富多样,拥有无限可能。

输出:

选择您的存储库,导出您的数据

尽管 Elasticsearch 是我们的首选输出方向,能够为我们的搜索和分析带来无限可能,但它并非唯一选择。

Logstash 提供众多输出选择,您可以将数据发送到您要指定的地方,并且能够灵活地解锁众多下游用例。

另外,logstash是基于java开发的,jdk1.8以上即可。另外,提供了丰富的插件,研发人员,也可以开发自己的插件。用官方的话,有了

插件,就让服务有无数的可能。

接下来,我将会对目前的各个服务的Nginx日志进行采集分析,然后进行可是化展示。这些工作,就要借助于ELK的组合了。

更新时间 2023-11-08