Logstash+Elasticsearch+Kibana 联合使用搭建日志分析系统(Windows系统)
最近在做日志分析这块儿,要使用 Logstash+Elasticsearch+Kibana 实现日志的导入、过滤及可视化管理,官方文档写的不够详细,网上的文章大多要么是针对Linux系统的用法,要么就是抄袭别人的配置大都没法运行。费了很大劲才搞定了这仨东西,写一篇用法心得,废话不多说,进入主题。
首先,你的电脑上要装Java 的JDK环境,要使用 Logstash+Elasticsearch+Kibana,需要下载这三个软件和一些必要的插件,列表如下 :
1、Java JDK (最新版Logstash 需要 JDK1.8)
2、Logstash https://www.elastic.co/downloads
3、Elasticsearch https://www.elastic.co/downloads
4、Kibana https://www.elastic.co/downloads
5、Curl插件
一、 Elasticsearch配置
将下载下来的Elasticsearch 解压,进入到config目录下,修改elasticsearch.yml 文件,写入以下代码:
discovery.zen.ping.multicast.enabled: false #关闭广播,如果局域网有机器开9300 端口,服务会启 动不了
network.host: 192.168.1.91 #指定主机地址,其实是可选的,但是最好指定因为后面跟 kibana集成的时候会报http连接出错(直观体现好像是
监听了:::9200而不是0.0.0.0:9200)
http.cors.allow-origin: "/.*/"
http.cors.enabled: true
这样就添加了9200端口的elasticsearch监听,为后面Logstash估准备。
二、Logstash 配置
Logstash 核心命令是 Input--->Filter--->Output,既可以在dos窗口中输入配置信息,也可以将配置信息保存在.conf文件中,本文使用配置文件加载方式。
将下载下来的Logstash压缩包解压,,然后在bin目录中新建 stdin.conf 文件,其中配置代码如下 :
input {
stdin{}
}
output {
elasticsearch {
host => "192.168.1.91"
}
}
这段代码的作用是将控制台中输入的信息发给elasticsearch
三、Kibana 配置
将下载下来的Kibana压缩文件解压,同样的进入到config文件中修改kibana.yml文件:
温馨提示: 本文由Jm博客推荐,转载请保留链接: https://www.jmwww.net/file/70085.html
- 上一篇:Erasing and Winning(贪心)
- 下一篇:[深入学习C#]Task