日志中心集群

作者:行癫(盗版必究) ------ ## 一:组件介绍 #### 1.Elasticsearch ​ 主要用来日志存储 ​ 是一个基于Lucene的搜索服务器。提供搜集、分析、存储数据三大功能。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。 #### 2.Logstash ​ 主要用来日志的搜集 ​ 主要是用来日志的搜集、分析、过滤日志的工具。用于管理日志和事件的工具,你可以用它去收集日志、转换日志、解析日志并将他们作为数据提供给其它模块调用,例如搜索、存储等。 #### 3.Kibana ​ 主要用于日志的展示 ​ 是一个优秀的前端日志展示框架,它可以非常详细的将日志转化为各种图表,为用户提供强大的数据可视化支持,它能够搜索、展示存储在 Elasticsearch 中索引数据。使用它可以很方便的用图表、表格、地图展示和分析数据。 #### 4.Kafka ​ 是一种高吞吐量的分布式发布订阅消息系统。具有峰值处理能力,使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。 #### 5.Filebeat ​ 隶属于Beats,轻量级数据收集引擎。基于原先 Logstash-fowarder 的源码改造出来。换句话说:Filebeat就是新版的 Logstash-fowarder,也会是 ELK Stack 在 Agent 的第一选择;常见的Beat有: ​ Packetbeat(搜集网络流量数据) ​ Metricbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据) ​ Filebeat(搜集文件数据) ​ Winlogbeat(搜集 Windows 事件日志数据) #### 6.为什么会用到ELK ​ 普通的日志分析场景:直接在日志文件中grep、awk就可以获得自己想要的信息,但在规模较大的场景中,此方法效率底下,面临问题包括日志量太大如何归档、文本搜索太慢、如何多纬度的查询。这样我们就需要集中化的日志管理,所有的服务器上的日志收集汇总。解决方案:建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。 ![](https://diandiange.oss-cn-beijing.aliyuncs.com/1.png) ## 二:集群构建 #### 1.架构 image-20240531093110260 **基础架构** ​ 单一的架构,logstash作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交由Elasticsearch存储,kibana对日志进行可视化处理 ![image-20240531100305731](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531100305731.png) **多节点部署Logstash架构** ​ 这种架构模式适合需要采集日志的客户端不多,且各服务端cpu,内存等资源充足的情况下。因为每个节点都安装Logstash, 非常消耗节点资源。其中,logstash作为日志搜集器,将每一台节点的数据发送到Elasticsearch上进行存储,再由kibana进行可视化分析。 ![image-20240531100246661](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531100246661.png) #### 2.版本说明 Elasticsearch: 6.5.4 Logstash: 6.5.4 Kibana: 6.5.4 Kafka: 2.11-1 Filebeat: 6.5.4 #### 3.官网地址 官网地址:https://www.elastic.co 官网搭建:https://www.elastic.co/guide/index.html #### 4.集群部署 系统类型:Centos7.x 节点IP:172.16.244.25、172.16.244.26、172.16.244.27 软件版本:jdk-8u121-linux-x64.tar.gz、elasticsearch-6.5.4.tar.gz 示例节点:172.16.244.25 ABC ##### node-1节点 安装配置jdk ```shell [root@xingdian ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/ [root@xingdian ~]# mv /usr/local/jdk-8u121 /usr/local/java [root@xingdian ~]# vim /etc/profile JAVA_HOME=/usr/local/java PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME PATH [root@xingdian ~]# source /etc/profile ``` 创建运行ES的普通用户 ```shell [root@xingdian ~]# useradd elsearch (useradd ela) [root@xingdian ~]# echo "******" | passwd --stdin "elsearch" ``` 安装配置ES ```shell [root@xingdian ~]# tar zxvf /usr/local/package/elasticsearch-6.5.4.tar.gz -C /usr/local/ [root@xingdian ~]# vim /usr/local/elasticsearch-6.5.4/config/elasticsearch.yml cluster.name: bjbpe01-elk node.name: elk01 node.master: true node.data: true path.data: /data/elasticsearch/data path.logs: /data/elasticsearch/logs bootstrap.memory_lock: false bootstrap.system_call_filter: false network.host: 0.0.0.0 http.port: 9200 #discovery.zen.ping.unicast.hosts: ["172.16.244.26", "172.16.244.27"] #discovery.zen.ping_timeout: 150s #discovery.zen.fd.ping_retries: 10 #client.transport.ping_timeout: 60s http.cors.enabled: true http.cors.allow-origin: "*" 注意:如果是集群取消配置文件中的所有注释,并修改对应的参数 ``` 设置JVM堆大小 ```shell [root@xingdian ~]# sed -i 's/-Xms1g/-Xms4g/' /usr/local/elasticsearch-6.5.4/config/jvm.options [root@xingdian ~]# sed -i 's/-Xmx1g/-Xmx4g/' /usr/local/elasticsearch-6.5.4/config/jvm.options 注意: 确保堆内存最小值(Xms)与最大值(Xmx)的大小相同,防止程序在运行时改变堆内存大小。 如果系统内存足够大,将堆内存最大和最小值设置为31G,因为有一个32G性能瓶颈问题。 堆内存大小不要超过系统内存的50%。 ``` 创建ES数据及日志存储目录 ```shell [root@xingdian ~]# mkdir -p /data/elasticsearch/data (/data/elasticsearch) [root@xingdian ~]# mkdir -p /data/elasticsearch/logs (/log/elasticsearch) ``` 修改安装目录及存储目录权限 ```shell [root@xingdian ~]# chown -R elsearch:elsearch /data/elasticsearch [root@xingdian ~]# chown -R elsearch:elsearch /usr/local/elasticsearch-6.5.4 ``` 系统优化 ```shell 修改/etc/security/limits.conf配置文件,将以下内容添加到配置文件中。(*表示所有用户) * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 ``` 增加最大内存映射数 ```shell [root@xingdian ~]# echo "vm.max_map_count=262144" >> /etc/sysctl.conf [root@xingdian ~]# sysctl -p ``` 启动ES ```shell su - elsearch -c "cd /usr/local/elasticsearch-6.5.4 && nohup bin/elasticsearch &" ``` node-2节点的elasticsearch部署跟node-1相同 ##### node-2节点 ​ 略 ##### node-3节点 ​ 略 #### 5.配置文件 ```shell cluster.name 集群名称,各节点配成相同的集群名称。 node.name 节点名称,各节点配置不同。 node.master 指示某个节点是否符合成为主节点的条件。 node.data 指示节点是否为数据节点。数据节点包含并管理索引的一部分。 path.data 数据存储目录。 path.logs 日志存储目录。 bootstrap.memory_lock 内存锁定,是否禁用交换。 bootstrap.system_call_filter 系统调用过滤器。 network.host 绑定节点IP。 http.port rest api端口。 discovery.zen.ping.unicast.hosts 提供其他 Elasticsearch 服务节点的单点广播发现功能。 discovery.zen.ping_timeout 节点在发现过程中的等待时间。 discovery.zen.fd.ping_retries 节点发现重试次数。 http.cors.enabled 是否允许跨源 REST 请求,用于允许head插件访问ES。 http.cors.allow-origin 允许的源地址。 ``` #### 6.浏览器访问测试 ​ 注意:默认端口9200 ![image-20240531101150272](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101150272.png) 7.安装head插件 ​ 注意:使用google或者edge浏览器对应的head插件即可 ![image-20240531101304563](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101304563.png) #### 7.模拟数据插入 ​ 注意:索引名字:xingdian/test 数据: {"user":"xingdian","mesg":"hello world"} ![image-20240531101358130](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101358130.png) ![image-20240531101544883](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101544883.png) ![image-20240531101623298](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240531101623298.png) ## 三:Kibana安装部署 #### 1.获取包 ​ 无 #### 2.解压安装 ```shell [root@kibana ~]# tar xf kibana-6.5.4-linux-x86_64.tar.gz [root@kibana ~]# mv kibana-6.5.4-linux-x86_64 /usr/local/kibana ``` #### 3.修改配置 ```shell [root@kibana ~]# vi /usr/local/kibana/config/kibana.yml server.port: 5601 server.host: "172.16.244.28" elasticsearch.url: "http://172.16.244.25:9200" kibana.index: ".kibana" ``` 注意: ​ server.port kibana服务端口,默认5601 ​ server.host kibana主机IP地址,默认localhost ​ elasticsearch.url 用来做查询的ES节点的URL,默认http://localhost:9200 #### 4.启动访问 ```sjell [root@kibana ~]# cd /usr/local/kibana nohup ./bin/kibana & ``` 5.使用kibana关联到ES ![image-20240603145607682](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240603145607682.png) ## 四:Logstash安装部署 #### 1.获取包 ​ 无 #### 2.解压安装 ```shell [root@logstash ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/ [root@logstash ~]# mv /usr/local/jdk-8u121 /usr/local/java [root@logstash ~]# vim /etc/profile JAVA_HOME=/usr/local/java PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME PATH [root@logstash ~]# source /etc/profile [root@logstash ~]# tar xf logstash-6.5.0.tar.gz -C /opt/ [root@logstash ~]# mv /opt/logstash-6.5.0/ /opt/logstash ``` #### 3.使用 输入输出都为终端 ```shell [root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{} }' -e 后面跟搜集定义输出(input [filter] output)后面跟{} ``` 输入是终端的标准输入,输出到ES集群 ```shell [root@elk-node1 ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.1.160:9200"]} }' Settings: Default filter workers: 1 Logstash startup completed #输入下面的测试数据 123456 wangshibo huanqiu hahaha ``` 采集单个文件 ```json [root@logstash ~]# cat /opt/nginx_access_logstash.conf input{ file { path => "/var/log/nginx/access_json.log" start_position => "beginning" } } output{ elasticsearch { hosts => ["10.9.12.86:9200"] index => "nginx-access-json-%{+YYYY.MM.dd}" } } ``` 采集多个文件 ```json [root@logstash ~]# cat /opt/files.conf input { file { path => "/var/log/messages" type => "system" start_position => "beginning" } } input { file { path => "/var/log/yum.log" type => "safeware" start_position => "beginning" } } output { if [type] == "system"{ elasticsearch { hosts => ["10.9.12.86:9200"] index => "system-%{+YYYY.MM.dd}" } } if [type] == "safeware"{ elasticsearch { hosts => ["10.9.12.86:9200"] index => "safeware-%{+YYYY.MM.dd}" } } } ``` #### 4.定义nginx的日志格式并采集 Nginx配置文件修改 ``` log_format json '{"@timestamp":"$time_iso8601",' '"@version":"1",' '"client":"$remote_addr",' '"url":"$uri",' '"status":"$status",' '"domain":"$host",' '"host":"$server_addr",' '"size":$body_bytes_sent,' '"responsetime":$request_time,' '"referer": "$http_referer",' '"ua": "$http_user_agent"' '}'; access_log /var/log/nginx/access_json.log json; ``` 定义采集配置文件 ```json input { file { path => "/var/log/nginx/access_json.log" start_position => "beginning" } } output { elasticsearch { hosts => ["192.168.122.118:9200"] index => "nginx1-%{+YYYY.MM.dd}" } } ``` ES查看索引,Kibana展示数据 ## 五:Kakfa #### 1.理论 ```shell kafka是一个分布式的消息发布—订阅系统(kafka其实是消息队列) http://kafka.apache.org/ Kafka是最初由Linkedin公司开发,是一个分布式、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/Spark流式处理引擎,web/nginx日志、访问日志,消息服务等等,用scala语言编写,Linkedin于2010年贡献给了Apache基金会并成为顶级开源 项目。 Kafka的特性: - 高吞吐量、低延迟:kafka每秒可以处理几十万条消息,它的延迟最低只有几毫秒,每个topic可以分多个partition, consumer group 对partition进行consumer操作。 - 可扩展性:kafka集群支持热扩展 - 可靠性:消息被持久化到本地磁盘,并且支持数据备份防止数据丢失 - 容错性:允许集群中节点失败(若副本数量为n,则允许n-1个节点失败) - 高并发:支持数千个客户端同时读写 kafka组件: 话题(Topic):是特定类型的消息流。消息是字节的有效负载(Payload),话题是消息的分类名或种子(Feed)名。(每条发布到 kafka 集群的消息属于的类别,即 kafka 是面向 topic 的)。 生产者(Producer):是能够发布消息到话题的任何对象(发布消息到 kafka 集群的终端或服务). 服务代理(Broker):已发布的消息保存在一组服务器中,它们被称为代理(Broker)或Kafka集群。 消费者(Consumer):可以订阅一个或多个话题,并从Broker拉数据,从而消费这些已发布的消息。 partition(区):partition 是物理上的概念,每个 topic 包含一个或多个 partition。每一个topic将被分为多个partition(区)。 Consumer group:high-level consumer API 中,每个 consumer 都属于一个 consumer group,每条消息只能被 consumer group 中的一个 Consumer 消费,但可以被多个 consumer group 消费。 replication:partition 的副本,保障 partition 的高可用。 leader:replication 中的一个角色, producer 和 consumer 只跟 leader 交互。 follower:replication 中的一个角色,从 leader 中复制数据。 controller:kafka 集群中的其中一个服务器,用来进行 leader election 以及 各种 failover。 zookeeper:kafka 通过 zookeeper 来存储集群的 meta 信息。 ``` ![image-20240604172144391](https://diandiange.oss-cn-beijing.aliyuncs.com/image-20240604172144391.png) #### 2.部署 ```shell Kafka部署(所有节点都部署) 1.安装jdk [root@xingdian ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/ [root@xingdian ~]# mv /usr/local/jdk-8u121 /usr/local/java [root@xingdian ~]# vim /etc/profile JAVA_HOME=/usr/local/java PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME PATH [root@xingdian ~]# source /etc/profile 2.安装ZK Kafka运行依赖ZK,Kafka官网提供的tar包中,已经包含了ZK,这里不再额下载ZK程序。 tar zxvf /usr/local/package/kafka_2.11-2.1.0.tgz -C /usr/local/ 3.配置 sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties vi /usr/local/kafka/config/zookeeper.properties dataDir=/opt/data/zookeeper/data dataLogDir=/opt/data/zookeeper/logs clientPort=2181 tickTime=2000 initLimit=20 syncLimit=10 server.1=172.16.244.31:2888:3888 //kafka集群IP:Port server.2=172.16.244.32:2888:3888 server.3=172.16.244.33:2888:3888 #创建data、log目录 mkdir -p /opt/data/zookeeper/{data,logs} #创建myid文件 echo 1 > /opt/data/zookeeper/data/myid 注意: dataDir ZK数据存放目录。 dataLogDir ZK日志存放目录。 clientPort 客户端连接ZK服务的端口。 tickTime ZK服务器之间或客户端与服务器之间维持心跳的时间间隔。 initLimit 允许follower(相对于Leaderer言的“客户端”)连接并同步到Leader的初始化连接时间,以tickTime为单位。当初始化连接时间超过该值,则表示连接失败。 syncLimit Leader与Follower之间发送消息时,请求和应答时间长度。如果follower在设置时间内不能与leader通信,那么此follower将会被丢弃。 server.1=172.16.244.31:2888:3888 2888是follower与leader交换信息的端口,3888是当leader挂了时用来执行选举时服务器相互通信的端口。 4.配置kafka sed -i 's/^[^#]/#&/' /usr/local/kafka/config/server.properties vi /usr/local/kafka/config/server.properties broker.id=1 listeners=PLAINTEXT://172.16.244.31:9092 num.network.threads=3 num.io.threads=8 socket.send.buffer.bytes=102400 socket.receive.buffer.bytes=102400 socket.request.max.bytes=104857600 log.dirs=/opt/data/kafka/logs num.partitions=6 num.recovery.threads.per.data.dir=1 offsets.topic.replication.factor=2 transaction.state.log.replication.factor=1 transaction.state.log.min.isr=1 log.retention.hours=168 log.segment.bytes=536870912 log.retention.check.interval.ms=300000 zookeeper.connect=172.16.244.31:2181,172.16.244.32:2181,172.16.244.33:2181 zookeeper.connection.timeout.ms=6000 group.initial.rebalance.delay.ms=0 #创建log目录 mkdir -p /opt/data/kafka/logs 注意: broker.id 每个server需要单独配置broker id,如果不配置系统会自动配置。 listeners 监听地址,格式PLAINTEXT://IP:端口。 num.network.threads 接收和发送网络信息的线程数。 num.io.threads 服务器用于处理请求的线程数,其中可能包括磁盘I/O。 socket.send.buffer.bytes 套接字服务器使用的发送缓冲区(SO_SNDBUF) socket.receive.buffer.bytes 套接字服务器使用的接收缓冲区(SO_RCVBUF) socket.request.max.bytes 套接字服务器将接受的请求的最大大小(防止OOM) log.dirs 日志文件目录。 num.partitions partition数量。 num.recovery.threads.per.data.dir 在启动时恢复日志、关闭时刷盘日志每个数据目录的线程的数量,默认1。 offsets.topic.replication.factor 偏移量话题的复制因子(设置更高保证可用),为了保证有效的复制,偏移话题的复制因子是可配置的,在偏移话题的第一次请求的时候可用的broker的数量至少为复制因子的大小,否则要么话题创建失败,要么复制因子取可用broker的数量和配置复制因子的最小值。 log.retention.hours 日志文件删除之前保留的时间(单位小时),默认168 log.segment.bytes 单个日志文件的大小,默认1073741824 log.retention.check.interval.ms 检查日志段以查看是否可以根据保留策略删除它们的时间间隔。 zookeeper.connect ZK主机地址,如果zookeeper是集群则以逗号隔开。 zookeeper.connection.timeout.ms 连接到Zookeeper的超时时间。 5.其他配置节点配置相同(myid,broker.id 不同) 6.启动验证zk集群 三个节点依次执行: cd /usr/local/kafka nohup bin/zookeeper-server-start.sh config/zookeeper.properties & 7.验证 #echo conf | nc 127.0.0.1 2181 clientPort=2181 dataDir=/data/zookeeper/data/version-2 dataLogDir=/data/zookeeper/logs/version-2 tickTime=2000 maxClientCnxns=60 minSessionTimeout=4000 maxSessionTimeout=40000 serverId=1 initLimit=20 syncLimit=10 electionAlg=3 electionPort=3888 quorumPort=2888 peerType=0 #echo stat | nc 127.0.0.1 2181 Zookeeper version: 3.4.13-2d71af4dbe22557fda74f9a9b4309b15a7487f03, built on 06/29/2018 00:39 GMT Clients: /172.17.0.4:35020[0](queued=0,recved=1,sent=0) Latency min/avg/max: 0/0/0 Received: 4 Sent: 3 Connections: 1 Outstanding: 0 Zxid: 0x0 Mode: follower Node count: 4 8.查看端口 lsof -i:2181 COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME java 2442 root 92u IPv4 1031572 0t0 TCP *:eforward (LISTEN) 9.启动、验证Kafka(三个节点依次启动) cd /usr/local/kafka_2.11-2.1.0/ nohup bin/kafka-server-start.sh config/server.properties & 验证: 创建topic # bin/kafka-topics.sh --create --zookeeper 172.17.0.4:2181 --replication-factor 1 --partitions 1 --topic testtopic Created topic "testtopic". 查询topic # bin/kafka-topics.sh --zookeeper 172.17.0.4:2181 --list testtopic 模拟消息生产和消费 发送消息到172.17.0.4 bin/kafka-console-producer.sh --broker-list 172.17.0.4:9092 --topic testtopic >Hello World! 从172.16.244.32接受消息 # bin/kafka-console-consumer.sh --bootstrap-server 172.17.0.4:9092 --topic testtopic --from-beginning Hello World! 查看主题的信息: ./bin/kafka-topics.sh --describe --zookeeper 172.17.0.4:2181 --topic testtopic ```