使用docker安裝elk同時使用kafka做消息隊列
使用docker 安裝 Filebeat logstash elasticsearch kibana
這里有2臺服務(wù)器
EKServer 192.168.0.101
logServer 192.168.0.102
前要說明:
EKServer
1. 安裝Jdk及docker
2.拉取 elasticserarch kibana 鏡像(elaticsearch kibana 版本盡量一致)
3. 安裝 elaticsearch(大家盡量做文件夾映射。如果是文件映射無法docker不會更新,如果不做映射有可能配置報錯導(dǎo)致容器啟動不了無法修改錯誤的配置)
4. 安裝kibana
4.1復(fù)制安裝后的kibana.yml文件
編輯kibana.yml添加 i18n.locale: zh-CN 到配置文件將kibana改成中文 同時添加elasticsearch 地址
4.2重新安裝kibana同時映射kibana.yml文件
LogServer
1.安裝docker jdk 拉取 kafka filebeat logstash 鏡像
2.安裝zookeeper
3.安裝kafka
4.安裝filebeat
4.1 創(chuàng)建filebeat.yml 放在/opt目錄下
4.2 復(fù)制filebeat.yml 到指定filebeat 容器指定目錄下 當(dāng)然還是最好做文件夾映射 我這里沒有做這個
4.3重啟 filebeat
5.安裝logstash
5.1創(chuàng)建logstash.conf 配置文件并添加input 及output
5.2復(fù)制 logstash.conf 到 logstash容器目錄下
5.3 進(jìn)入logstash 容器修改 logstash.yml
path.config: /usr/share/logstash/config/*.conf
5.4 重啟logstash
docker restart logstash
測試kafka是否接收到信息
docker exec -it kafka bash /opt/kafka/bin/kafka-console-consumer.sh --bootstrap-server PLAINTEXT://kafka:9092 ?--topic test-log --from-beginning
zookeeper 查看 kafka注冊信息:
docker exec -it zookeeper bash bin/zkCli.sh
ls /brokers/ids