标签:opt 环境 module kafka sh 集群 Kafka 搭建
1.将软件包kafka_2.12-3.0.0.tgz上传到/opt/software/目录下,解压到/opt/module/目录下
tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/
2.修改解压后的文件名称
mv kafka_2.12-3.0.0/ kafka
3.进入到/opt/module/kafka 目录,修改配置文件
cd config/ vim server.properties
找到log.dirs,并修改成下面代码
log.dirs=/opt/module/kafka/datas
找到zookeeper.connect,并修改成下面代码
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka
分发安装包
xsync kafka/
4.分别在 hadoop103 和 hadoop104 上修改配置文件/opt/module/kafka/config/server.properties中的 broker.id=1、broker.id=2。broker.id 不得重复,整个集群中唯一。
vim config/server.properties
vim config/server.properties
配置环境变量,在/etc/profile.d/my_env.sh 文件中增加 kafka 环境变量配置
sudo vim /etc/profile.d/my_env.sh
#KAFKA_HOME export KAFKA_HOME=/opt/module/kafka export PATH=$PATH:$KAFKA_HOME/bin刷新一下环境变量。
source /etc/profile分发环境变量文件到其他节点,并 source。 (home后面跟的是用户名文件夹)
sudo /home/guo/bin/xsync /etc/profile.d/my_env.sh
hadoop103,hadoop104刷新一下环境变量。
source /etc/profile
5.编写kafka集群启停脚本
在/home/atguigu/bin 目录下创建文件 kf.sh 脚本文件vim kf.sh
#! /bin/bash case $1 in "start"){ for i in hadoop102 hadoop103 hadoop104 do echo " --------启动 $i Kafka-------" ssh $i "/opt/module/kafka/bin/kafka-server-start.sh - daemon /opt/module/kafka/config/server.properties" done };; "stop"){ for i in hadoop102 hadoop103 hadoop104 do echo " --------停止 $i Kafka-------" ssh $i "/opt/module/kafka/bin/kafka-server-stop.sh " done };; esac添加执行权限
chmod +x kf.sh
6.启动集群
先启动 Zookeeper 集群,然后启动 Kafka。zk.sh start
kf.sh start停止集群
kf.sh stop注意:停止 Kafka 集群时,一定要等 Kafka 所有节点进程全部停止后再停止 Zookeeper集群。因为 Zookeeper 集群当中记录着 Kafka 集群相关信息,Zookeeper 集群一旦先停止,Kafka 集群就没有办法再获取停止进程的信息,只能手动杀死 Kafka 进程了。
标签:opt,环境,module,kafka,sh,集群,Kafka,搭建 来源: https://www.cnblogs.com/hz-Master/p/16271475.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。