标签:关机 结点 hadoop dfs datanode node1 hosts root 节点
克隆
克隆当前的虚拟机
修改3台虚拟机的ip地址和主机名
vim /etc/sysconfig/network-scripts/ifcfg-ens33
将IPADDR修改为192.168.200.225
重新启动网络服务使其生效
systemctl restart network
配置主机名的映射
vi /etc/hostname
将克隆的node1修改为new
vi /etc/hosts
增加
192.168.200.226
重启reboot
ssh的免密登录
cd /root/.ssh
ssh-keygen -t rsa
敲三个回车
执行命令ssh-copy-id node1
执行命令ssh-copy-id node1
删除metaData
[root@new hadoop-2.8.5]# pwd
/opt/app/hadoop-2.8.5
[root@new hadoop-2.8.5]# rm -rf metaData/
在hdfs的namenode所在结点的Hadoop的安装目录的etc/hadoop目录下创建一个dfs.hosts文件 填写dfs需要的服役的节点信息
[root@node1 hadoop]# touch dfs.hosts
[root@node1 hadoop]# vi dfs.hosts
node1
new
在namenode所在节点的hdfs-site.xml文件中,增加一个配置项dfs.hosts值指向我们刚刚创建的dfs.hosts文件
[root@node1 hadoop]# vi hdfs-site.xml
<!--dfs.hosts代表改文件中的地址都为白名单,可以访问NameNode节点,与NameNode节点通信-->
<property>
<name>dfs.hosts</name>
<value>/opt/app/hadoop-2.8.5/etc/hadoop/dfs.hosts</value>
</property>
刷新节点状态信息
在namenode结点
执行hdfs dfsadmin -refreshNodes
刷新数据节点状态信息
开启datanode节点
在新节点
通过hadoop-daemon.sh start datanode
开启dn
增加服役节点成功
标签:关机,结点,hadoop,dfs,datanode,node1,hosts,root,节点 来源: https://www.cnblogs.com/jsqup/p/16502918.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。