ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

当集群中的空间不够时,增加结点动态扩容(服役新节点) (在不关机的情况下,增加一台datanode)

2022-07-21 18:05:07  阅读:219  来源: 互联网

标签:关机 结点 hadoop dfs datanode node1 hosts root 节点


克隆

克隆当前的虚拟机

修改3台虚拟机的ip地址和主机名
vim /etc/sysconfig/network-scripts/ifcfg-ens33

将IPADDR修改为192.168.200.225

重新启动网络服务使其生效
systemctl restart network

配置主机名的映射

vi /etc/hostname
将克隆的node1修改为new

vi /etc/hosts
增加 
192.168.200.226

重启reboot

ssh的免密登录

cd /root/.ssh
ssh-keygen -t rsa
敲三个回车 
执行命令ssh-copy-id node1

执行命令ssh-copy-id node1

删除metaData

[root@new hadoop-2.8.5]# pwd
/opt/app/hadoop-2.8.5
[root@new hadoop-2.8.5]# rm -rf metaData/

在hdfs的namenode所在结点的Hadoop的安装目录的etc/hadoop目录下创建一个dfs.hosts文件 填写dfs需要的服役的节点信息

[root@node1 hadoop]# touch dfs.hosts
[root@node1 hadoop]# vi dfs.hosts
node1
new

在namenode所在节点的hdfs-site.xml文件中,增加一个配置项dfs.hosts值指向我们刚刚创建的dfs.hosts文件

[root@node1 hadoop]# vi hdfs-site.xml
<!--dfs.hosts代表改文件中的地址都为白名单,可以访问NameNode节点,与NameNode节点通信-->
<property>
  <name>dfs.hosts</name>
  <value>/opt/app/hadoop-2.8.5/etc/hadoop/dfs.hosts</value>
</property>

刷新节点状态信息

namenode结点执行hdfs dfsadmin -refreshNodes刷新数据节点状态信息

开启datanode节点

新节点通过hadoop-daemon.sh start datanode开启dn

增加服役节点成功

标签:关机,结点,hadoop,dfs,datanode,node1,hosts,root,节点
来源: https://www.cnblogs.com/jsqup/p/16502918.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有