设为首页 收藏本站
查看: 916|回复: 0

[经验分享] hadoop完全分布式集群搭建

[复制链接]

尚未签到

发表于 2018-10-31 09:18:03 | 显示全部楼层 |阅读模式
  hadoop分布式集群搭搭建(环境:linux虚拟机上)
  1.准备工作:(规划主机名,ip及用途,先搭建三台,第四台动态的添加
  用途栏中,也可以把namenode,secondaryNamenode及jobTracker
  分开部署,看实际需求,不唯一)
  主机名        机器ip        用途
  cloud01    192.168.1.101    namenode/secondaryNamenode/jobTracker
  cloud02    192.168.1.102    datanode/taskTracker
  cloud03    192.168.1.103    datanode/taskTracker
  cloud04    192.168.1.104    datanode/taskTracker
  2.配置linux环境(以下参照伪分布式的搭建)
  2.1修改主机名(cloud01,cloud02,cloud03)
  2.2修改每台机器的ip(按照自己分配的)
  2.3修改主机名与ip的映射关系
  (只在cloud01上修改,改完后拷贝到其它机器上就行,指令:
  scp /etc/profile cloud02:/etc/
  scp /etc/profile cloud03:/etc/)
  2.4关闭防火墙
  2.5重启
  3.安装jdk(参照伪分布式的搭建,版本以jdk1.6.0_45为例)
  只需要在一台机器上安装,然后拷贝到其他机器上(软件最好统一管理)
  例如在cloud01上jdk安装在/soft/java下
  (使用指令:scp -r /soft/java/ cloud02:/soft/
  scp -r /soft/java/ cloud03:/soft/
  就可以把jdk拷贝过去了.但是我们暂时不拷贝过去,等下面hadoop安装好后,一起拷过去)
  4.安装hadoop集群(hadoop版本以hadoop-1.1.2为例)
  4.1上传hadoop压缩包到/soft目录下,并解压到该目录下(参照伪分布式的搭建)
  4.2配置hadoop(这次需要配置6个文件)
  4.21hadoop-env.sh
  在第九行
  export JAVA_HOME=/soft/java/jdk1.6.0_45 (注意把前面的#号去掉)
  4.22core-site.xml
  
  
  fs.default.name
  hdfs://cloud01:9000
  
  
  
  hadoop.tmp.dir
  /soft/hadoop-1.1.2/tmp
  
  4.23hdfs-site.xml
  
  
  dfs.replication
  3
  
  4.24mapred-site.xml
  
  
  mapred.job.tracker
  cloud01:9001
  
  4.25masters(指定secondarynamenode地址)
  cloud01
  4.26slaves(指定子节点)
  cloud02
  cloud03
  4.3将配置好的hadoop拷贝到其他两台机器上
  直接将soft那个文件夹都拷贝过去(里面包含了jdk和hadoop,所以强烈建议
  文件要统一管理)
  指令:
  scp -r /soft/ cloud02:/
  scp -r /soft/ cloud03:/
  4.4配置ssh免登
  是主节点到子节点的免登陆
  即cloud01到cloud02和cloud03的免登陆
  在cloud01上生成即可
  指令:ssh-keygen -t rsa
  然后拷贝到其它两台机器上
  指令:ssh-copy-id -i cloud02
  ssh-copy-id -i cloud03
  4.5格式化hadoop
  只需要在cloud01(主节点namenode)上格式化就行
  指令:hadoop namenode -format
  4.6验证
  启动集群 指令:start-all.sh
  如果启动过程,报错safemode相关的Exception
  执行命令:hadoop dfsadmin -safemode leave(退出安全模式)
  再次启动hadoop
  然后jps一下,查看各台机器,看是否和规划好的用途一样即可)
  OK,如果和规划好的一样,就大功告成了.
  5.动态添加一台节点
  (在实际生产过程中,很常见,很实用)
  cloud04    192.168.1.104    datanode/taskTracker
  5.1通过clone的方式添加一台linux(以clone cloud01为例.实际生产过程中不会这样,
  因为实际生产过程中很少用虚拟机,都是直接服务器.注意,clone时,
  得先把要clone的机器给停掉)
  5.2修改主机名,ip地址,配置映射文件,关闭防火墙,再hadoop配置
  文件slaves中添加cloud04,设置免登陆,重启
  (clone的话,就无需再配置映射文件,和关闭防火墙了.因为
  你clone的那台机器已经配置好了)
  5.3重启机器后,分别启动datanode和taskTracker
  指令:hadoop-daemon.sh start datanode
  hadoop-daemon.sh start tasktracker
  5.4在cloud01上即namenode所在节点上运行命令刷新
  hadoop dfsadmin -refreshNodes
  5.5验证
  http://linux的ip:50070(hdfs管理界面)
  看是否多了一个节点,如果多了一个,则大功告成了!
  6.删除一台节点(此处为收集)
  6.1在cloud01上修改/soft/hadoop-1.1.2/conf/hdfs-site.xml文件
  添加配置信息:
  
  dfs.hosts.exclude
  /soft/hadoop-1.1.2/conf/excludes
  
  6.2确定要下架的机器
  dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。
  6.3强制重新加载配置
  指令:hadoop dfsadmin  -refreshNodes
  6.4关闭节点
  指令:hadoop dfsadmin -report
  可以查看到现在集群上连接的节点
  正在执行Decommission,会显示:
  Decommission Status : Decommission in progress
  执行完毕后,会显示:
  Decommission Status : Decommissioned
  6.5再次编辑excludes文件
  一旦完成了机器下架,它们就可以从excludes文件移除了
  登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,
  需要手工处理一下


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628766-1-1.html 上篇帖子: hadoop汇总 下篇帖子: 32位LINUX下hadoop2.2.0重新编译及安装步骤
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表