设为首页 收藏本站
查看: 903|回复: 0

hadoop集群的负载均衡配置与添加DataNode节点和TaskTracker节点

[复制链接]
累计签到:15 天
连续签到:1 天
发表于 2015-11-11 11:34:23 | 显示全部楼层 |阅读模式
  这是在成功安装和配置hadoop的情况下,对hadoop集群的负载进行调整,我的hadoop集群有三台虚拟机,一台为master,另外两台分别为slave1和slave2。
  还没有进行负载均衡和添加DataNode节点和TaskTracker节点的时候,三台虚拟机的情况:
  master(NameNode、SecondaryNameNode、JobTracker、Jps)
  slave1(DataNode、TaskTracker、Jps)
  slave2( DataNode、TaskTracker、Jps)

  负载均衡和添加DataNode节点和TaskTracker节点之后,三台虚拟机的情况:
  master(NameNode、DataNode、TaskTracker,Jps)
slave1(SecondaryNameNode、DataNode、TaskTracker,Jps)
slave2(JobTracker 、DataNode、TaskTracker,Jps)

  1、hadoop集群的负载均衡配置
  (1)指定slave1为SecondaryNameNode。进入hadoop的安装目录下的conf目录,修改masters文件的内容为slave1;把hdfs-site.xml文件的内容修改为:(在三台虚拟机上都要修改)
  <configuration>
    <property>
       <name>dfs.name.dir</name>
       <value>/home/你的用户名/Hadoop/hadoop-1.2.1/dfs/filesystem/name</value>
    </property>
    <property>
       <name>dfs.data.dir</name>
       <value>/home/你的用户名/Hadoop/hadoop-1.2.1/dfs/filesystem/data</value>
    </property>
    <property>  
        <name>dfs.replication</name>  
        <value>3</value>  
    </property>  
    <property>
        <name>dfs.http.address</name>
        <value>master:50070</value>
    </property>
    <property>
        <name>dfs.secondary.http.address</name>
        <value>slave1:50090</value>
    </property>
</configuration>

  (2)指定slave2为JobTracker。进入hadoop的安装目录下的conf目录,把mapred-site.xml文件的内容修改为:(在三台虚拟机上都要修改)
  <configuration>
    <property>
      <name>mapred.job.tracker</name>
      <value>slave2:8021</value>
    </property>
    <property>
      <name>mapred.tasktracker.map.tasks.maximum</name>
      <value>4</value>
    </property>
    <property>
      <name>mapred.tasktracker.reduce.tasks.maximum</name>
      <value>4</value>
    </property>
    <property>
      <name>mapred.system.dir</name>
      <value>/home/你的用户名/Hadoop/hadoop-1.2.1/mapreduce/system</value>
    </property>
    <property>
      <name>mapred.local.dir</name>
      <value>/home/你的用户名/Hadoop/hadoop-1.2.1/mapreduce/local</value>
    </property>
</configuration>

  进入hadoop的安装目录下的conf目录,把core-site.xml文件的内容修改为:(在三台虚拟机上都要修改)
  <configuration>
    <property>  
        <name>fs.default.name</name>  
        <value>hdfs://master:8020</value>  
    </property>  
    <property>  
        <name>hadoop.tmp.dir</name>  
        <value>/home/你的用户名/Hadoop/hadoop-1.2.1/tmp</value>  
    </property>  
    <property>
        <name>fs.checkpoint.dir</name>
        <value>/home/你的用户名/Hadoop/hadoop-1.2.1/namesecondary</value>
    </property>
</configuration>

  2、向master节点添加DataNode节点和TaskTracker节点
  进入hadoop的安装目录下的conf目录,把slaves的内容修改为:(在三台虚拟机上都要修改)

  master
slave1
slave2

  3、完成上述配置后,删掉hadoop-1.2.1目录下的dfs、mapreduce、tmp和namesecondary目录,slave1和slave2节点的hadoop-1.2.1目录下只有个别的目录,反正hadoop-1.2.1目录下有fs、mapreduce、tmp和namesecondary目录的都要删掉(在三台虚拟机上都要修改)。
  4、在master节点下对HDFS进行&#26684;式化:hadoop  namenode  -format
  5、&#26684;式化后,接下来不是执行start-all.sh文件,而是在master节点下执行start-dfs.sh,等hdfs启动完后,在slave2节点下执行start-mapred.sh,具体操作如下:
  master节点上:
  cy@master:~$ start-dfs.sh
starting namenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-namenode-master.out
slave2: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave2.out
slave1: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave1.out
master: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-master.out
slave1: starting secondarynamenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-secondarynamenode-slave1.out

  slave2节点上:
  cy@slave2:~$ start-mapred.sh
starting jobtracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-jobtracker-slave2.out
slave1: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave1.out
master: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-master.out
slave2: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave2.out

  6、完成上述步骤后,通过jps命令在三台虚拟机上查看进程:
  master节点上:
  cy@master:~$ jps
6432 Jps
6391 TaskTracker
6155 DataNode
5904 NameNode
  slave1节点上:
  cy@slave1:~$ jps
6208 Jps
5673 DataNode
6061 TaskTracker
5870 SecondaryNameNode

  slave2节点上:
  cy@slave2:~$ jps
5299 DataNode
5623 TaskTracker
5727 Jps
5394 JobTracker

  如果出现上述结果,就说明集群负载均衡配置成功,向master节点添加DataNode节点和TaskTracker节点也成功。
  7、集群的关闭。关闭hadoop集群的时候,要先在slave2上执行stop-mapred.sh,然后在master上执行stop-dfs.sh,具体操作如下:
  slave2节点上:
  cy@slave2:~$ stop-mapred.sh
stopping jobtracker
slave2: stopping tasktracker
slave1: stopping tasktracker
master: stopping tasktracker

  master节点上:
  cy@master:~$ stop-dfs.sh
stopping namenode
slave1: stopping datanode
master: stopping datanode
slave2: stopping datanode
slave1: stopping secondarynamenode

  

  上面都是本人亲自安装和配置成功的经历,跟大家分享一下,希望对大家有所帮助,谢谢!
         版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137850-1-1.html 上篇帖子: (9)ubuntu下hadoop1.0.4源码编译 下篇帖子: hadoop native本地库问题总结
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表