设为首页 收藏本站
查看: 1898|回复: 0

[经验分享] Hadoop NameNode HA(验证成功)

[复制链接]

尚未签到

发表于 2015-7-14 09:15:12 | 显示全部楼层 |阅读模式
name node1                       JournalNode1:  192.168.81.132 ->  hadoop1
name node2                       JournalNode2:   192.168.81.130 ->  hadoop2           
data1 node                         JournalNode3:   192.168.81.129 ->  hadoop3           
data2 node:                                                192.168.81.131 ->  hadoop4

一、创建账号
1.所有节点创建用户    useradd hadoop    passwd hadoop
2.所有节点创建目录   mkdir -p /home/hadoop/source   mkdir -p /home/hadoop/tools
3.Slave节点创建目录   mkdir -p /hadoop/hdfs   mkdir -p /hadoop/tmp   mkdir -p /hadoop/log   chmod -R 777 /hadoop

二、修改主机名
所有节点修改
1.vim /etc/sysconfig/network ,修改 HOSTNAME=hadoopx
2.vim /etc/hosts
192.168.81.132   hadoop1
192.168.81.130   hadoop2
192.168.81.129   hadoop3
192.168.81.131   hadoop4
3.执行 hostname hadoopx
4.重新登录,即可

三、免密码登录
注意:非root用户免密码登录,需要执行 chmod 700 ~/.ssh chmod 600 ~/.ssh/authorized_keys 如果不修改权限,非root用户无法免密码登录

四、安装JDK

五、配置环境变量  
1. /etc/profile
export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPARED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export YARN_HOME=${HADOOP_HOME}
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"  
2. hadoop-env.sh   在末尾添加 export JAVA_HOME=/usr/java/jdk1.6.0_27
六、Hadoop 2.3安装
1.core-site.xml


hadoop.tmp.dir
/home/hadoop/tmp  
A base for other temporary directories.  
  
  
fs.default.name  
hdfs://hadoop1:9000


2.添加slaves节点   hadoop3   hadoop4
3.配置hdfs-site.xml

  dfs.replication  2
dfs.nameservices cluster1
dfs.ha.namenodes.cluster1 hadoop1,hadoop2
dfs.namenode.rpc-address.cluster1.hadoop1 hadoop1:9000
dfs.namenode.rpc-address.cluster1.hadoop2 hadoop2:9000
dfs.namenode.http-address.cluster1.hadoop1 hadoop1:50070
dfs.namenode.http-address.cluster1.hadoop2 hadoop2:50070
dfs.namenode.shared.edits.dir qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485/cluster1
dfs.client.failover.proxy.provider.cluster1 org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
dfs.ha.fencing.methods sshfence
dfs.ha.fencing.ssh.private-key-files /root/.ssh/id_rsa
dfs.journalnode.edits.dir /hadoop/tmp/journal
     dfs.webhdfs.enabled    true   

4.配置yarn-site.xml


  yarn.resourcemanager.address  192.168.81.132:18040
  yarn.resourcemanager.scheduler.address  192.168.81.132:18030
  yarn.resourcemanager.webapp.address  192.168.81.132:18088
  yarn.resourcemanager.resource-tracker.address  192.168.81.132:18025
  yarn.resourcemanager.admin.address  192.168.81.132:18141
       yarn.nodemanager.aux-services       mapreduce_shuffle     
    yarn.nodemanager.aux-services.mapreduce.shuffle.class    org.apache.hadoop.mapred.ShuffleHandler  
mapred-site.xml   mapreduce.framework.name yarn   mapreduce.jobhistory.address 192.168.81.132:10020   mapreduce.jobhistory.webapp.address 192.168.81.132:19888  
5.配置httpfs-site.xml 略
七、配置DataNode  
1.复制hadoop-2.3至各Data节点  
2.复制环境变量/etc/profile,生效

八、启动并验证
1.启动JournalNode集群  
  在hadoop1,hadoop2,hadoop3
执行 hadoop-daemon.sh  start  journalnode  
jps 是否有journalnode进程
2.格式化并启动主NameNode  hadoop1   
hdfs namenode  -format   
hadoop-daemon.sh  start namenode   
jps 是否有namenode进程
3.格式化并启动从NameNode    hadoop2   
hdfs namenode  -bootstrapStandby   
hadoop-daemon.sh  start  namenode   
jps 是否有namenode进程
4.设置主NameNode   
hdfs  haadmin  -transitionToActive  hadoop1   
启动数据节点 hadoop-daemons.sh  start datanode (注意:需要删除之前数据)
5.主从切换   
hdfs  haadmin  -failover -forceactive hadoop1 hadoop2 (将hadoop2转为Active节点)   
如果向上传数据,还需要修改core-site.xml中的fs.default.name的值,改为hdfs://hadoop2:9000 才行
6.启动start-yarn.sh,测试JOB运行   
hadoop jar hadoop-mapreduce-examples-2.3.0.jar wordcount hdfs://192.168.81.132:9000/input hdfs://192.168.81.132:9000/output7
7.主要的几个文件    core-site.xml   hdfs-site.xml   mapred-site.xml   yarn-site.xml
8.web访问  
http://192.168.81.132:18088/cluster   
http://hadoop1:50070/dfshealth.html   
http://hadoop2:50070/dfshealth.html
DSC0000.jpg
DSC0001.jpg DSC0002.jpg

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86477-1-1.html 上篇帖子: hive local hadoop特性 下篇帖子: Hadoop MapReduce 任务执行流程源代码详细解析(转载)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表