设为首页 收藏本站
查看: 1411|回复: 0

[经验分享] hadoop安装配置:使用cloudrea-linuxjcq

[复制链接]

尚未签到

发表于 2018-11-1 09:09:04 | 显示全部楼层 |阅读模式
  这里使用cloudrea的rpm源,安装hadoop
  环境为:
  192.168.255.132 test01.linuxjcq.com =》master
  
192.168.255.133 test02.linuxjcq.com =》slave01
  
192.168.255.134 test03.linuxjcq.com =》slave02
  每台主机中的/etc/hosts文件有以上配置和基本的java环境设置,使用的java包为openjdk
  1. 安装cloudrea
  wget http://archive.cloudera.com/redhat/6/x86_64/cdh/cdh3-repository-1.0-1.noarch.rpm -P /usr/local/src
  yum localinstall --nogpgcheck /usr/local/src/cdh3-repository-1.0-1.noarch.rpm
  rpm --import http://archive.cloudera.com/redhat/6/x86_64/cdh/RPM-GPG-KEY-cloudera
  2. 安装hadoop包
  yum install hadoop-0.20 hadoop-0.20-namenode hadoop-0.20-secondarynamenode hadoop-0.20-datanode hadoop-0.20-jobtracker hadoop-0.20-tasktracker hadoop-0.20-source
  将hadoop按照各个部分的功能分为了
  source:hadoop-0.20-source
  base:hadoop-0.20
  namenode:hadoop-0.20-namenode
  secondnamenode:hadoop-0.20-secondarynamenode
  jobtracker:hadoop-0.20-jobtracker
  tasktracker:hadoop-0.20-tasktracker
  同时会默认添加两个用户和一个组
  hdfs用户用于操作hdfs文件系统
  mapred用户用于mapreduce工作
  这两个用户都属于hadoop组,不存在hadoop用户。
  以上1,2在每一个节点都需进行操作
  3. 配置master节点
  a. 创建配置
  cloudrea配置可以通过alternatives工具
  cp -r /etc/hadoop-0.20/conf.empty /etc/hadoop-0.20/conf.my_cluster
  复制配置文件
  alternatives --display hadoop-0.20-conf
  alternatives --install /etc/hadoop-0.20/conf
  
hadoop-0.20-conf /etc/hadoop-0.20/conf.my_cluster 50
  查看配置,并安装新的配置
  alternatives --display hadoop-0.20-conf
  
hadoop-0.20-conf - status is auto.
  
link currently points to /etc/hadoop-0.20/conf.my_cluster
  
/etc/hadoop-0.20/conf.empty - priority 10
  
/etc/hadoop-0.20/conf.my_cluster - priority 50
  
Current `best' version is /etc/hadoop-0.20/conf.my_cluster.
  确认安装了新配置
  b. 设置java主目录
  


  • vi hadoop-env.sh
  • export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.0.x86_64
  

  JAVA_HOME为JAVA的主目录,可以使用OPENJDK
  c. 设置core-site.xml
  


  • vi core-site.xml

  •   
  •     fs.default.name
  •     hdfs://test01.linuxjcq.com:9000/
  •   

  

  使用这个访问hdfs文件系统
  d. 设置hdfs-site.xml
  


  • vi /etc/hadoop/hdfs-site.xml

  •   
  •     dfs.replication
  •     2
  •   
  •   
  •     dfs.name.dir
  •     /data/hadoop/hdfs/name
  •   
  •   
  •     dfs.data.dir
  •     /data/hadoop/hdfs/data
  •   

  

  e. 设置mapred-site.xml
  



  •   
  •     mapred.system.dir
  •     /mapred/system
  •   
  •   
  •     mapred.local.dir
  •     /data/hadoop/mapred/local
  •   
  •   
  •     mapred.job.tracker
  •     test01.linuxjcq.com:9001
  •   

  

  f. 设置secondnamenode和datanode
  secondnamenode
  


  • vi /etc/hadoop/masters
  • test02.linuxjcq.com
  

  datanode
  


  • test02.linuxjcq.com
  • test03.linuxjcq.com
  

  g. 创建相应的目录
  创建dfs.name.dir和dfs.data.dir
  mkdir -p /data/hadoop/hdfs/{name,data}
  创建mapred.local.dir
  mkdir -p /data/hadoop/mapred/local
  修改dfs.name.dir和dfs.data.dir拥有者为hdfs,组拥有者为hadoop,目录权限为0700
  chown -R hdfs:hadoop /data/hadoop/hdfs/{name,data}
  chmod -R 0700 /data/hadoop/hdfs/{name,data}
  修改mapred.local.dir拥有者为mapred,组拥有者为hadoop,目录权限为755
  chown -R mapred:hadoop /data/hadoop/mapred/local
  chmod -R 0755 /data/hadoop/mapred/local
  4. 配置secondnamenode和datanode节点
  重复3中的步骤a-f
  5. 在master节点上格式化namenode
  sudo -u hdfs hadoop namenode -format
  6. 启动节点
  master启动namenode
  service hadoop-0.20-namenode start
  secondnamenode启动
  service hadoop-0.20-secondnamenode start
  启动各个数据节点
  service hadoop-0.20-datanode start
  7. 创建hdfs的/tmp目录和mapred.system.dir
  sudo -u hdfs hadoop fs -mkdir /mapred/system
  
sudo -u hdfs hadoop fs -chown mapred:hadoop /mapred/system
  
sudo -u hdfs hadoop fs -chmod 700 /mapred/system
  mapred.system.dir需要在jobtracker启动前创建
  sudo -u hdfs hadoop dfs -mkdir /tmp
  
sudo -u hdfs hadoop dfs -chmod -R 1777 /tmp
  8. 开启mapreduce
  在datanode节点上执行
  service hadoop-0.20-tasktracker start
  在namenode节点上启动jobtracker
  service hadoop-0.20-jobtasker start
  9. 设置开机启动
  namenode节点:需要启动的为namenode何jobtracker,关闭其他的服务
  chkconfig hadoop-0.20-namenode on
  
chkconfig hadoop-0.20-jobtracker on
  
chkconfig hadoop-0.20-secondarynamenode off
  
chkconfig hadoop-0.20-tasktracker off
  
chkconfig hadoop-0.20-datanode off
  datanode节点:需要启动datanode和tasktracker
  chkconfig hadoop-0.20-namenode off
  
chkconfig hadoop-0.20-jobtracker off
  
chkconfig hadoop-0.20-secondarynamenode off
  
chkconfig hadoop-0.20-tasktracker on
  
chkconfig hadoop-0.20-datanode on
  secondarynamenode节点:需要启动secondarynamenode
  chkconfig hadoop-0.20-secondarynamenode on
  说明:
  这些hadoop包作为独立的服务启动,不需要通过ssh,也可以配置ssh,通过使用start-all.sh和stop-all.sh来管理服务。



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629193-1-1.html 上篇帖子: Hadoop源代码分析之DatanodeProtocol(sendHeartbeat方法的调用) 下篇帖子: Isilon整合Hadoop
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表