设为首页 收藏本站
查看: 1534|回复: 0

[经验分享] Hadoop 2.4安装与配置

[复制链接]

尚未签到

发表于 2018-10-30 09:03:01 | 显示全部楼层 |阅读模式
一、hadoop2.4编译方法可参考:Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0。
二、准备工具
  1.部署准备两个机器test1为Master,test2为Slave。
  在两个机器上分别vim /etc/hosts,加入如下内容:
192.168.1.100 test1  
192.168.1.200 test2
  2.增加hadoop用户
groupadd hadoop  
useradd hadoop -g hadoop
  
passwd hadoop
  3.设置Master无密码登录slave
  在test1下生成公钥/私钥对并复制到test2上。
su hadoop  
ssh-keygen -t rsa -P ''
  
scp ~/.ssh/id_rsa.pub hadoop@test2:~/.ssh/id_rsa.pub
  test2把从test1复制的id_rsa.pub添加到.ssh/authorzied_keys文件里
cat id_rsa.pub >> authorized_keys  
chmod 600 .ssh/authorized_keys
  4.修改句柄数:
ulimit -n 65535  
vim /etc/security/limits.conf增加如下内容:
  
\*    hard    nofile   65535
  
\*    soft    nofile   65535
三、配置hadoop
  将编译好的hadoop2.4.0解压后修改etc/hadoop目录里的配置文件。
  1.修改hadoop-env.sh
export JAVA_HOME=/opt/jdk  2.修改core-site.xml
  
    fs.default.name
  
    hdfs://HDP125:9000
  

  

  
    hadoop.tmp.dir
  
    /home/${user.name}/tmp
  

  

  
    fs.trash.interval
  
    1440
  

  说明:
  fs.defaultDFS:设置NameNode的IP和端口
  hadoop.tmp.dir:设置Hadoop临时目录,(默认/tmp,机器重启会丢失数据!)
  fs.trash.interval:开启Hadoop回收站
  3.修改hdfs-site.xml
  
    dfs.replication
  
    1
  

  

  
    dfs.namenode.name.dir
  
    /home/${user.name}/dfs_name
  

  

  
    dfs.datanode.data.dir
  
    /home/${user.name}/dfs_data
  

  

  
    dfs.support.append
  
    true
  

  

  
    dfs.datanode.max.xcievers
  
    4096
  

  说明:
  dfs.replication:文件复本数
  dfs.namenode.name.dir:设置NameNode存储元数据(fsimage)的本地文件系统位置
  dfs.datanode.data.dir:设置DataNode存储数据的本地文件系统位置
  dfs.support.append:设置HDFS是否支持在文件末尾追加数据
  dfs.datanode.max.xcievers:设置datanode可以创建的最大xcievers数
  4.修改yarn-site.xml
  
  yarn.nodemanager.aux-services
  
  mapreduce_shuffle
  

  

  
  yarn.resourcemanager.hostname
  
  master
  

  

  
  yarn.nodemanager.aux-services.mapreduce.shuffle.class
  
  org.apache.hadoop.mapred.ShuffleHandler
  

  

  
  yarn.timeline-service.hostname
  
  master
  

  5.修改mapred-site.xml
  
  mapreduce.framework.name
  
  yarn
  

  6.修改slave
test1  
test2
  7.把配置好的Hadoop程序复制到其它节点
scp -r /opt/hadoop hadoop@test2:/opt/  
chown -R hadoop:hadoop /opt/hadoop
四、启动和关闭hadoop
  1.第一次使用一个分布式文件系统,需要对其进行格式化:
./bin/hadoop namenode –format  2.启动Hadoop:
sbin/start-all.sh  3.关闭Hadoop:
sbin/start-all.sh  4.Hadoop自带的WEB管理界面
  http://test1:50070



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628266-1-1.html 上篇帖子: Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0-Levy 下篇帖子: hadoop2.4.0集群安装spark1.3.0-Levy
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表