设为首页 收藏本站
查看: 1277|回复: 0

[经验分享] ubuntu 14.04.1 hadoop 2.6-jonybay

[复制链接]

尚未签到

发表于 2018-10-30 11:23:39 | 显示全部楼层 |阅读模式
  sudo addgroup hadoop
  sudo adduser --ingroup hadoop hadoop
  sudo vim /etc/sodoers
  hadoop ALL=(ALL)ALL
  sudo apt-get install openjdk-7-jre oenjdk-7-jdk
  wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz
  sudo tar xvf hadoop-2.6.0.tar.gz -C /usr/local/
  sudo chown -R hadoop:hadoop hadoop-2.6.0
  sudo vim etc/hadoop/hadoop-evn.sh
  export JAVA_HOME="/usr/lib/jvm/java-7-openjdk-amd64"
  使用hadoop帐号登入
  ssh-keygen -t rsa -P ""
  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  vim /etc/hosts
  127.0.0.1       localhost
  192.168.0.140   h1
  192.168.0.141   h2
  192.168.0.142   h3
  192.168.0.143   h4
  设置: slaves、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml
  1, 文件 slave
cd /usr/local/hadoop-2.6.0/etc/hadoop  
vim slaves
  将原来 localhost 删除,把所有Slave的主机名写上,每行一个。
  2, 文件 core-site.xml ,将原本的如下内容:
  

  
    fs.defaultFS
  
    hdfs://h1:9000
  

  

  
    hadoop.tmp.dir
  
    file:/usr/local/hadoop-2.6.0/tmp
  
    Abase for other temporary directories.
  

  

  3, 文件hdfs-site.xml,因为只有一个Slave,所以dfs.replication的值设为1。
  

  
    dfs.namenode.secondary.http-address
  
    h1:50090
  

  

  
    dfs.namenode.name.dir
  
    file:/usr/local/hadoop-2.6.0/tmp/dfs/name
  

  

  
    dfs.datanode.data.dir
  
    file:/usr/local/hadoop-2.6.0/tmp/dfs/data
  

  

  
    dfs.replication
  
    3
  

  

  4, 文件mapred-site.xml,这个文件不存在,首先需要从模板中复制一份:
cp mapred-site.xml.template mapred-site.xml  然后配置修改如下:
  

  
    mapreduce.framework.name
  
    yarn
  

  

  5, 文件yarn-site.xml:
  
    yarn.resourcemanager.hostname
  
    h1
  

  

  
    yarn.nodemanager.aux-services
  
    mapreduce_shuffle
  

  KVM虚拟机克隆
  sudo virt-clone -o h1 -n h2 -f /kvm/os/h2.img
  sudo virt-clone -o h1 -n h3 -f /kvm/os/h2.img
  sudo virt-clone -o h1 -n h4 -f /kvm/os/h2.img
  然后在h上就可以启动hadoop了。
cd /usr/local/hadoop/  
bin/hdfs namenode -format       # 首次运行需要执行初始化,后面不再需要
  
sbin/start-dfs.sh
  
sbin/start-yarn.sh
  jps查看h1启动了NameNode、SecondrryNameNode、ResourceManager进程
  h2 h3 h4 启动了DataNode和NodeManager进程
  关闭Hadoop集群也是在h1节点上执行:
sbin/stop-dfs.sh  
sbin/stop-yarn.sh
  可以在h1节点上通过命令bin/hdfs dfsadmin -report查看DataNode是否正常启动
  hadoop@h1:/usr/local/hadoop-2.6.0$ bin/hdfs dfsadmin -report
  Configured Capacity: 154960711680 (144.32 GB)
  Present Capacity: 140631048192 (130.97 GB)
  DFS Remaining: 140630974464 (130.97 GB)
  DFS Used: 73728 (72 KB)
  DFS Used%: 0.00%
  Under replicated blocks: 0
  Blocks with corrupt replicas: 0
  Missing blocks: 0
  -------------------------------------------------
  Live datanodes (3):
  Name: 192.168.0.141:50010 (h2)
  Hostname: h2
  Decommission Status : Normal
  Configured Capacity: 51653570560 (48.11 GB)
  DFS Used: 24576 (24 KB)
  Non DFS Used: 4776554496 (4.45 GB)
  DFS Remaining: 46876991488 (43.66 GB)
  DFS Used%: 0.00%
  DFS Remaining%: 90.75%
  Configured Cache Capacity: 0 (0 B)
  Cache Used: 0 (0 B)
  Cache Remaining: 0 (0 B)
  Cache Used%: 100.00%
  Cache Remaining%: 0.00%
  Xceivers: 1
  Last contact: Wed Feb 18 22:22:40 CST 2015
  Name: 192.168.0.142:50010 (h3)
  Hostname: h3
  Decommission Status : Normal
  Configured Capacity: 51653570560 (48.11 GB)
  DFS Used: 24576 (24 KB)
  Non DFS Used: 4776558592 (4.45 GB)
  DFS Remaining: 46876987392 (43.66 GB)
  DFS Used%: 0.00%
  DFS Remaining%: 90.75%
  Configured Cache Capacity: 0 (0 B)
  Cache Used: 0 (0 B)
  Cache Remaining: 0 (0 B)
  Cache Used%: 100.00%
  Cache Remaining%: 0.00%
  Xceivers: 1
  Last contact: Wed Feb 18 22:22:40 CST 2015
  Name: 192.168.0.143:50010 (h4)
  Hostname: h4
  Decommission Status : Normal
  Configured Capacity: 51653570560 (48.11 GB)
  DFS Used: 24576 (24 KB)
  Non DFS Used: 4776550400 (4.45 GB)
  DFS Remaining: 46876995584 (43.66 GB)
  DFS Used%: 0.00%
  DFS Remaining%: 90.75%
  Configured Cache Capacity: 0 (0 B)
  Cache Used: 0 (0 B)
  Cache Remaining: 0 (0 B)
  Cache Used%: 100.00%
  Cache Remaining%: 0.00%
  Xceivers: 1
  Last contact: Wed Feb 18 22:22:40 CST 2015



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628425-1-1.html 上篇帖子: 如何使用vagrant在虚拟机安装Hadoop集群 下篇帖子: 关于Hadoop报Child Error错误的解决经验
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表