设为首页 收藏本站
查看: 857|回复: 0

[经验分享] Hadoop2.2 伪分布式配置

[复制链接]

尚未签到

发表于 2018-10-31 08:41:49 | 显示全部楼层 |阅读模式
  部署上,很简单,就是分成两部分:修改配置文件盒启动脚本。
  一:修改配置文件:
  hadoop2.2的配置文件在/opt/hadoop-2.2.0/etc/hadoop文件夹下,具体配置文件修改如下:
  1、修改/etc/hosts文件(sudo gedit /etc/hosts)
  192.168.222.154 hd2-single
  2、修改core-site.xml
  
  
  hadoop.tmp.dir
  /home/sujx/hadoop/tmp
  
  
  fs.defaultFS
  hdfs://hd2-single:9000
  true
  
  
  fs.defaultFS:HDFS文件系统的URL
  3.  修改hdfs-site.xml
  
  
  dfs.namenode.name.dir
  file:/home/sujx/hadoop/dfs/name
  true
  
  
  dfs.datanode.data.dir
  file:/home/sujx/hadoop/dfs/data
  true
  
  
  dfs.replication
  1
  
  
  dfs.permissions
  false
  
  
  4.  修改mapred-site.xml
  
  
  mapreduce.framework.name
  yarn
  
  
  mapred.system.dir
  file:/home/sujx/hadoop/mapred/system
  true
  
  
  mapred.local.dir
  file:/home/sujx/hadoop/mapred/local
  true
  
  
  5.  修改yarn-site.xml
  
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  shuffle service that needsto be set for Map Reduce to run
  
  
  yarn.resourcemanager.hostname
  hd2-single
  hostanem of RM
  
  
  6.  修改slave
  hd2-single
  至此,配置文件修改完毕,比较多,挺麻烦的。
  二:启动Hadoop脚本。
  启动hadoop脚本,需呀用到一些环境变量,所以需要先修改Ubuntu的profile文件。
  使用命令:sudo /etc/profile
  export HADOOP_HOME=/opt/hadoop-2.2.0
  export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  export HADOOP_MAPRED_HOME=$HADOOP_HOME
  export HADOOP_COMMON_HOME=$HADOOP_HOME
  export HADOOP_HDFS_HOME=$HADOOP_HOME
  export YARN_HOME=$HADOOP_HOME
  export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
  在初次运行Hadoop的时候需要初始化Hadoop文件系统,命令如下:
  hdfs namenode -format
  1.  启动脚本一:
  sujx@ubuntu:~$ hadoop-daemon.sh start namenode
  starting namenode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-namenode-ubuntu.out
  sujx@ubuntu:~$ hadoop-daemon.sh start datanode
  starting datanode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-datanode-ubuntu.out
  sujx@ubuntu:~$ hadoop-daemon.sh start secondarynamenode
  starting secondarynamenode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-secondarynamenode-ubuntu.out
  sujx@ubuntu:~$ jps
  9310 SecondaryNameNode
  9345 Jps
  9140 NameNode
  9221 DataNode
  sujx@ubuntu:~$ yarn-daemon.sh start resourcemanager
  starting resourcemanager, logging to /opt/hadoop-2.2.0/logs/yarn-sujx-resourcemanager-ubuntu.out
  sujx@ubuntu:~$ yarn-daemon.sh start nodemanager
  starting nodemanager, logging to /opt/hadoop-2.2.0/logs/yarn-sujx-nodemanager-ubuntu.out
  sujx@ubuntu:~$ jps
  9310 SecondaryNameNode
  9651 NodeManager
  9413 ResourceManager
  9140 NameNode
  9709 Jps
  9221 DataNode
  sujx@ubuntu:~$
  2.  启动脚本二:
  sujx@ubuntu:~$ start-dfs.sh
  Starting namenodes on [hd2-single]
  hd2-single: starting namenode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-namenode-ubuntu.out
  hd2-single: starting datanode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-datanode-ubuntu.out
  Starting secondary namenodes [0.0.0.0]
  0.0.0.0: starting secondarynamenode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-secondarynamenode-ubuntu.out
  sujx@ubuntu:~$ start-yarn.sh
  starting yarn daemons
  starting resourcemanager, logging to /opt/hadoop-2.2.0/logs/yarn-sujx-resourcemanager-ubuntu.out
  hd2-single: starting nodemanager, logging to /opt/hadoop-2.2.0/logs/yarn-sujx-nodemanager-ubuntu.out
  sujx@ubuntu:~$ jps
  11414 SecondaryNameNode
  10923 NameNode
  11141 DataNode
  12038 Jps
  11586 ResourceManager
  11811 NodeManager
  sujx@ubuntu:~$
  3.  启动脚本三:
  sujx@ubuntu:~$ start-all.sh
  This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
  Starting namenodes on [hd2-single]
  hd2-single: starting namenode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-namenode-ubuntu.out
  hd2-single: starting datanode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-datanode-ubuntu.out
  Starting secondary namenodes [0.0.0.0]
  0.0.0.0: starting secondarynamenode, logging to /opt/hadoop-2.2.0/logs/hadoop-sujx-secondarynamenode-ubuntu.out
  starting yarn daemons
  starting resourcemanager, logging to /opt/hadoop-2.2.0/logs/yarn-sujx-resourcemanager-ubuntu.out
  hd2-single: starting nodemanager, logging to /opt/hadoop-2.2.0/logs/yarn-sujx-nodemanager-ubuntu.out
  sujx@ubuntu:~$ jps
  14156 NodeManager
  14445 Jps
  13267 NameNode
  13759 SecondaryNameNode
  13485 DataNode
  13927 ResourceManager
  sujx@ubuntu:~$
  其实这三种方式最终效果都是相同,他们内部也都是相互调用关系。对应的结束脚本也简单:
  1. 结束脚本一:
  sujx@ubuntu:~$ hadoop-daemon.sh stop nodemanager
  sujx@ubuntu:~$ hadoop-daemon.sh stop resourcemanager
  sujx@ubuntu:~$ hadoop-daemon.sh stop secondarynamenode
  sujx@ubuntu:~$ hadoop-daemon.sh stop datanode
  sujx@ubuntu:~$ hadoop-daemon.sh stop namenode
  2. 结束脚本二:
  sujx@ubuntu:~$ stop-yarn.sh
  sujx@ubuntu:~$ stop-dfs.sh
  3. 结束脚本三:
  sujx@ubuntu:~$ stop-all.sh
  至此,单机伪分布就已经部署完毕。
  转自:http://www.linuxidc.com/Linux/2014-01/95570p2.htm


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628721-1-1.html 上篇帖子: 使用 Linux 和 Hadoop 进行分布式计算 下篇帖子: Hadoop fs -put:上传文件至Hdfs总是失败
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表