设为首页 收藏本站
查看: 980|回复: 0

[经验分享] Hadoop-2.4.1安装配置

[复制链接]

尚未签到

发表于 2018-10-30 08:52:21 | 显示全部楼层 |阅读模式
  Hadoop-2.4.1安装配置
  
  1、下载地址
  http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.4.1/
  
  linux命令下具体操作如下:
  wget  http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.4.1/hadoop-2.4.1.tar.gz
  2、安装配置参考文档
  官网:
  这是单机配置
  http://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/SingleCluster.html
  
  博客:
  http://blog.csdn.net/liangliangdetianxia/article/details/37716141
  3、具体安装配置
  1、下载
  2、解压
  
  root@i-5ygfjuik:~#tar zxvf hadoop-2.4.1.tar.gz.1
  3、单机配置
  在hadoop文件夹下
  etc/hadoop/hadoop-env.sh
  修改下面内容
  # set to theroot of your Java installation
  export JAVA_HOME=/usr/java/latest
  本例中用到export JAVA_HOME=/opt/jdk
  //hadoop的安装路径
  
  
  Hadoop 环境配置
  需要在linux系统下 找到profile文件进行配置  profile文件一般都在/etc/profile
  以本文为例具体配置如下:
  
  # vim /etc/profile
  
  export HADOOP_PREFIX=/root/hadoop-2.4.1
  export PATH=$PATH:$HADOOP_PREFIX/bin
  
  #Assuming your installation directory is /usr/local/hadoop
  exportHADOOP_PREFIX=/usr/local/hadoop
  
  启动hadoop
  $ bin/hadoop
  
  4、伪分布配置(配置不全)
  root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop# vimcore-site.xml
  
  
  
  fs.defaultFS
  hdfs://localhost:9000
  
  
  
  root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#vim  hdfs-site.xml
  
  
  
  dfs.replication
  1
  
  
  伪分布配置
  需要进入hadoop安装目录下找到 hadoop目录下的etc/hadoop
  --------------------------------------------------------
  对etc/hadoop中的文件进行配置(相关文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml)
  a.配制core-site.xml
  
  
  fs.default.name
  hdfs://localhost:9000
  
  
  dfs.namenode.name.dir
  file:/home/hadoop/hadoop-2.4.1/dfs/name
  
  
  dfs.datanode.data.dir
  file:/home/hadoop/hadoop-2.4.1/dfs/data
  
  
  注意红色字体hadoop是我为配置hadoop2.4.1设立的账户名称,是系统在home目录下自动创建的,可以根据需要更改。
  b.配制hdfs-site.xml
  
  
  dfs.replication
  
  1
  
  
  dfs.namenode.name.dir
  /home/hadoop/hadoop-2.4.0/dfs/name
  
  
  dfs.datanode.data.dir
  /home/hadoop/hadoop-2.4.0/dfs/data
  
  
  c.配制mapred-site.xml(具体参考安装的版本)
  
  
  mapreduce.jobtracker.address
  localhost:9001
  
  
  d.配置yarn-site.xml
  
  
  
  mapreduce.framework.name
  yarn
  
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  
  ---------------------------------------------------
  
  现在,检查SSh 能否自动登录(不需要密码)
  root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#ssh localhost
  
  如果不可以,就按下面设置
  root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  
  
  root@i-5ygfjuik:~/hadoop-2.4.1/etc/hadoop#cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  
  
  
  执行
  1、格式化
  
  root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs  namenode  –format
  必须这样执行,不能进入bin 在执行
  2、开始NameNode 和DataNode的守护进程
  
  root@i-5ygfjuik:~/hadoop-2.4.1# sbin/start-dfs.sh
  3、浏览NameNode的界面  默认情况下是可以的
  
  
  
  4、使HDFS目录能够执行MAPReduce的工作
  root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs  dfs –mkdir   /user
  root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs  dfs –mkdir  /user/username
  
  
  
  5、复制输入文件到这个分布式系统
  
  (还没跑通)
  root@i-5ygfjuik:~/hadoop-2.4.1# bin/hdfs dfs -putetc/hadoop input
  6、运行一些提供的例子
  
  
  root@i-5ygfjuik:~/hadoop-2.4.1# bin/hadoop jarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar grep input output'dfs[a-z.]+'
  
  7、检查输出结果
  把输出文件从分布式文件系统拷贝到本地文件系统,以便研究结果
  
  root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs dfs -get output output
  
  
  root@i-5ygfjuik:~/hadoop-2.4.1#cat output/*
  
  在分布式系统中查看结果
  
  
  root@i-5ygfjuik:~/hadoop-2.4.1#bin/hdfs dfs -cat output/*   
  
  
  8、当你完成后,停止守护进程
  
  root@i-5ygfjuik:~/hadoop-2.4.1#sbin/stop-dfs.sh   


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628255-1-1.html 上篇帖子: 安装hadoop-2.3.0-cdh5.1.2 下篇帖子: hadoop2.4.1伪分布模式部署
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表