设为首页 收藏本站
查看: 1808|回复: 0

[经验分享] Hadoop入门-单机伪分布式配置

[复制链接]

尚未签到

发表于 2018-11-1 08:01:53 | 显示全部楼层 |阅读模式
为了配置的的方便建议先提升你的登录用户权限,本配置中凡是要在终端中输入的命令都用红色字体,需注意对应的目录用了色字体标出。
启用超级用户 sudo passwd root(然后输入你的超级用户密码)以后在终端中输入su,再输入该密码就可以 用超级用户登录了
提升用户权限命令,在终端中输入sudo gedit /etc/passwd
在文件末尾找到你的登录用户:我的是szllong:x:1000:1000:szllong,,,:/home/szllong:/bin/bash 将其中的两个1000改为0保存并退出,重启电脑输入你的用户名和密码(我的用户名就是szllong,这里可能会习惯性的直接输入密码需注意)。
由于root登录有助多不变,建议配置完成后,再将你的权限改回来。
接下来就可以正式安装了。
1、安装基础工具
ssh
ubuntu默认并没有安装ssh服务,如果通过ssh链接ubuntu,需要自己手动安装ssh-server。判断是否安装ssh服务,可以通过如下命令进行:ssh localhost
如上没出现    ssh: connect to host localhost port 22: Connection refused,表示没有还没有安装,可以通过apt安装,共三个,命令如下:
apt-get install ssh
apt-get install openssh-server
sudo apt-get install rsync
很多介绍里会在前面加入sudo,这是为了要获得root权限,这是可能还要输入你的用户密码,下同

2、安装JDK
下载源码包jdk-7u4-linux-i586.tar.gz
(jdk版本可以根据需要自己下载最新版本,但在接下来环境配置时记得要改为相应版本)
  将之放到目录:/usr/lib/jvm下
(这里位置目录可以自己定义,JDK环境变量需要对应)
  进入该目录直接解压:tar zxvf jdk-7u4-linux-x64.tar.gz

3、安装hadoop-1.0.3.tar.gz,到hadoop官网下载hadoop-1.0.3.tar.gz
(此时hadoop-1.0.3.tar.gz是最稳定的版本,可以根据情况选择其他版本)
3.1、将下载包解压到usr目录tar zxvf hadoop-1.0.3.tar.gz
3.2、修改hadoop-env.sh配置
这里有两种配置方法一种是直接通过vi配置,这需要对它有一定的了解,由于我是个新手所以就直接找到该文件,然后对之进行修改(这时用具有root权限的用户登录就有优势了,因为这些配置文件的权限属于root,普通用户是不具有该权限的)

先给出通过vi 配置的方法,这是我在网上百度的,没有实验过,但这里的目录名需要与你的先前解压目录相对应(即/usr/lib/jvm/jdk1.7.0_04 目录)

  • vi conf/hadoop-env.sh
  • # 找到JAVA_HOME设置:export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04
  • # 在文件末尾加以下内容, 取消环境变量$HADOOP_HOME过时的警告:export HADOOP_HOME_WARN_SUPPRESS=1
配置环境变量(集群节点都要配置环境变量)
vi /etc/profile
在文件中末尾加入以下内容:
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04
  export PATH=$JAVA_HOME/bin:$PATH

  export>  export HADOOP_HOME=/hadoop-1.0.3
  export PATH=$PATH:$HADOOP_HOME/bin
让环境变量生效
source /etc/profile
主要配置三个文件:core-site.xml、hdfs-site.xml、mapred-site.xml使用高版本的hadoop就要修改为下面的配置:
Java代码 §

  • 配置
  • 使用如下的 conf/core-site.xml:



  • fs.default.name
  • hdfs://localhost:9000


Java代码 §

  • 配置
  • 使用如下的 conf/hdfs-site.xml:



  • dfs.replication
  • 1


Java代码 §

  • 配置
  • 使用如下的 conf/mapred-site.xml:



  • mapred.job.tracker
  • localhost:9001







接下来给出直接配置方法,直接配置方法就是直接在你的安装目录中修改该文件,
1.在usr/hadoop1.0.3/conf目录下找到hadoop-env.sh 文件后打开,注意因为现在是root用户登录,所以可能会出现一个对话框,这里要选显示而不是执行
找到
# export JAVA_HOME=/usr/lib/j2sdk1.5-sun
(#  表示注释,它之后的句子不被执行,仅起提示作用)
再该句话下加入配置环境语句(注意目录的对应)
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04
在文件末尾加
export HADOOP_HOME_WARN_SUPPRESS=1
取消环境变量$HADOOP_HOME过时的警告:
2.配置环境变量
在etc目录下找到profile文件,在其末尾加入以下内容(这里同样要注意目录的对应)
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_04
  export PATH=$JAVA_HOME/bin:$PATH

  export>  export HADOOP_HOME=/hadoop-1.0.3
  export PATH=$PATH:$HADOOP_HOME/bin
由于#可以起到注释作用,你可以在这里加上
#I add something to make java-jdk active times:2012 08 24 22:36
唯一标识
让环境变量生效
在终端中source /etc/profile
3.配置三个文件core-site.xml、hdfs-site.xml、mapred-site.xml
usr/hadoop1.0.3/conf中找到core-site.xml文件



中加入

fs.default.name
hdfs://localhost:9000

找到hdfs-site.xml文件



中加入

dfs.replication
1

找到mapred-site.xml文件



中加入

mapred.job.tracker
localhost:9001


4.在终端中输入ssh localhost如果需要输入密码则输入密码后运行以下两条命令,
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
这是为了,配置自由登录hadoop的密码,第一句是产生,第二句是分发

5.用cd命令进入usr/hadoop1.0.3中 输入bin/hadoop namenode -format进行格式化
6. 输入bin/start-all.sh启动hadoop
7.在浏览器中输入 http://localhost:50070/,如显示的有磁盘容量表示已经配置成功。
注意因定要进入hadoop安装目录后再运行bin...命令,否则会出现找不到文件或文件夹


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629132-1-1.html 上篇帖子: [Cloudera Hadoop] CDH 4.0 Quick Start Guide (动手实践,最新版CDH4.0,企业版Hadoop) 下篇帖子: 浅析Hadoop文件格式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表