设为首页 收藏本站
查看: 1187|回复: 0

[经验分享] Hadoop笔记之搭建环境

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2017-12-17 12:44:41 | 显示全部楼层 |阅读模式
  Hadoop的环境搭建分为单机模式、伪分布式模式、完全分布式模式。
  因为我的本本比较挫,所以就使用伪分布式模式。
安装JDK
  一般Linux自带的Java运行环境都是Open JDK,我们到官网下载Oracle JDK(http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html):
DSC0000.png

  需要注意的是官网上直接右键复制的话是下载不成功的,F12,单机,看网络请求包:
DSC0001.png

  然后复制地址wget即可:
wget http://download.oracle.com/otn-pub/java/jdk/8u131-b11/d54c1d3a095b4ff2b6607d096fa80163/jdk-8u131-linux-x64.tar.gz  

  解压:
tar zxvf jdk-8u131-linux-x64.tar.gz  

  配置相关的环境变量:
vim /etc/profile  

  如果还没有vim的话可以使用yum install vim来安装,在profile文件末尾追加:
export JAVA_HOME=/usr/local/jdk1.8.0_131  
export PATH=$JAVA_HOME/bin:$PATH

  
export>  

  重新加载profile:
source /etc/profile  

  查看Java版本:
DSC0002.png

  如果是默认的话就是Open JDK,这里已经换成了Oracle JDK了,JDK安装完成。

配置SSH免密码登录
  在当前用户目录下新建隐藏文件.ssh:
mkdir .ssh  

  cd到.ssh目录中,生成公钥和私钥:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  

  把公钥追加到授权key中:
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  

  然后尝试直接连接到本地:
ssh -version  

  第一次可能会有提示,再之后登陆的时候会直接登陆进来而无需每次都输入密码。

安装Hadoop
  到官网找到一个合适的版本  http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.8.0/:
DSC0003.png

  使用wget下载到本地:
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz  

DSC0004.png

  如果wget还没有安装的话,使用下面的命令安装:
yum install wget  

  解压targz文件:
tar zxvf hadoop-2.8.0.tar.gz  

  修改Hadoop的配置文件($HADOOP_HOME/etc/hadoop):
vim core-site.xml  

  编辑内容:
<configuration>  

  <property>
  <name>hadoop.tmp.dir</name>
  <value>file:/root/hadoop/tmp</value>
  <description>Abase for other temporary directories.</description>
  </property>
  

  <property>
  <name>fs.defaultFS</name>
  <value>hdfs://192.168.2.131:9000</value>
  </property>
  

  
</configuration>
  

  需要注意的是这里配置的路径中不能使用~来代替宿主目录,不然后面初始化的时候找不到此目录就会报NPE。
  编辑mapred-site.xml.template文件:
vim mapred-site.xml.template  

  修改内容:
<configuration>  

  <property>
  <name>mapred.job.tracker</name>
  <value>192.168.2.131:9001</value>
  </property>
  

  
</configuration>
  

  编辑hdfs-site.xml文件:
vim hdfs-site.xml  

  编辑内容:
<configuration>  

  <property>
  <name>dfs.replication</name>
  <value>1</value>
  </property>
  

  <property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/root/hadoop/tmp/dfs/name</value>
  </property>
  

  <property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/root/hadoop/tmp/dfs/data</value>
  </property>
  

  
</configuration>
  

  初始化Hadoop目录,在$HADOOP_HOME/bin下执行:
./hdfs namenode -format  

  出现这个就说明初始化成功了:
DSC0005.png

  启动NameNode和DataNode守护进程:
  切换到$HADOOP_HOME/sbin下,执行:
./start-dfs.sh  

  如果启动的时候报了这个错的话:
DSC0006.png

  切换到$HADOOP_HOME下,执行:
vim etc/hadoop/hadoop-env.sh  

  在文件的末尾追加$JAVA_HOME变量:
export JAVA_HOME=/usr/local/jdk1.8.0_131   

  启动完毕使用jps命令查看进程信息:
DSC0007.png

  上面这样子说明就是启动成功了。
  在浏览器中输入http://192.168.2.131:50070可查看web界面。
  但是这个时候要使用hadoop命令还必须得去特定的目录下使用,将其加入到$PATH中:
vim /etc/profile  

  在文件尾部追加:
export JAVA_HOME=/usr/local/jdk1.8.0_131  
export HADOOP_HOME=/usr/local/hadoop-2.8.0
  
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

  
export>  

  

  重新加载一下:
source /etc/profile  

  测试一下:
DSC0008.png

  .

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425006-1-1.html 上篇帖子: hadoop+hive+spark搭建(一) 下篇帖子: 在ubuntu系统下装hadoop
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表