设为首页 收藏本站
查看: 911|回复: 0

[经验分享] hadoop 1.2.1 安装步骤 伪分布式

[复制链接]

尚未签到

发表于 2016-12-10 09:07:15 | 显示全部楼层 |阅读模式
最近在系统的学习hadoop
课程第一步是安装hadoop1.x,具体安装步骤如下:
一、系统安装
本文使用centos6.5安装,具体安装步骤省略
二、jdk安装
下载jdk1.7.0_51解压,在环境中
设置环境变量:
  vi /etc/profile,添加如下行:

export JAVA_HOME=/usr/local/jdk1.7.0_51
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

由于在centos下安装,选择需要设置jdk版本

update-alternatives --install /usr/bin/java java /export/home/es/jdk1.7.0_51/bin/java 60

update-alternatives --config java

DSC0000.png
 





三、linux基本参数设置

设置防火墙:

vi /etc/selinux/config

DSC0001.png
 将红框标示部分,设置为disabled



DSC0002.png
 查看防火墙情况,并关闭


service iptables status
service ip6tables status
service iptables stop
service ip6tables stop
chkconfig iptables off
chkconfig ip6tables off
四,免密码登陆

设置使用免密码登陆方式


DSC0003.png
 
vi /etc/ssh/sshd_config
RSAAuthentication yes
PubkeyAuthentication yes
AuthorizedKeysFile      .ssh/authorized_keys

 将这三个部分的注释去掉,使用RSA验证方式



DSC0004.png
 生成公钥
[hadoop@vm .ssh]$ pwd
/export/home/hadoop/.ssh
[hadoop@vm .ssh]$ ssh-keygen -t rsa
Generating public/private rsa key pair.
......
[hadoop@vm .ssh]$ cp id_rsa.pub authorized_keys
[hadoop@vm .ssh]$ ls
authorized_keys  id_rsa  id_rsa.pub
 修改hosts文件:



[hadoop@vm conf]$ more /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.2.201 vm.master
192.168.2.202 vm.slave1
192.168.2.203 vm.slave2
 修改hostname
DSC0005.png

[hadoop@vm etc]$ vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=vm.master
 四,修改hadoop配置文件


[size=1em][size=1em]
[hadoop@vm conf]$ pwd

[size=1em][size=1em]
/export/home/hadoop/hadoop-1.2.1/conf

[size=1em][size=1em]
[size=1em]修改[size=1em]core-site.xml[size=1em] 


[size=1em][size=1em]
[size=1em][size=1em]
DSC0006.png
 


[size=1em]



[hadoop@vm conf]$ vi core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
 修改[size=1em]hdfs-site.xml


[size=1em]
DSC0007.png
 



[hadoop@vm conf]$ vi hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replications</name>
<value>1</value>
</property>
</configuration>
 修改[size=1em]mapred-site.xml
DSC0008.png
 




[hadoop@vm conf]$ vi mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
 设置JAVA_HOME


DSC0009.png


五,尝试启动

format namenode 


DSC00010.png
 

 尝试启动
 
DSC00011.png
 搭建完毕
 






 

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312162-1-1.html 上篇帖子: 将Spark部署到Hadoop 2.2.0上 下篇帖子: 如何远程读取CDH的hadoop上的HDFS数据?
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表