设为首页 收藏本站
查看: 1320|回复: 3

[经验分享] Hadoop完全分布式模式的安装和配置

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2013-11-25 09:31:28 | 显示全部楼层 |阅读模式
一、建立hadoop运行账号(all/root)
二、配置hosts文件(namenode/root)
三、下载并解压jdk(namenode/root)
四 下载并解压hadoop安装包(namenode/hadoop)
五、为hadoop账户配置ssh免密码连入(all/hadoop)
六、配置hadoop-env.sh(namenode/hadoop)
七、conf文件夹下修改site文件(namenode/hadoop)
八、conf文件夹下配置masters和slaves文件(namenode/hadoop)
九、向各节点复制jdk及hadoop(namenode/hadoop)
十、格式化hdfs(namenode/hadoop)
十一、启动hadoop((namenode/hadoop))
十二、用jps检验各后台进程是否成功启动(all/hadoop)

VMware虚拟机准备3台机器,网络连接方式使用host-only

192.168.80.100 hadoop100 (用做namenode)

192.168.80.101 hadoop101

192.168.80.102 hadoop102


0. 设置静态IP&修改主机名&关闭防火墙(all-root)0.1 可以先维护一下ip. 分别登陆到3台机器

修改ip信息, 因为我的虚拟机安装时选择的是host-only, 我的网管就设置成了我的windows下的虚拟网卡的地址。


0.2修改主机名

血与泪的教训,千万不要设置成 hadoop_100这样的主机名及host

查看主机名hostname

修改主机名hostnamehadoop100

hostnamehadoop101

hostnamehadoop102

不过hostname命令,服务一重启就又会被还原为localhost

修改配置文件 vi /etc/sysconfig/network

hostname=hadoop100

...

重启一下网络service network restart

验证reboot -h now 立刻重启  然后hostname

0.3关闭防火墙

关闭已经启动的防火墙: service iptables stop (只能关闭当前)

验证:service iptables status

Firewall is not running

关闭防火墙开机自动启动功能:

1. 先查看 查看: chkconfig --list |grep iptables
iptables        0:off   1:off   2:on    3:on    4:on    5:on    6:off

2. 关闭chkconfig  iptables off

验证:chkconfig --list |grep iptables


一、建立hadoop运行账号(all-root)最好不要使用root操作hadoop,root是超级管理员权限,不推荐各个机器之间使用root访问,


useradd hadoop增加用户

passwd hadoop设置密码
二、配置hosts文件(namenode-root)操作192.168.80.100机器
vi /etc/hosts添加下面内容

192.168.80.100 hadoop100
192.168.80.101 hadoop101
192.168.80.102 hadoop102

验证:ping  hadoop100
ping  hadoop101

ping  hadoop102







三、为hadoop账户配置ssh免密码连入(all-hadoop)分别登陆100,101,102三台服务器
使用hadoop 用户


① ssh-keygen -t rsa会在~/.ssh/文件夹下生成id_rsa  id_rsa.pub两个文件

② 根据ip分别执行
cp ~/.ssh/id_rsa.pub~/.ssh/id_rsa.pub.100

cp~/.ssh/id_rsa.pub~/.ssh/id_rsa.pub.101

cp~/.ssh/id_rsa.pub~/.ssh/id_rsa.pub.102


scp -r ~/.ssh/id_rsa.pub.101   hadoop@hadoop100:/home/hadoop/.ssh
scp -r ~/.ssh/id_rsa.pub.102   hadoop@hadoop100:/home/hadoop/.ssh



④ 把所有机器的公钥,放在hadoop100的一个文件中(在hadoop100的hadoop用户下操作)
cat ~/.ssh/id_rsa.pub.100 >> ~/.ssh/authorized_keys

cat ~/.ssh/id_rsa.pub.101 >> ~/.ssh/authorized_keys

cat ~/.ssh/id_rsa.pub.102 >> ~/.ssh/authorized_keys



验证 ssh hadoop101  发现无效,提示还是需要密码。


⑤ 修改authorized_keys的权限, 组用户不能有 写(W)权限, 不然ssh 由于安全问题不生效
authorized_keys 权限改为 644 就OK



然后分发给 101和102
scp -r ~/.ssh/authorized_keys   hadoop@hadoop101:/home/hadoop/.ssh
scp -r ~/.ssh/authorized_keys   hadoop@hadoop102:/home/hadoop/.ssh


验证: ssh hadoop101 ...
然后神奇的事情发生了。 3台机器彼此之间可以互联,O(∩_∩)O哈哈~


四、下载并解压jdk(namenode-root)把jdk解压到/usr/local/ 文件夹1. 配置环境变量
[iyunv@localhost local]#  cd /usr/local
[iyunv@localhost local]#  ./jdk-6u24-linux-i586.bin解压jdk后,生成jdk1.6.0_24文件夹

[iyunv@localhost local]# vi /etc/profile在空白处加上下面两行
export JAVA_HOME=/usr/local/jdk1.6.0_24
export PATH=.:$JAVA_HOME/bin:$PATH
然后保存退出。
[iyunv@localhost local]# source /etc/profile使新修改的环境变量生效。
验证: java -version




五、下载并解压hadoop安装包(namenode-hadoop)

tar -zxvf /home/hadoop/hadoop-1.1.2.tar.gz

5.1 解压后生成文件夹 hadoop-1.1.2 5.2 如果hadoophome不放在 hadoop用户目录下, 也可以通过赋权限,来让hadoop用户可以操作hadoop-1.1.2文件夹 chown -R hadoop/usr/local/hadoop-1.1.2/
chgrp -R hadoop /usr/local/hadoop-1.1.2/


5.3 设置Hadoop环境变量

vi /etc/profile

修改为
export JAVA_HOME=/usr/local/jdk1.6.0_24
export HADOOP_HOME=/home/hadoop/hadoop-1.1.2

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

保存退出
source /etc/profile


验证: hadoop


六、配置hadoop-env.sh(namenode-hadoop)

修改 export JAVA_HOME=/usr/local/jdk1.6.0_24


七、conf文件夹下修改site文件(namenode-hadoop)
1、core-site.xml
<configuration>
    <property>
<name>fs.default.name</name>
<value>hdfs://hadoop100:9000</value>
<description>change your own hostname</description>
    </property>
    <property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-1.1.2/tmp</value>
    </property>
</configuration>
2、hdfs-site.xml
<configuration>
   <property>
<name>dfs.replication</name>
<value>2</value>
   </property>
</configuration>
3、mapred-site.xml
<configuration>
    <property>
<name>mapred.job.tracker</name>
<value>hadoop100:9001</value>
<description>change your own hostname</description>
    </property>
</configuration>



八、conf文件夹下配置masters和slaves文件(namenode-hadoop)

master :   
hadoop100
slave:
hadoop101
hadoop102


九、向各节点复制jdk及hadoop(namenode-hadoop)

分发hosts到其他机器(root用户)

scp -r /etc/hosts root@hadoop101:/etc/
scp -r /etc/hosts root@hadoop102:/etc/


分发java(root用户)
scp -r /usr/local/jdk1.6.0_24 root@hadoop101:/usr/local/
scp -r /usr/local/jdk1.6.0_24 root@hadoop102:/usr/local/


分发环境变量/etc/profile(root用户)
scp -r /etc/profile root@hadoop101:/etc/
scp -r /etc/profile root@hadoop102:/etc/



分别执行source /etc/profile
分别验证: java -version
ping hadoop101
ping hadoop100
ping hadoop102
分发hadoop(切换为hadoop用户,可以免密码)
su hadoop
scp -r/home/hadoop/hadoop-1.1.2hadoop@hadoop102:/home/hadoop/
scp -r/home/hadoop/hadoop-1.1.2 root@hadoop102:/home/hadoop/


分别验证:hadoop



十、格式化hdfs(namenode/hadoop)

在hadoop100,hadoop101, hadoop102的hadoop用户下
执行命令 hadoop namenode -format
都有提示 Storage directory /home/hadoop/hadoop-1.1.2/tmp/dfs/name has been successfully formatted.
才证明成功


十一、启动hadoop(namenode/hadoop)
在hadoop100 上执行 start-all.sh
十二、用jps检验各后台进程是否成功启动(all/hadoop)

请查看伪分布式



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-10670-1-1.html 上篇帖子: hadoop HDFS 设置文件复试数(备份数) 下篇帖子: Hadoop多文件输出:MultipleOutputFormat和MultipleOutputs深究(一)

尚未签到

发表于 2013-12-11 02:18:41 | 显示全部楼层
﹎ 青 春 ゝ 在 我 们 手 里 还 能 挥 霍 多 久 啊 ..?

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

尚未签到

发表于 2013-12-20 23:48:53 | 显示全部楼层
我正游走在无拘无束的自赏自省与自恋之间

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

尚未签到

发表于 2013-12-28 13:43:20 | 显示全部楼层
岁月如刀催人老,昔日红颜不复在。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表