设为首页 收藏本站
查看: 1113|回复: 0

[经验分享] hadoop(1.2) 分布式部署

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-11-26 08:35:12 | 显示全部楼层 |阅读模式
1. 部署环境
系统:  CentOS 6.3
需要安装jdk.
关闭iptables和selinux
1
2
3
4
/etc/init.d/iptables stop
chkconfig iptables off
sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
setenforce 0




2. SSH配置
1
2
3
4
5
6
7
8
9
useradd hadoop
echo 123456 | passwd --stdin hadoop
su - hadoop

ssh-keygen -t rsa                                      #生成密钥对
ssh-copy-id user@ip                                    #将ssh公钥copy到指定的主机

cd .ssh #每台服务器本机也需要配置ssh免密码登录
cat id_rsa.pub  >> authorized_keys




3. 部署hadoop
1
2
wget http://mirrors.hust.edu.cn/apach ... hadoop-1.2.1.tar.gz
tar xf hadoop-1.2.1.tar.gz




修改配置
     1.    conf/hadoop-env.sh
这是一个脚本文件,主要是用来初始化hadoop环境的.
修改JAVA_HOME变量, 告诉在那里可以找到java ,  这里安装的是oracle jre的rpm,如下配置..
1
2
vi hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_67




    2.    conf/core-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
<configuration>
  <property>
    <name>fs.default.name</name>                      #指定名称节点在哪里...
    <value>hdfs://hadoop1:9000</value>                #名称节点是hadoop1, 也可以写成ip地址.
  </property>

  <property>
    <name>hadoop.tmp.dir</name>                       #指定hadoop的临时文件目录,如果不指定会使用/tmp
    <value>/home/hadoop/hadoop-1.2.1/tmp</value>      #要记得创建目录 mkdir /home/hadoop-1.2.1/tmp
  </property>

  <property>
   <name>fs.trash.interval</name>                     #指定回收站的清空间隔
   <value>21600</value>                               #单位是分钟
   <description>
     Number of minutes between trashcheckpoints. If zero, the trash feature is disabled
   </description>
  </property>
</configuration>




     3.  conf/hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
<configuration>
  <property>
    <name>dfs.replication</name>                          #定义hdfs的复制因子,保存多少副本数
    <value>2</value>                                      #如果是1的话,不复制..
  </property>

  <property>
    <name>dfs.block.size</name>
    <value>67108864</value>
    <description>The default block size for new files.</description>
  </property>
</configuration>




    4. conf/mapred-site.xml
1
2
3
4
5
6
<configuration>
  <property>
    <name>mapred.job.tracker</name>                       #指定jobtracker的地址和监听端口
    <value>hadoop1:9001</value>
  </property>
</configuration>




     5.  conf/masters
1
hadoop1                                               #在文件中指定充当master的主机名称




     6.  conf/slaves
1
2
hadoop2                                               #在文件中指定充当salve的主机名称
hadoop3




    7.  修改hosts
1
2
3
4
vi /etc/hosts
192.168.188.210 hadoop1
192.168.188.220 hadoop2
192.168.188.230 hadoop3




    8. 将hadoop目录scp到其他的设备上
所有的hadoop的内容都是一样的,直接scp -r过去就可以了
1
2
cd /home/hadoop
scp -r hadoop-1.2.1 ip:/home/hadoop




    9. 格式化名称节点
1
2
3
4
5
cd hadoop-1.2.1
./bin/hadoop namenode -format

如果最后面的信息有下面这样的表示成功...
14/08/30 11:37:05 INFO common.Storage: Storage directory /home/hadoop/hadoop-1.2.1/tmp/dfs/name has been successfully formatted.




4.  启动hadoop
1
./bin/start-all.sh




如果第一次启动不成功,可以运行jps命令查看进程
如果安装的是oracle jdk 的rpm
/usr/java/jdk1.7.0_67/bin/jps  如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..
启动后的日志在logs目录中
jobtracker  namenode  secondarynamenode 日志默认都在master上...
tasktracker  datanode    在所有slave的logs中.

5.  启动后的检查
通过jps命令查看,    java的进程统计列表
1
/usr/java/jdk1.7.0_67/bin/jps





总结:
1. 配置hosts文件
2. 建立hadoop运行账号
3. 配置ssh免密码登录
4. 下载并解压hadoop安装包
5. 配置namenode, 修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各节点复制hadoop
9. 格式化namenode
10. 启动hadoop
11. 用jps检验各后台进程是否成功启动


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-33724-1-1.html 上篇帖子: hadoop(1.2) 伪分布式部署 下篇帖子: hadoop(2.5) 分布式部署
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表