设为首页 收藏本站
查看: 1351|回复: 0

[经验分享] centos 64位 hadoop 完全分布式安装

[复制链接]

尚未签到

发表于 2018-10-29 09:49:10 | 显示全部楼层 |阅读模式
#####  
####安装hadoop完全分布式集群
  
#####
  

  
####文件及系统版本:
  
####
  
hadoop-1.2.1
  
Java version 1.7.0_79
  
centos 64位
  

  
####预备
  
####
  
在/home/hadoop/下:mkdir Cloud
  
把java和hadoop安装包放在/home/hadoop/Cloud下
  

  
####配置静态ip
  
####
  
master192.168.116.100
  
slave1192.168.116.110
  
slave2192.168.116.120
  

  
####修改机器相关名称(都是在root权限下)
  
####
  
su root
  
vim /etc/hosts
  
在原信息下输入:(空格+tab)
  
master192.168.116.100
  
slave1192.168.116.110
  
slave2192.168.116.120
  

  
vim /etc/hostname
  
master
  
shutdown -r now  (重启机器)
  

  
vim /etc/hostname
  
slave1
  
shutdown -r now
  

  
vim /etc/hostname
  
slave2
  
shutdown -r now
  

  
####安装openssh
  
####
  
su root
  
yum install openssh
  
ssh-keygen -t rsa
  
然后一直确认
  
把slave1和slave2的公钥发给master:
  
scp /home/hadoop/.ssh/id_rsa.pub hadoop@master:~/.ssh/slave1.pub
  
scp /home/hadoop/.ssh/id_rsa.pub hadoop@master:~/.ssh/slave2.pub
  
在master下: cd .ssh/
  
cat id_rsa.pub >> authorized_keys
  
cat slave1.pub >> authorized_keys
  
cat slave2.pub >> authorized_keys
  
把公钥包发给slave1和slave2:
  
scp authorized_keys hadoop@slave1:~/.ssh/
  
scp authorized_keys hadoop@slave2:~/.ssh/
  

  
ssh slave1
  
ssh slave2
  
ssh master
  
相应的输入yes
  
到这里ssh无密码登录配置完成
  

  

  
####设计JAVA_HOME HADOOP_HOME
  
####
  
su root
  
vim /etc/profile
  
输入:
  
export JAVA_HOME=/home/hadoop/Cloud/jdk1.7.0_79
  
export JRE_HOME=$JAVA_HOME/jre
  
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
  
export HADOOP_HOME=/home/hadoop/Cloud/hadoop-1.2.1
  
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  
然后source /etc/profile
  

  

  

  
####配置hadoop文件
  
####
  
在/home/hadoop/Cloud/hadoop-1.2.1/conf下
  
vim masters 输入:
  
master
  

  
vim slaves 输入:
  
master
  
slave1
  
slave2
  

  
vim hadoop-env.sh 输入:
  
export JAVA_HOME=/home/hadoop/Cloud/jdk1.7.0_79
  
export HADOOP_HOME_WARN_SUPPRESS="TRUE"
  
然后source hadoop-env.sh
  

  
vim core-site.xml 输入:
  
###################################core
  

  

  

  

  
io.native.lib.avaliable
  

  
true
  

  

  

  

  

  
fs.default.name
  

  
hdfs://master:9000
  

  
true
  

  

  

  

  

  
hadoop.tmp.dir
  

  
/home/hadoop/Cloud/workspace/temp
  

  

  

  

  
############################core
  

  
vim  hdfs-site.xml
  
##############################hdfs
  

  

  

  

  
dfs.replication
  

  
3
  

  

  

  

  

  
dfs.permissions
  

  
false
  

  

  

  

  

  
dfs.namenode.name.dir
  

  
/home/hadoop/Cloud/workspace/hdfs/data
  

  
true
  

  

  

  

  

  
dfs.namenode.dir
  

  
/home/hadoop/Cloud/workspace/hdfs/name
  

  

  

  

  

  
dfs.datanode.dir
  

  
/home/hadoop/Cloud/workspace/hdfs/data
  

  

  

  

  

  
dfs.webhdfs.enabled
  

  
true
  

  

  

  

  
##################################hdfs
  

  
vim mapred-site.xml
  

  
####################################mapred
  

  

  

  
   mapred.job.tracker
  
      master:9001
  
        
  

  

  
######################################mapred
  

  
到这里hadoop配置完成
  
把hadoop发送到slave1和slave2
  
scp -r hadoop-1.2.1 hadoop@slave1:~/Cloud/
  
scp -r hadoop-1.2.1 hadoop@slave2:~/Cloud/
  

  
########现在可以启动hadoop啦
  
########
  
首先格式化namenode
  
hadoop namenode -format   (由于前面设计了hadoop-env.sh和系统环境,所以在任意目录下都可以执行)
  
查看日志没错的话往下
  
start-all.sh
  
然后
  
完整的的话会出现:
  
[hadoop@master ~]$ jps
  
8330 JobTracker
  
8452 TaskTracker
  
8246 SecondaryNameNode
  
8125 DataNode
  
8000 NameNode
  
8598 Jps
  
[hadoop@master ~]$ ssh slave1
  
Last login: Thu Jan 12 07:08:06 2017 from master
  
[hadoop@slave1 ~]$ jps
  
3885 DataNode
  
3970 TaskTracker
  
4078 Jps
  
[hadoop@slave1 ~]$ ssh slave2
  
Last login: Thu Jan 12 07:20:45 2017 from master
  
[hadoop@slave2 ~]$ jps
  
2853 TaskTracker
  
2771 DataNode
  
2960 Jps
  
至此,hadoop完全分布式配置完成。
  
下面是hadoop的浏览器端口号:
  
localhost:50030/   for the Jobtracker
  
localhost:50070/   for the Namenode
  
localhost:50060/   for the Tasktracker
  

  
从此走上大数据这条不归路。。。



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627827-1-1.html 上篇帖子: Hadoop中最不容错过的压缩知识 下篇帖子: spark和zeppelin实践一:安装hadoop篇
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表