设为首页 收藏本站
查看: 620|回复: 0

[经验分享] Hadoop分布式集群搭建完全详细教程

[复制链接]

尚未签到

发表于 2018-10-28 11:54:21 | 显示全部楼层 |阅读模式
  Hadoop分布式集群环境搭建步骤如下
  实验环境:
  系统:win7
  内存:8G(因要开虚拟机,内存建议不低于8G)
  硬盘:建议固态
  虚拟机:VMware 12
  Linux:Centos 7
  jdk1.7.0_67
  hadoop-2.5.0.tar.gz
  1.安装VMware虚拟机环境
  2.安装Centos操作系统
  3.修改主机名配置网络
  4.配置ssh无密码登录
  5.上传jdk配置环境变量
  6.上传hadoop配置环境变量
  7.修改hadoop配置文件
  8.格式化namenode
  9.启动hadoop并测试
  1安装VMware虚拟机环境
  这一步很简单,直接下载安装包下一步,安装成功之后打开输入注册码
  5A02H-AU243-TZJ49-GTC7K-3C61N
  GA1T2-4JF1P-4819Y-GDWEZ-XYAY8
  FY1M8-6LG0H-080KP-YDPXT-NVRV2
  ZA3R8-0QD0M-489GP-Y5PNX-PL2A6
  FZ5XR-A3X16-H819Q-RFNNX-XG2EA
  ZU5NU-2XWD2-0806Z-WMP5G-NUHV6
  VC58A-42Z8H-488ZP-8FXZX-YGRW8
  2安装Centos操作系统
  我这里安装了3台Linux,一台作为namenode,两台作为datanode,使用的是Centos7 64位,建议使用Centos,原因很简单,免费开源,属于重量级Linux,更接近生产环境,当然用其它版本也是可以的。
  下载地址:http://isoredirect.centos.org/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1611.iso
  安装过程很简单这里就不详述了。
  还是要推荐下我自己创建的大数据学习交流Qun: 710219868 有大佬有资料, 进Qun聊邀请码填写 南风(必填 )
  有学习路线的分享公开课,听完之后就知道怎么学大数据了
  3.修改主机名配置网络
  namenode:master
  datanode:slave1 slave2
  执行以下命令
  vi /etc/hostname
  将localhost改为master
  另外两台分别改为slave1和slave2
  接着执行以下命令
  vi /etc/hosts
  将三台linux的ip和主机名加进去
  192.168.149.138 master
  192.168.149.139 slave1
  192.168.149.140 slave2
  以上地址根据自己主机填写
  4配置ssh无密码登录
  在master上执行以下命令
  ssh-keygen
  上一步执行完之后将会生成公钥和私钥
  cd ~/.ssh
  在.ssh目录执行ll命令会看到id_rsa和id-rsa.pub两个文件,第一个是私钥,第二个是公钥
  然后执行
  ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.149.139
  ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.149.140
  这样就把公钥拷到了另外两台linux上
  然后测试是否成功
  ssh 192.168.149.139
  如果不要密码则配置成功
  5 上传jdk配置环境变量
  将jdk上传至centos
  执行以下命令
  tar -zxvf jdk1.7.0_67
  vi /etc/profile
  将Java环境变量配置好之后
  source /etc/profile 让配置生效
  查看是否配好
  java -version
  6上传hadoop配置环境变量
  将hadoop安装包上传至centos
  执行以下命令
  tar -zxvf hadoop-2.5.0.tar.gz
  mv hadoop-2.5.0.tar.gz hadoop 重命名
  配置hadoop环境变量同Java。PATH路径分别为bin和sbin
  查看是否成功
  hadoop version
  7修改hadoop配置文件
  需要修改的文件有 hadoop-env.sh core-site.xml hdfs-site.xml mapred-site.xml
  yarn-site.xml
  hadoop-env.sh
  将JAVA_HOME路径添加进去
  core-site.xml
  
  
  fs.default.name
  hdfs://master:9000
  
  
  hadoop.tmp.dir
  /usr/local/hadoop/tmp
  
  
  1
  2
  3
  4
  5
  6
  7
  8
  9
  10
  hdfs-site.xml
  
  
  dfs.replication
  1
  
  
  1
  2
  3
  4
  5
  6
  mapred-site.xml
  
  
  mapreduce.framework.name
  yarn
  
  
  1
  2
  3
  4
  5
  6
  yarn-site.xml
  
  
  yarn.resourcemanager.hostname
  master
  
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  
  1
  2
  3
  4
  5
  6
  7
  8
  9
  10
  注意:配置完成后别忘了把master上的hadoop拷贝到slave1和slave2上,使用命令:scp -r /usr/local/haoop slave1:/usr/local/
  8格式化namenode
  执行以下命令
  hadoop namenode -format
  start-dfs.sh
  start-yarn.sh
  9启动hadoop并测试
  master上执行以下命令测试
  jps
  如结果如下则表示搭建成功
  ResourceManager
  Jps
  NameNode
  NodeManager
  SecondaryNameNode
  slave1和slave2上执行以下命令测试
  jps
  NodeManager
  DataNode
  Jps
  至此hadoop分布式集群环境搭建就成功了!


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627472-1-1.html 上篇帖子: Hadoop用户启动hdf几个进程 下篇帖子: Hadoop从安装Linux到搭建集群环境
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表