设为首页 收藏本站
查看: 895|回复: 0

[经验分享] Hadoop分布式集群搭建

[复制链接]

尚未签到

发表于 2018-10-29 06:24:07 | 显示全部楼层 |阅读模式
  Linux安装,环境搭建:
  1.安装VM
  2.安装CentOS_6.5虚拟机,硬盘空间设置为10G
  3.设置网络连接:选择VM-编辑-虚拟网络编辑器-更改设置,选择名称VMnet8移除网络,再添加VMnet8网络,选择NAT模式,点击应用
  4.设置虚拟机网络连接:右击虚拟机右下角网络适配器-设置-网络适配器,先选择桥接模式,再选择NAT模式,对IP网段进行自动获取
  5.设置虚拟机IP地址,用root用户:cd /etc/sysconfig/network-scripts/,vim ifcfg-eth0,
  DEVICE="eth0"
  BOOTPROTO="static"
  NM_CONTROLLED="yes"
  ONBOOT="yes"
  TYPE="Ethernet"
  IPADDR=192.168.111.10
  NETMASK=255.255.255.0
  GATEWAY=192.168.111.2
  DNS1=202.103.24.68
  6.重启网络服务:/etc/init.d/network restart
  7.验证IP设置是否成功:ifconfig
  8.验证是否可以上网:curl www.baidu.com
  9.复制两份虚拟机文件,分别作为slave1和slave2,在VM中打开这两台slave虚拟机
  10.修改两台slave虚拟机的IP设置:进入/etc/sysconfig/network-scripts/ifcfg-eth0文件,修改IP地址,然后选择虚拟机的网络适配器,删除再添加,重新获取MAC,然后重启网络服务器:/etc/init.d/network restart,查看是否能上网
  11.设置共享文件夹:VM虚拟机-设置-选项-共享文件夹,Linux路径:/mnt/hgfs/
  安装jdk
  12.安装jdk和hadoop:拷贝jdk和Hadoop到/usr/local/src/目录下,
  cp hadoop-1.2.1-bin.tar.gz /usr/local/src/
  cp jdk-6u45-linux-x64.bin /usr/local/src/
  进入/usr/local/src/目录,运行 ./jdk-6u45-linux-x64.bin
  13.添加环境变量:vim ~/.bashrc,添加:
  export JAVA_HOME=/usr/local/src/jdk1.6.0_45

  export>  export PATH=$PATH:$JAVA_HOME/bin
  14.运行source ~/.bashrc
  15.运行java查看是否安装成功
  16.将jdk远程复制到其他两台slave虚拟机上:
  scp -rp jdk-6u45-linux-x64.bin 192.168.111.11:/usr/local/src/
  scp -rp jdk-6u45-linux-x64.bin 192.168.111.12:/usr/local/src/
  17.在两台slave虚拟机上安装jdk,重新执行步骤12~15
  安装Hadoop
  18.安装Hadoop:解压Hadoop
  tar xvzf hadoop-1.2.1-bin.tar.gz
  19.进入hadoop-1.2.1文件夹:cd hadoop-1.2.1
  20.创建tmp文件夹:mkdir tmp
  21.进入conf文件夹:cd conf/
  22.修改配置文件:master和slave,master文件里加master,slave文件里加slave1,slave2
  23.修改core-site.xml文件:vim core-site.xml
  
  
  hadoop.tmp.dir
  /usr/local/src/hadoop-1.2.1/tmp
  
  
  fs.default.name
  hdfs://192.168.111.10:9000
  
  
  24.修改mapred-site.xml文件:vim mapred-site.xml
  
  
  mapred.job.tracker
  http://192.168.111.10:9001
  
  
  25.修改hdfs-site.xml文件:vim hdfs-site.xml
  
  
  dfs.replication
  2
  
  
  26.修改hadoop-env.sh文件:vim hadoop-env.sh 在最后加上java_home:
  export JAVA_HOME=/usr/local/src/jdk1.6.0_45
  本地配置
  27.本地网络配置:vim /etc/hosts,添加:
  192.168.111.10 master
  192.168.111.11 slave1
  192.168.111.12 slave2
  28.输入hostname master,使配置立即生效
  29.修改hostname:vim /etc/sysconfig/network
  HOSTNAME=master
  30.将master上修改好的文件远程拷贝到slave1和slave2上:
  scp -rp hadoop-1.2.1 192.168.111.11:/usr/local/src/
  scp -rp hadoop-1.2.1 192.168.111.12:/usr/local/src/
  31.修改slave1和slave2的本地网络配置,重复步骤27~29
  32.关闭防火墙,每台虚拟机上执行:/etc/init.d/iptables stop,此种方法为临时关闭,如果遇到虚拟机重启,会失效,需要重新执行步骤32~35
  33.检查防火墙是否关闭:iptables -L
  34.每台虚拟机上执行:setenforce 0
  35.检查,每台虚拟机上执行:getenforce
  互信关系
  36.虚拟机之间建立互信关系:
  在虚拟机上执行:ssh-keygen
  进入目录:cd ~/.ssh/

  拷贝公钥:cat>  将slave1和slave2的id_rsa.pub复制到中,并复制给slave1和slave2:
  scp -rp authorized_keys slave1:~/.ssh/
  scp -rp authorized_keys slave2:~/.ssh/
  启动Hadoop集群
  37.进入hadoop-1.2.1/bin目录,启动Hadoop集群:
  格式化:hadoop初始化   ./hadoop namenode -format
  启动hadoop集群   ./start-all.sh
  查看进程:jps


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627664-1-1.html 上篇帖子: hadoop配置名称节点HA基本流程 下篇帖子: Nutch1.8+Hadoop1.2+Solr4.3分布式集群配置
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表