设为首页 收藏本站
查看: 976|回复: 0

[经验分享] hadoop学习一:hadoop 集群搭建

[复制链接]

尚未签到

发表于 2018-10-31 11:11:24 | 显示全部楼层 |阅读模式
  hadoop集群搭建
  硬件环境:redhat 三个节点node1,node2,node3(虚拟机)
  一:为三个节点新建用户grid
  二:配置ssh免登录
  (在node1节点)使用grid用户登录,
  运行ssh -keygen -t rsa
  切换到 .ssh目录下,复制当前目录下的id_rsa.pub并重命名为authorized_keys
  (在node2节点)使用grid用户登录,
  运行ssh -keygen -t rsa
  切换到 .ssh目录下,复制当前目录下的id_rsa.pub并重命名为authorized_keys
  (在node3节点)使用grid用户登录,
  运行ssh -keygen -t rsa
  切换到 .ssh目录下,复制当前目录下的id_rsa.pub并重命名为authorized_keys
  分别将node1,node2,node3三个节点中的内容复制到一个authorized_keys中,并将其他节点的   authorized_keys文件覆盖。然后重启network服务
  三:修改机器名和hosts文件
  修改主机名:修改/etc/sysconfig/network文件中的HOSTNAME
  在/etc/hosts文件中添加(每一个节点中的hosts都需要修改
  namenode和datenode节点的ip和机器名
  192.168.77.130 node1
  192.168.78.128 node2
  192.168.78.129 node3
  四:安装jdk
  配置jdk环境变量
  修改/etc/profile文件
  在文件中添加
  export JAVA_HOME=/home/jdk1.6.0_45 //jdk home目录

  export>  export PATH=$JAVA_HOME/bin:$PATH
  然后 source /etc/profile即可
  五:安装,配置hadoop
  需要修改的文件:hadoop/conf目录下的hadoop-env.sh ,hdfs-site.xml ,
  core-site.xml,mapred-site.xm,masters,slaves文件
  1、hadoop-env.sh文件
  在hadoop-env.sh文件中配置javahome :export JAVA_HOME=/home/jdk1.6.0_45
  2、hdfs-site.xml文件
  在hdfs-site.xml文件中添加属性dfs.replication,其value值为hdfs复制份数
  
  dfs.replication
  2
  
  3、core-site.xml文件
  在core-site.xml文件中添加属性fs.default.name和hadoop.tmp.dir
  
  fs.default.name
  hdfs://node1:9000
  
  
  hadoop.tmp.dir
  /home/grid/hadoop-1.2.1/tmp
  
  4、mapred-site.xml文件
  在mapred-site.xml文件中添加属性mapred.job.tracker
  
  mapred.job.tracker
  node1:9001
  
  5、masters文件
  在masters文件中添加namenode的机器名
  node1
  6、slaves
  在slaves文件中添加datanode的机器名
  node2
  node3
  六:启动
  切换到bin目录下
  执行命令:hadoop namenode -format
  启动:./start-all.sh
  查看进程:jps
  登录到web控制页面:
  ip:50030和50070端口


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628891-1-1.html 上篇帖子: Hadoop运维记录系列(十二) 下篇帖子: Hadoop+集算器共同实现去IOE
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表