设为首页 收藏本站
查看: 1117|回复: 0

[经验分享] hadoop安装-redhat

[复制链接]

尚未签到

发表于 2018-10-31 08:08:03 | 显示全部楼层 |阅读模式
  1.基本准备
  操作系统:redhat 5.2
  jdk: jdk-6u21-linux-i586-rpm.bin(安装1.6或以上版本,安装步骤请参考其他文)
  hadoop:hadoop-0.21.0.tar.gz
  硬件:三台机器,IP配置如下:
  node1:192.168.14.77
  node2:192.168.14.155
  node3:192.168.14.99
  2.系统配置
  (1)以root身份打开/etc/hosts文件
  192.168.14.77   node1
  192.168.14.155  node2
  192.168.14.99   node3
  注:node2,node3也需要同样设置
  (2)每个节点都有相同的用户,例如:hadoop(账号默认的主目录为:/home/hadoop)
  用有root权限的用户登录系统,执行:
  [root@node1:~]$sudo visudo –f /etc/sudoers
  在打开的文件中加入:
  hadoop ALL=(ALL) ALL
  注:方便hadoop用户访问和修改系统文件与配置
  3.配置ssh(redhat本身默认安装)
  (1)生成密钥:
  [hadoop@node1:~]$ssh-keygen –t dsa
  一路回车,会在/home/hadoop/.ssh文件中添加两个文件(id_dsa和id_dsa.pub)成对出现。
  (2)复制:

  [hadoop@node1 .ssh]$cp>  (3)复制密钥到各节点,并赋权限:
  以hadoop登录到其他DataNode上,并在各DataNode上建立文件.ssh:
  [hadoop@node2:~]$mkdir /home/hadoop/.ssh
  [hadoop@node3:~]$mkdir /home/hadoop/.ssh
  以hadoop登录到NameNode:
  权限配置完全如图。
  把authorized_keys文件拷贝到各NameNode节点上,例如:
  [hadoop@node1.ssh]$
  scp authorized_keys hadoop@192.168.14.155:/home/hadoop/.ssh/
  并在各节点设置权限,例如:
  [hadoop@node2.ssh]$ chmod 644 authorized_keys
  (4)对ssh服务进行配置,去除密码验证,在每个节点上对/etc/ssh/sshd_config文件进行修改,例如:
  [hadoop@node2:~]$sudo vi /etc/ssh/sshd_config
  在文件中进行如下修改:
  去除#
  PasswordAuthentication  no
  AuthorizedKeysFile     .ssh/authorized_keys
  重启sshd服务:
  sudo /etc/init.d/ssh restart
  测试ssh连接:
  [hadoop@node1~]$ssh node2
  4.jdk安装及配置
  安装jdk
  (1)查看本机jdk安装
  $rpm –qa|grep gcj
  本版不足1.6,卸载后重现安装
  (2)卸载jdk
  $rpm –qa|grep gcj
  从下向上卸载:
  [root@localhost ~]# rpm libgcj-4.1.2-42.el5
  [root@localhost ~]# rpm java-1.4.2-gcj-compat-1.4.2.0-40jpp.115
  (3)安装jdk
  $chmod 755 jdk-6u21-linux-i586-rpm.bin
  $./jdk-6u21-linux-i586-rpm.bin
  $rpm –ivh jdk-6u21-linux-i586-rpm.bin
  配置
  (1)在/etc/profile中
  (2)在hadoop-env.sh
  注:具体在hadoop安装及配置中,每个节点的jdk安装路径最好一致。
  5.hadoop安装及配置hadoop身份进行如下操作
  (1)安装:
  mkdir /home/hadoop/hadoopinstall
  cd /home/hadoop/hadoopinstall
  [hadoop@node1 hadoopinstall]$ tar -zvxf hadoop-0.21.0.tar.gz
  (2)配置:
  环境变量:
  /etc/profile文件下配置环境变量:
  JAVA_HOME
  HADOOP_HOME
  CLASSPATH
  PATH
  /home/hadoop/hadoopinstall/hadoop-0.21.0/conf/hadoop-env.sh文件下配置环境变量:
  JAVA_HOME
  HADOOP_HOME
  Hadoop配置文件修改
  需修改/home/hadoop/hadoopinstall/hadoop-0.21.0/conf下的几个文件:
  core-site.xml
  
  
  fs.default.name
  hdfs://192.168.14.77:9000
  
  
  hadoop.tmp.dir
  /home/hadoop/tmp
  
  
  hdfs-site.xml
  
  
  dfs.name.dir
  /home/hadoop/hdfs/name
  true
  
  
  dfs.data.dir
  /home/hadoop/hdfs/data
  true
  
  
  fs.checkpoint.dir
  /home/hadoop/hdfs/namesecondary
  true
  
  
  dfs.replication
  1
  
  
  mapred-site.xml
  
  
  fs.default.name
  hdfs://192.168.14.77:9000
  true
  
  
  dfs.replication
  1
  
  
  mapred.job.tracker
  192.168.14.77:9001
  
  
  mapred.local.dir
  /home/hadoop/mapred/local
  true
  
  
  mapred.system.dir
  /tmp/hadoop/mapred/system
  true
  
  
  mapred.tasktracker.map.tasks.maximum
  2
  true
  
  
  mapred.tasktracker.reduce.tasks.maximum
  2
  true
  
  
  mapred.child.java.opts
  -Xmx400m
  
  
  masters
  192.168.14.77
  slaves
  192.168.14.155
  192.168.14.99
  注:以上为NameNode的配置,有关DateNode把NameNode的hadoopinstall整个文件复制到各节点的/home/hadoop下即可,以hadoop身份
  6.基本操作
  (1)主节点NameNode文件系统格式化为HDFS
  [hadoop@node1 bin]$ cd /home/hadoop/hadoopinstall/hadoop-0.21.0/bin
  [hadoop@node1 bin]$ hadoop namenode –format
  (2)启动
  [hadoop@node1 bin]$ start-all.sh
  (3)停止
  [hadoop@node1 bin]$ stop-all.sh
  (4)创建一个目录
  [hadoop@node1 bin]$ hadoop dfs –mkdir mytest
  (5)查看根目录下有哪些文件和子目录
  [hadoop@node1 bin]$ hadoop dfs -ls


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628685-1-1.html 上篇帖子: Hadoop生态圈 下篇帖子: Hadoop初学指南(1)--Hadoop1伪分布模式的安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表