设为首页 收藏本站
查看: 964|回复: 0

[经验分享] Hadoop-hdfs安装与配置

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2017-12-16 20:26:00 | 显示全部楼层 |阅读模式
一、安装要求
    安装JDK
      yum -y install jdk(或手动安装)
    设置namenode节点到datanode节点的免密码登陆
      a. 本地免密码登录
        # ssh localhost       #检测能否在本机上实现免密码登陆
        # ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa   #创建登陆的公钥和私钥,公钥放在id_dsa.pub中,私钥放在id_dsa中
        # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将公钥追加到已认证信息中
        # ssh localhost      #实现免密码登陆
      b. 跨主机免密码登陆
        # scp ~/.ssh/id_dsa.pub  root@node2:~/.ssh/          #在namenode上执行
        # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将公钥追加到已认证信息中,在datanode上执行该操作
      c. 对所有的datanode执行上述操作
    设置域名解析(在所有的节点增加)
      # vi /etc/hosts  # 增加节点对应节点,如果不加入节点则在配置文件中需要直接写节点的IP
        192.168.150.128  node1
        192.168.150.129  node2
        192.168.150.130  node3
        192.168.150.131  node4
      
二、安装
    由于hadoop有bin包,所以hadoop下载后只需要解压即可使用。
    版本hadoop-1.2.1
    namenode和datanode上软件包的放置位置要完全相同,否则在集群启动服务的时候会出现找不到文件的情况。
    在软件解压到/root/hadoop-1.2.1文件夹
三、配置  
  核心模块的配置
    #vi  /root/hadoop-1.2.1/conf/core-site.xml
      <configuration>
       <property>
         <name>fs.default.name</name>     # namenode节点名
        <value>hdfs://node1:9000</value>  #namenode域名(或IP)和端口
       </property>
       <property>
        <name>hadoop.tmp.dir</name> #文件储存目录
         <value>/opt/hadoop-1.2</value>  #fs的放置位置
       </property>
      </configuration>
      其它具体配置可以查看./hadoop-1.2.1/docs的文档。
    #vi  /root/hadoop-1.2.1/conf/hdfs-site.xml
      <configuration>
       <name>dfs.replication</name>  #block的副本数,不能超过datanode的数目
      <value>2</value>
      </configuration>
    #vi  /root/hadoop-1.2.1/conf/slaves #该文件设置datanode节点的域名(IP)
      node2
      node3
    #vi  /root/hadoop-1.2.1/conf/masters  #该文件设置secondarynamenode节点的域名(IP)
      node2   # 只要跟namenode不在同一台机器上即可
    
    #vi  /root/hadoop-1.2.1/conf/hadoop-env.sh  #设置运行环境
      export JAVA_HOME=/usr/java/jdk1.7.0_79  # 只要设置jdk的目录即可
    在所有的节点上进行上述的相同配置。
四、测试
    # /root/hadoop-1.2.1/bin/hadoop namenode -format    #进行格式化,创建dfs
    # /root/hadoop-1.2.1/bin/start-dfs.sh   #启动dfs服务
    # jps  #查看启动的java进程(namenode上)
     
    # jps  #查看启动的java进程(datanode上)
     
    在浏览器上输入namenode的IP和端口,即可进入文件系统
     http://192.168.150.128:50070
     注意:如果要进入子目录,那么要在windows上hosts文件也设置同样的域名解析,否则浏览器会提示错误,因为没有对应的ip时浏览器会访问外网。
    文件传输和执行java程序
      # /root/hadoop-1.2.1/bin/hadoop -fs -put   file   input  #将file文件传输到文件系统的root用户下的input目录
      # /root/hadoop-1.2.1/bin/hadoop jar hadoop-examples-*.jar grep input output 'dfs[a-z.]+'  # 执行jar程序
      
      # /root/hadoop-1.2.1/bin/hadoop fs -get output output   获取并在本地文件系统中显示数据
      # cat output/*
      或 #/root/hadoop-1.2.1/bin/hadoop fs -cat output/*
    关闭进程
      # /root/hadoop-1.2.1/bin/stop-dfs.sh
五、总结  
  虽然说hdfs是文件系统,但本质上并没有格式化本机上的硬盘,所以其实只是硬盘上的一种特殊的文件储存格式,并且必须通过IP:PORT进行访问。实质上在配置并启动了集群之后,集群之间便会进行网络通信,并通过namenode的IP和指定端口(50070)对外提供访问。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-424821-1-1.html 上篇帖子: hadoop实例 下篇帖子: Hadoop学习笔记(3) Hadoop文件系统一
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表