设为首页 收藏本站
查看: 1066|回复: 0

[经验分享] (转)HBase入门笔记-- 完全分布模式Hadoop集群安装配置

[复制链接]

尚未签到

发表于 2016-12-12 08:29:29 | 显示全部楼层 |阅读模式
  Hadoop的部署环境是经过虚拟化之后的四台主机,OS是Ubuntu Server10.04。(XenServer5.6兼容的OS并不包括Ubuntu,将Ubuntu转成PV也是一个折腾的过程,另文介绍)。Hadoop的版本号依旧是:0.20.2.安装Java环境如上一讲所示。
  主机名及其IP地址对应如下:
  Slave&TaskTracker:dm1,IP:192.168.0.17;(datanode)
  Slave&TaskTracker:dm2,IP:192.168.0.18;(datanode)
  Slave&TaskTracker:dm3,IP:192.168.0.9;(datanode)
  Master&JobTracker:dm4,IP:192.168.0.10;(namenode)
  Master是Hadoop集群的管理节点,重要的配置工作都在它上面,至于它的功能和作用请参考HadoopAPI

  具体配置步骤如下:
  

.修改各个节点(dm1-dm4)的HostName,命令如下:

Vi /etc/hostname


  如下图所示例:
DSC0000.png

  

.在host中添加机器的hostname和IP,用以通讯。Master需要知道所有的slave的信息。对应的slave只需要知道Master和自身的信息即可。
  命令如下:

vi /etc/hosts


  Master(dm4)的hosts配置应该如下图所示:
DSC0001.png

  其它的slave(dm3……)的hosts配置应该如下图所示:
DSC0002.png

  

.Hadoop核心代码需要配置conf文件夹里面的core-site.xml,hdfs-site.xml,mapread-site.xml,mapred-site.xml,hadoop-env.sh这几个文件。具体各个配置的含义请参考Hadoop帮助文档

  1.首先编辑各个机器节点(包括master和slave)的core-site.xml文件,命令如下:(Hadoop 文件夹放在home下)

vi /home/hadoop/conf/core-site.xml


  core-site.xml文件配置,应如下面代码所示:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://dm4:9000</value>
</property>
</configuration>

  2.其次编辑各个机器节点(包括master和slave)的hdfs-site.xml,命令如下:

vi /home/hadoop/conf/hdfs-site.xml


  hdfs-site.xml文件配置,应如下面代码所示:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/NameData</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>


  3.再次,编辑各个机器节点(包括master和slave)mapred-site.xml文件,
命令如下:

vi /home/hadoop/conf/mapred-site.xml

  mapred-site.xml
文件配置,应如下面代码所示:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.0.10:9001</value>
</property>
</configuration>


  4.最后,编辑各个机器节点(包括master和slave) hadoop-env.sh文件,命令如下:

vi  /home/hadoop/conf/hadoop-env.sh

  向该文件加入几行代码,如下所示:

export HADOOP_HOME=/home/hadoop
export   HADOOP_CONF_DIR=$HADOOP_HOME/conf
export PATH=$PATH:$HADOOP_HOME/bin


  

.配置集群的主从关系。在所有机器节点上,Hadoop的conf文件夹中,都有slaves和masters两个文件。往masters中添加Master(dm4)的IP地址或者hostname。往slaves文件中添加Slave(dm1-dm3)的IP或hostname。所有节点都需要修改。
  Masters如下图所示:
DSC0003.png

  slaves如下图所示:
DSC0004.png

  行文至此,Hadoop

整体安装和配置
已经完成。Hadoop集群的启动从Master(Namenode)机器开始,它和slave(DataNode)之间通讯使用ssh,我们接下来需要设置ssh无密码公钥认证登入。
  

.SSH非对称密钥的原理请参见此文
和彼文
。首先要在
所有节点


生成密钥对,具体实现步骤如下:

      1.
所有节点


生成RSA密钥对,命令如下:


ssh-keygen -t rsa


  出现如下图所示:
DSC0005.png

  直接回车,密钥对存放为/root/.ssh/id_rsa。在该文的演示中生成/root/viki.pub然后会要求你输入密码,选择空
DSC0006.png

  最后生成如下图:
DSC0007.png

  2.将Master(Namenode)

生成的公钥viki.pub的内容复制到本机的 /root/.ssh/ 的authorized_keys 文件 里。命令如下:

cp viki.pub authorized_keys

  然后,将authorized_keys 文件复制到各个slave(DataNode)

机器的

 /root/.ssh/ 文件夹,命令如下:

scp  /root/.ssh/authorized_keys dm3:/root/.ssh/


  最后,在所有机器

执行用户权限命令chmod,命令如下:

chmod 644 authorized_keys


  经过以上步骤,ssh配置也已完成。通过以下命令验证:

ssh dm3
exit
ssh dm2
exit
ssh dm1
exit


  第一次连接需要密码,输入yes和机器密码就可以。以后即不用再输入。
  

.启动并验证Hadoop集群,如同上讲所述。输入:http://192.168.0.10:50030/jobtracker.jsp

  在下所搭建的Hadoop集群截图:
DSC0008.png

  七.参考文献 
  1.Hadoop
快速入门 
http://hadoop.apache.org/common/docs/r0.18.2/cn/quickstart.html

  2.通用线程
: OpenSSH
密钥管理

 

  http://www.ibm.com/developerworks/cn/linux/security/openssh/part1/index.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312957-1-1.html 上篇帖子: hadoop之在集群上跑Pig脚本语言 下篇帖子: [综合]Apache Hadoop 2.2.0文件系统shell(二)[翻译]
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表