设为首页 收藏本站
查看: 751|回复: 0

[经验分享] 从VMware虚拟机安装到hadoop集群环境配置详细说明

[复制链接]

尚未签到

发表于 2015-10-9 07:24:00 | 显示全部楼层 |阅读模式
虚拟机安装
  我安装的虚拟机版本是VMware Workstation 8.04,自己电脑上安装的有的话直接在虚拟机安装Linux操作系统,没有的话这里有我的一个百度云网盘虚拟机安装共享文件
  http://pan.baidu.com/s/1c0Ie1cG
  虚拟机的具体安装不再详细说明了。  
Linux操作系统安装调试   
安装说明
  本次采用的操作系统的Linux CentOS(Linux的一个版本),Hadoop集群并行计算最少需要三个节点,也就是虚拟机里面的三个操作系统,一个节点做namenode,另外两个节点做datanode(之所以称为“并行”的原因,datanode大于等于2个才能叫“并行”)
版本选择

  • 主、次版本为奇数:发展中版本(development)
    如2.5.xx,这种核心版本主要用在测试与发展新功能,所以通常这种版本仅有核心开发工程师会使用。 如果有新增的核心程序代码,会加到这种版本当中,等到众多工程师测试没问题后,才加入下一版的稳定核心中;
  • 主、次版本为偶数:稳定版本(stable)
    如2.6.xx,等到核心功能发展成熟后会加到这类的版本中,主要用在一般家庭计算机以及企业版本中。 重点在于提供使用者一个相对稳定的Linux作业环境平台。
我目前安装版本是5.10

一个CentOS安装文件的下载地址:http://wiki.centos.org/Download

LinuxCentOS安装
  
  学Linux的应该都知道《鸟哥的Linux私房菜》吧,很经典,操作指导很详细,我安装的Linux CentOS就是参考这个来的,网上有电子书下载,随便搜一下就能找到,网页版的也有,具体安装参考地址http://vbird.dic.ksu.edu.tw/linux_basic/0157installcentos5.php
  说明:这个不是虚拟机下的安装说明,网上也有虚拟机下的安装教程,大同小异,下载完安装镜像文件之后就是选择这个就像文件的事儿了。
VMwareTools安装
  安装说明:
  在虚拟机中安装操作系统和安装完之后在虚拟机的操作系统的操作时会发现,鼠标在虚拟机中的操作系统和电脑中的实际Windows操作系统之间来回移动切换的时候必须按ctrl+alt和ctrl+G,VMware Tools的安装可能使鼠标在二者之间的来回移动切换随意自如。
  具体安装流程如下:
1.        点击VMware最上面的“虚拟机”菜单选项,并选择下拉菜单中的“安装 VMware Tools”,这时VMware Tools镜像会自动加载

2.        复制VMwareTools-8.8.4-743747.tar.gz到桌面

3.        打开终端并输入命令cd Desktop转到桌面

4.        解压:tar xzvf VMwareTools-8.8.4-743747.tar.gz

5.        转到解压出来的目录:cd vmware-tools-distrib/

6.        执行安装命令:./vmware-install.pl

7.        接下来不断的按Enter,遇到选择“yes”或者“no”的一律输入“yes”

安装完成之后重新注销在登录即可看到效果

  也可参考我的一篇CSDN博客:
  http://blog.iyunv.com/whaoxysh/article/details/17559529
网络配置
  虚拟机中安装完Linux CentOS之后应该是不能联网的,此时要进行网络参数的设置。
  下图为虚拟机设置截图
DSC0000.jpg

  
  l  VMware提供了两个虚拟的网络连接,VMnet1VMnet8,安装VMware后,系统中会出现这两个网络连接。如果没有这两个网络连接,说明VMware安装不正确。
  l  CentOS通过VMnet1VMnet8进行网络通信。在CentOS中,“VirtualMachine Settings”--"Network Adapter"项目下,如果选择“Host-only:A private network shared with the host”,则通过VMnet1虚拟连接进行网络通信;如果选择“NAT:Usedto share the host's IP address”,则通过VMnet8虚拟连接进行网络通信。

  
  我的电脑是连接的无线,网络适配器截图如下
DSC0001.jpg
  

  
  在无线网络连接处右键选择“属性”,由于我选择的是“NAT虚拟连接”,所以选择VMnet8,设置如图中所示
DSC0002.jpg
  

  
  首次设置点击“确定”时,会有一个弹出窗口,此时要注意看,它会给本地虚拟机中的操作系统分配一个局域网IP地址段,相当于在自己电脑中的虚拟机中建立的一个“虚拟局域网”,弹出窗口中我被分配的网络的是192.168.0.1,可使用的网段应该是192.168.0.2—192.168.2.254,其中192.168.0.1为网关,192.168.0.255为广播地址,这两个不能用,由于我在虚拟机中安装了3个操作系统,所以就分配分配了192.168.0.2,192.168.0.3,192.168.0.4这三个IP,这些分配的IP可以在192.168.0.2—192.168.2.254这253个IP中任意选择。
  不知道看明白没?给你例子,假如在点击“确定”时看到分配的网络不是192.168.0.1,而是192.168.137.1,那么可以分配给虚拟机的IP为192.168.137.2—192.168.137.254这253个。
  
  这些知道之后,还要确保本地Windows操作系统中的虚拟机相关服务是开启的,如图,
  没有开启的话,鼠标放在相应的服务上右键选择“开启”
DSC0003.jpg
  
  l  之后就可以进入虚拟机中进行设置了,如图,打开“网络”
DSC0004.jpg
  

  
  l  之后显示如下图:
DSC0005.jpg
  

  
  l  双击“红下划线部分”,出现下图,由于上面提到我给三个虚拟机分配的IP地址依次为192.168.0.2,192.168.0.3,192.168.0.4,这是第一个虚拟机,分配的地址是192.168.0.2,子网掩码一律填写255.255.255.0,默认网关就是上面提到的“虚拟局域网”的网关192.168.0.1
DSC0006.jpg

  

  
  l  进行网络设置的“DNS”设置项,如图,其中主机名自己随意定,但要记得,后边会用到,主DNS(P)填写网关192.168.0.1即可
DSC0007.jpg
  

  这些设置完之后选择网络设置的“设备”设置项,如下图,点击“激活”

  

DSC0008.jpg

  

  
  l  配置完之后应该就在自己的电脑上的虚拟机中建立了一个由三个虚拟机组成的“虚拟局域网”了。

虚拟机中的JDK安装
  说明
  l  三个虚拟机中都要安装JDK,Hadoop只需在第一个虚拟机(这个虚拟机为NameNode,即名称节点)上安装,安装完并配置之后在Shell终端用命令直接拷贝到另外两个虚拟机上即可。
  l  JDK和Hadoop安装包我都存放在了虚拟机操作系统中的/usr/java目录中,安装是在Shell终端输入命令进入此目录,并输入安装命令,安装之后的会在此目录生成一个安装之后的文件。
安装步骤
  l  把安装文件拷贝到用户目录      例如:/usr/java目录下
  l  解压文件 : tar  -xzvf  jdk-7u10-linux-i586.tar.gz   , 解压后,在/usr/java目录下就会生成一个新的目录jdk1.7.0_10,该目录下存放的是解压后的文件。       至此,安装工作基本完成。
  注意:如果下载的文件是rpm 格式的话,可以通过下面的命令来安装: rpm  -ivh  jdk-7u10-linux-i586.rpm
环境变量的设置
  配置环境变量有以下2种方式
  1.        修改.bashrc文件或者.bash_profile文件,在文件中加入以下语句:
  export  JAVA_HOME=/usr/java/jdk                                                                     
  export  PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin                                             
  export  CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib                                                   
  2.        修改.profile文件 (推荐此种方式,这样其他程序也可以友好的使用JDK
  文件位置:/etc/profile                                                                                          
  打开profile,在文件中找到export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE INPUTRC,并改为下面形式:
  export  JAVA_HOME=/usr/java/jdk                                                                     
  export  PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin                                                
  export  CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib                                                
  让环境变量生效
  1)        执行配置文件令其立刻生效
  source  /etc/profile                                                                                 
  2)        之后执行以下命令验证是否安装成功
  java  -version                                                                                       
  如果出现下面的信息,则表示安装成功
DSC0009.jpg
  

  
Hadoop的安装配置
  
  说明
  1.        本次安装配置全都在Linux CentOS的root权限下进行操作,没有在虚拟机中新建专门账户。
  2.        这里的文件配置会用到Linux中的Vi编辑器,最好先熟悉一下编辑器的操作。
  操作可参考《鸟哥的Linux私房菜》:http://vbird.dic.ksu.edu.tw/linux_basic/0310vi_2.php
  Hadoop的安装配置我主要也是参考dataguru的视频来的,hadoop的安装版本和视频保持一致,版本为hadoop0.20.2,下载地址:
  http://archive.apache.org/dist/hadoop/common/hadoop-0.20.2/
  1.        hadoop0.20.2的解压安装。在Shell终端中输入命令进入hadoop0.20.2压缩包所在目录,之后输入安装命令 :tar xzvf hadoop-0.20.2.tar.gz
  2.        配置hosts文件。配置目录/etc之下名称为hosts的文件,如图所示,加入红线标注的两行,具体就是把另外两个充当dataNode的虚拟机节点的IP地址和主机名称加入进来,其功能类似于DNS服务器的地址解析功能。
DSC00010.jpg
  

  
  3.        配置ssh免密码连接。三台虚拟机都要进行此操作)进入Shell终端输入命令ssh-keygen –t rsa在各个虚拟机节点中生成ssh密钥对,目的是使得各个节点免密码进行彼此ssh连接,具体如图,初次操作时仅生成id_rsa和id_rsa.pub两个文件,输入命令cp id_rsa.pub authorize_keys进行拷贝,由于我的电脑上之前进行过这些操作,所以红线标注部分和初次操作不一样。之后,打开生成文件存放的目录,并用文本编辑器打开authorized——keys文件,将三台虚拟机中的这个文件拷贝到同一个文件里,之后将包含这三个虚拟机密钥对信息的authorized——keys文件分别拷贝到本目录下,并覆盖原有的authorized——keys,这样,每台虚拟机就拥有者三个虚拟机的ssh密钥对信息了。
DSC00011.jpg

  
  4.        在NameNode名称节点上修改配置文件。Shell终端中输入命令进入hadoop文件安装目录,修改conf目录下的hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、masters、slaves这六个文件,其中masters、slaves的配置为masters中写入作为NameNode的虚拟机名称,slaves写入作为dataNode的另外两个虚拟机的名称,另外四个文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml的具体操作为:Shell终端输入命令进入相应的conf目录,用命令vi+文件名打开相应的文件进行修改,配置分别截图如下(图中相应的具体含义不做具体说明了,三言两语估计也说不清,可以自己在网上查)
  修改hadoop-env.sh配置文件
DSC00012.jpg
  

  修改core-site.xml配置文件
  <?xml version=&quot;1.0&quot;?>
<?xml-stylesheet type=&quot;text/xsl&quot; href=&quot;configuration.xsl&quot;?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.2.100:9000</value> --注意完全分布模式此地一定要用IP,下同
</property>
</configuration>
注:fs.default.name NameNode的IP地址和端口
DSC00013.jpg
  

  修改hdfs-site.xml配置文件
  

DSC00014.jpg
  

  修改mapred-site.xml配置文件
  <?xml version=&quot;1.0&quot;?>
<?xml-stylesheet type=&quot;text/xsl&quot; href=&quot;configuration.xsl&quot;?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.2.100:9001</value> 注意完全分布模式此地一定要用IP,下同
</property>
</configuration>

DSC00015.jpg
  

  
  5.        复制NameNode节点的hadoop-0.20.2配置。向另外两个dataNode节点复制NameNode节点的hadoop-0.20.2配置,例如从我的主机名为localhost1.localdomain的主机复制hadoop-0.20.2到主机名为localhost2.localdomain的主机的/usr/java目录下的命令是:
  scp –r hadoop-0.20.2 localhost2.localdomain:/usr/java
  6.        &#26684;式化文件。Shell终端输入命令进入hadoop的解压目录中的bin文件夹,输入命令:hadoop namenode –format,之后仔细观察是否有successfullyformatted,有就出现说明&#26684;式化成功。&#26684;式化信息版本存储在hadoop的解压目录中的/tmp/hadoop-root/dfs/name/current/VERSION

  7.         启动hadoop。这些配置完之后应该可以在Shell终端中进入hadoop安装目录下的bin文件夹,并通过start-all.sh和stop-all.sh启动和停止hadoop了。
  8.         查看运行状态。启动之后,在Shell终端中进入不同节点的jdk安装目录中的bin文件夹,输入指令jps就可以查看守护进程的运行状态。
  

  步骤7、8执行之后的效果如下图
DSC00016.jpg
  

  另外提供两个详细介绍配置的英文网址
  单点伪分布配置:http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/

  完全分布配置:http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/
  

hadoop基于Web的集群监控界面

监控集群健康状态的用户界面
http://localhost:50070/dfshealth.jsp

DSC00017.jpg

通过这个界面,可以通览文件系统,检查集群每个DataNode状态,掌握每个独立节点上可获得的存储资源,并详细查看Hadoop守护进程的日志来判断集群当前运行是否正确,监控集群的整体健康状态。


MapReduce作业运行状态监控界面
http://localhost:50030/jobtracker.jsp
DSC00018.jpg

通过这个界面,可以监控活跃的MapReduce作业,并访问每个map和reduce任务的日志。还可以获得以前提交作业(已完成的作业,失败的作业,重试的作业)的日志,以辅助程序的调试。
         版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-124420-1-1.html 上篇帖子: VMWare组网攻略 下篇帖子: VMware Workstation unrecoverable error:(vmui)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表