设为首页 收藏本站
查看: 1524|回复: 0

[经验分享] windows和cygwin下hadoop安装配置

[复制链接]

尚未签到

发表于 2018-11-1 09:17:25 | 显示全部楼层 |阅读模式
    Hadoop很火啊,先装了个试试:
DSC0000.png

  转载自子猴博客
  本文链接地址: http://www.zihou.me/html/2010/02/19/1525.html



  在Windows下利用cygwin仿unix环境安装配置Hadoop。  子猴也是刚接触到hadoop,对其的配置第一次按照网上的一些说明配置成功了,但有些东西感到不是很清晰,所以又重新把整个过程跑了一遍并记录下来,也是想对整个过程有个清晰的脉络,不正确之处请指教。
  1、  所需软件
  1.1、Cygwin(截至到目前最新版本是2.685)
  下载地址:http://www.cygwin.com/setup.exe
  1.2、JDK 1.6.x
  1.3、hadoop-0.20.1
  下载地址:http://apache.freelamp.com/hadoop/core/hadoop-0.20.1/hadoop-0.20.1.tar.gz
  2、  安装
  2.1、Cygwin安装说明见文章:http://www.zihou.me/2010/02/19/1506/
  补充:cygwin的bash是无法复制粘贴的,很不方便,所以可采用putty,下载地址是:
  http://www.linuxboy.net/linux/rc/puttycyg.zip ,将puttycyg.zip解压后的三个exe文件放到Cygwin安装目录HOME_PATH下bin目录下,然后修改HOME_PATH下的Cygwin.bat文件,建议用记事本打开,然后将bash –login –i注释掉,在前面加rem,也就是rem bash –login –i,或者:: bash –login –i,加入 start putty -cygterm – 即可。
  这样一来就可以复制粘贴了,但注意的是默认的根目录是Cygwin的HOME_PATH,如果要切换到其他主目录,但如果你想要进入到其他根目录,但如果你想要进入到其他根目录,需要通过系统根目录,子猴这里的是/cygdrive,比如要进入到e盘,则为/cygdrive/e。
  2.2、JDK的安装省略了
  2.3、hadoop-0.20.1安装
  将hadoop-0.20.1.tar.gz解压,解压后的目录如hadoop-0.20.1,假设是放在E盘:
  E:\hadoop-0.20.1,修改conf/hadoop-env.sh文件,将export JAVA_HOME的值修改为你机上的jdk安装目录,比如/cygdrive/d/tools/jdk1.6.0_03,/cygdrive是Cygwin安装成功后系统的根目录
  3、  安装和配置ssh
  3.1、安装
  在Cygwin的根目录下分别运行:
  

  
$ chmod +r /etc/group
  

  
$ chmod +r /etc/passwd
  

  
$ chmod +rwx /var
  

  
$ ssh-host-config
  

  
*** Info: Generating /etc/ssh_host_key
  

  
*** Info: Generating /etc/ssh_host_rsa_key
  

  
*** Info: Generating /etc/ssh_host_dsa_key
  

  
*** Info: Creating default /etc/ssh_config file
  

  
*** Info: Creating default /etc/sshd_config file
  

  
*** Info: Privilege separation is set to yes by default since OpenSSH 3.3.
  

  
*** Info: However, this requires a non-privileged account called 'sshd'.
  

  
*** Info: For more info on privilege separation read /usr/share/doc/openssh/README.privsep.
  

  
*** Query: Should privilege separation be used? (yes/no) yes
  

  
*** Info: Note that creating a new user requires that the current account have
  

  
*** Info: Administrator privileges.  Should this script attempt to create a
  

  
*** Query: new local account 'sshd'? (yes/no) yes
  

  
*** Info: Updating /etc/sshd_config file
  

  
*** Info: Added ssh to C:\WINDOWS\system32\driversc\services
  

  
*** Info: Creating default /etc/inetd.d/sshd-inetd file
  

  
*** Info: Updated /etc/inetd.d/sshd-inetd
  

  
*** Warning: The following functions require administrator privileges!
  

  
*** Query: Do you want to install sshd as a service?
  

  
*** Query: (Say "no" if it is already installed as a service) (yes/no) yes
  

  
*** Query: Enter the value of CYGWIN for the daemon: [] cygwin
  

  
注:此处输入的cygwin可以是任意的
  

  
*** Info: The sshd service has been installed under the LocalSystem
  

  
*** Info: account (also known as SYSTEM). To start the service now, call
  

  
*** Info: `net start sshd' or `cygrunsrv -S sshd'.  Otherwise, it
  

  
*** Info: will start automatically after the next reboot.
  

  
*** Info: Host configuration finished. Have fun!
  

  在询问yes/no的地方,统一输入yes,sshd就安装好了。
  3.2配置
  3.2.1、启动sshd服务
  net start sshd
  CYGWIN sshd 服务正在启动
  CYGWIN sshd 服务已经启动成功
  3.2.2、$ ssh localhost
  试着连接本机看看,注意,如果在没有启动sshd服务,这个连接肯定是失败的!关于此错误也可参见:
  
http://www.zihou.me/2010/02/19/1521/
  如果没问题,会出现下面一些内容:
  

  
The authenticity of host 'localhost (127.0.0.1)' can't be established.
  

  
RSA key fingerprint is 08:03:20:43:48:39:29:66:6e:c5:61:ba:77:b2:2f:55.
  

  
Are you sure you want to continue connecting (yes/no)? yes
  
Warning: Permanently added 'localhost' (RSA) to the list of known hosts.
  

  
zihou@localhost's password:
  

  会提示输入你机子的登录密码,输入无误后,会出现文本图形,类似于欢迎的提示:
  The Hippo says: Welcome to
  3.2.3、建立ssh的通道
  

  
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  

  
Generating public/private dsa key pair.
  


  
Your>  

  
Your public key has been saved in /home/zihou/.ssh/id_dsa.pub.
  

  
The key fingerprint is:
  

  
6d:64:8e:a6:38:73:ab:c5:ce:71:cd:df:a1:ca:63:54 zihou@PC-04101515
  

  
The key's randomart image is:
  

  
+--[ DSA 1024]----+
  

  
|                 |
  

  
|                 |
  

  
|          o      |
  

  
|         *  E    |
  

  
|        S +.     |
  

  
|     o o +.      |
  

  
|    + * ..o   .  |
  

  
|     B + .o. o . |
  

  
|    ..+  .ooo .  |
  

  
+-----------------+
  

  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  再执行遍$ ssh localhost看看,如果没有问题,就说明sshd已经配置好了。
  4、  配置hadoop
  编辑conf/hadoop-site.xml
  加入以下内容:
  

  

  

  

  

  
fs.default.name
  

  
localhost:9000
  

  

  

  

  

  
mapred.job.tracker
  

  
localhost:9001
  

  

  

  

  

  
dfs.replication
  

  
1
  

  

  

  

  

  5、  运行hadoop
  进入到E:\hadoop-0.20.1,在cygwin下的操作如:/cygdrive/e/ hadoop-0.20.1,执行:
  bin/hadoop namenode –format格式化一个新的分布式文件系统,提示信息如下:

  
10/02/19 17:32:26 WARN conf.Configuration: DEPRECATED: hadoop-site.xml found in the>  
Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, mapred-site.xml and hdfs-site.xml
  
to override properties of core-default.xml, mapred-default.xml and hdfs-default.xml respectively
  
(这段我还不是很清楚,我用的最新版本)
  10/02/19 17:32:26 INFO namenode.NameNode: STARTUP_MSG:
  /************************************************************
  STARTUP_MSG: Starting NameNode
  STARTUP_MSG:   host = PC-04101515/192.168.0.14
  STARTUP_MSG:   args = [-format]
  STARTUP_MSG:   version = 0.20.1
  STARTUP_MSG:   build =
  http://svn.apache.org/repos/asf/hadoop/common/tags/release-0.20.1-rc1 -r 810220; compiled by ‘oom’ on Tue Sep  1 20:55:56 UTC 2009
  ************************************************************/
  10/02/19 17:32:27 INFO namenode.FSNamesystem:
  fsOwner=zihou,None,root,Administrators,Users
  10/02/19 17:32:27 INFO namenode.FSNamesystem: supergroup=supergroup
  10/02/19 17:32:27 INFO namenode.FSNamesystem: isPermissionEnabled=true

  10/02/19 17:32:28 INFO common.Storage: Image file of>  10/02/19 17:32:28 INFO common.Storage: Storage directory \tmp\hadoop-SYSTEM\dfs\name has been successfully formatted.
  10/02/19 17:32:28 INFO namenode.NameNode: SHUTDOWN_MSG:
  /************************************************************
  SHUTDOWN_MSG: Shutting down NameNode at PC-04101515/192.168.0.14
  ************************************************************/
  
6、  启动hadoop守护进程
  

  
$ bin/start-all.sh
  

  
starting namenode, logging to
  

  
/cygdrive/e/hadoop-0.20.1/bin/../logs/hadoop-zihou-namenode-PC-04101515.out
  

  
localhost: datanode running as process 5200. Stop it first.
  

  
localhost: secondarynamenode running as process 1664. Stop it first.
  

  
starting jobtracker, logging to
  

  
/cygdrive/e/hadoop-0.20.1/bin/../logs/hadoop-zihou-jobtracker-PC-04101515.out
  

  
localhost: starting tasktracker, logging to
  

  
/cygdrive/e/hadoop-0.20.1/bin/../logs/hadoop-zihou-tasktracker-PC-04101515.out
  

  (注:如果你第一次启动,提示信息或许会与上面有所不同,我为了写这篇文章,重新执行了一遍)
  7、  测试
  单机模式的操作方法
  下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。(注:根目录是hadoop的目录)
  $ mkdir input
  $ cp conf/*.xml input
  $ bin/hadoop jar hadoop-*-examples.jar grep input output ‘dfs[a-z.]+’
  $ cat output/*
  通过执行$ bin/hadoop dfs –ls来看是否将*.xml文件拷贝到input中了,执行后结果如下:
  Found 1 items
  drwxr-xr-x   – zihou supergroup          0 2010-02-19 17:44 /user/zihou/input
  表示已经拷贝过去了。
  在伪分布式模式上运行
  bin/hadoop jar hadoop-*-examples.jar grep input output ‘dfs[a-z.]+’
  如果没有错误的话,会给出一堆信息,如:

  
10/02/19 14:56:07 WARN conf.Configuration: DEPRECATED: hadoop-site.xml found in the>  .xml, mapred-site.xml and hdfs-site.xml to override properties of core-default.xml, mapred-default.xml and hdfs-default.xml respectively
  10/02/19 14:56:08 INFO jvm.JvmMetrics: Initializing JVM Metrics with processName=JobTracker, sessionId=
  10/02/19 14:56:09 INFO mapred.FileInputFormat: Total input paths to process : 5
  10/02/19 14:56:10 INFO mapred.JobClient: Running job: job_local_0001
  10/02/19 14:56:10 INFO mapred.FileInputFormat: Total input paths to process : 5
  10/02/19 14:56:10 INFO mapred.MapTask: numReduceTasks: 1
  10/02/19 14:56:10 INFO mapred.MapTask: io.sort.mb = 100
  10/02/19 14:56:10 INFO mapred.MapTask: data buffer = 79691776/99614720
  10/02/19 14:56:10 INFO mapred.MapTask: record buffer = 262144/327680
  。。。。。。。。。。。。。。。
  
这样,hadoop就成功配置了!
  说明
  Hadoop中文文档地址:http://hadoop.apache.org/common/docs/r0.18.2/cn/
  快速安装说明手册:http://hadoop.apache.org/common/docs/r0.18.2/cn/quickstart.html
  Hadoop简介
  Hadoop是一个开放源代码的分布式文件系统,属于Apache中的一个项目,所谓分布式文件系统(Distributed File System),指的是具有执行远程文件存取的能力,并以透明方式对分布在网络上的文件进行管理和存取,客户端访问的时候不需要知道文件真正存放在哪里。 Hadoop最初是包含在Nutch中的,后来,Nutch中实现的NDFS和MapReduce代码剥离出来成立了一个新的开源项目,这就是 Hadoop。



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629201-1-1.html 上篇帖子: hadoop grep问题 下篇帖子: hadoop部署安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表