设为首页 收藏本站
查看: 2011|回复: 0

[经验分享] Windows下Hadoop的环境安装

[复制链接]

尚未签到

发表于 2015-7-11 09:45:28 | 显示全部楼层 |阅读模式
  1.下载并安装Cygwin,记得cygwin安装中要把SSH选择上,因为后面Hadoop会用到,不详述cygwin的安装过程.我是安装在D:\cygwin下
  2.配置系统环境变量
DSC0000.jpg
  在windows命令行中输入unix命令,可以执行则说明cygwin和环境变量配置成功.
DSC0001.jpg
  3.打开D:\cygwin\Cygwin.bat,配置ssh,执行命令ssh-host-config
DSC0002.jpg
  因为我已经配置过,并用ssh服务已经启动,所以报错了,你们在配置的时候一路YES即可,有兴趣的也可以看一下英文说明,都配置了哪些东东.
  当看到"HAVE FUN"则表明配置成功.
  这时候会在你的系统上增加一个SSH服务,启动之
DSC0003.jpg
  4.配置生成RSA密钥对,使SSH可以无密码登陆,以方便后面Hadoop的启动
  在cygwin的控制台中输入ssh localhost,这时候输入密码(当前windows登陆用户密码)按理说应该可以登进去.在此我纠结了很久,明明密码是对的,却怎么也登不了.这时要创建用户组与密码.
  在cygwin的控制台中输入如下命令:
  mkpasswd –cl > /etc/passwd
  mkgroup --local > /etc/group
  OK,现在可以生成RSA密钥对实现密码登陆了
  cygwin的控制台中
    1)输入"ssh-keygen"全部直接回车
    2)"cd ~/.ssh"
     DSC0004.jpg
  此时应该有以上两个文件,id_rsa.pub即是公钥
  3)"cp id_rsa.pub authorized_keys" authorized_keys是SSH登陆时候自动去取的公钥文件,当与id_rsa匹配时就可以无密码登陆.
  4)"ssh localhost"已经不用密码了
DSC0005.jpg
  -----------------------------------------------到此cygwin及SSH配置完成---割一下-----------------------------------------
  5.解压hadoop-1.0.3.tar.gz到D:\hadoop\run,目录可以自己安排
  以下要修改若干配置,兄弟们淡定
  1)D:\hadoop\run\conf\hadoop-env.sh文件中配置 "export JAVA_HOME=D:/bea/jdk160_05" JDK为自己机器上JDK地址,记得要把这句话前面的"#"去掉
  2)将D:\hadoop\run\src\core\core-defult.xml复制为D:\hadoop\run\conf\core-site.xml并替换原来文件
  
  fs.default.name
  hdfs://LEXNHDH3NS5AMUS:8888
  The name of the default file system.  A URI whose
  scheme and authority determine the FileSystem implementation.  The
  uri's scheme determines the config property (fs.SCHEME.impl) naming
  the FileSystem implementation class.  The uri's authority is used to
  determine the host, port, etc. for a filesystem.

  修改红色部分,格式为hdfs://机器名:端口.此为HDFS的端口,可自行配置,但不要和已有端口冲突
  3)将D:\hadoop\run\src\hdfs-defult.xml复制为D:\hadoop\run\conf\hdfs-site.xml并替换原来文件,无修改
  4)将D:\hadoop\run\src\mapred-defult.xml复制为D:\hadoop\run\conf\mapred-site.xml并替换原来文件
  
  mapred.job.tracker
  localhost:9999
  The host and port that the MapReduce job tracker runs
  at.  If "local", then jobs are run in-process as a single map
  and reduce task.
  

  修改红色部分,可自行配置,但不要和已有端口冲突
  6.Cygwin下进入hadoop的bin目录,执行./hadoop namenode -format 初始化HDFS
  start-all.sh启动hadoop
  stop-all.sh关闭hadoop
  7.执行jps及./hadoop fs -ls /
   DSC0006.jpg
  成功则说明hadoop启动成功
  ------------------------------------------hadoop配置完成-------------------继续割------------------------
  8.现在开始将myeclipse与hadoop结合起来,以方便以后的开发调试
  我用的myeclipse版本为6.6,记得myeclipse要运行在jre1.6环境下,不然hadoop插件会报错.
  如果你的myeclipse不是在1.6下运行,则将1.6的JRE复制并替换D:\Program Files\MyEclipse 6.6\jre即可
  9.我使用的hadoop是1.0.3,所以我用的插件是hadoop-eclipse-plugin-1.0.3.jar.
  检查hadoop-eclipse-plugin-1.0.3.jar的lib中是否有如图的jar包,如果没有则到D:\hadoop\run\lib下将相应的jar包复制过来
   DSC0007.jpg
  
  并且修改MANIFEST.MF文件,Bundle-ClassPath:下增加相应的jar包,例如:
  Bundle-ClassPath: classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-httpclient-3.0.1.jar,lib/jackson-core-asl-1.8.8.jar,lib/jackson-mapper-asl-1.8.8.jar,lib/commons-configuration-1.6.jar,lib/commons-lang-2.4.jar
  检查无误后将此jar包复制到D:\Program Files\MyEclipse 6.6\eclipse\plugins下,重启myeclipse
  10.进入首选项配置hadoop安装目录
DSC0008.jpg
  进入window中打开Perspective并打开Map/Reduce
DSC0009.jpg
  新增hadoop location
  配置如图
  
DSC00010.jpg
  此时可以访问HDFS则说明配置成功
DSC00011.jpg
  --------------------------------------------over------------------------------------------------------------

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85415-1-1.html 上篇帖子: 王家林亲授的上海7月6-7日云计算分布式大数据Hadoop深入浅出案例驱动实战报名信息 下篇帖子: hadoop之MapReduce WordCount分析
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表