设为首页 收藏本站
查看: 643|回复: 0

[经验分享] 【hadoop学习】在Mac OS上配置hadoop伪分布式环境【下】

[复制链接]

尚未签到

发表于 2016-5-17 08:10:36 | 显示全部楼层 |阅读模式
  2. 配置mac os 自身环境
  这个主要是配置ssh环境。先在terminal里面输入
  

  ssh localhost

  
  会有错误提示信息,表示当前用户没有权限。这个多半是系统为安全考虑,默认设置的。更改设置如下:进入system preference --> sharing --> 勾选remote login,并设置allow access for all users。再次输入“ssh localhost",再输入密码并确认之后,可以看到ssh成功。
  不过这里面还有一个麻烦,就是每次都会要求输入用户密码。《hadoop实战》提供了一种免登陆的方法。首先,输入
  

  ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

  
  ssh-keygen表示生成秘钥;-t表示秘钥类型;-P用于提供密语;-f指定生成的秘钥文件。这个命令在”~/.ssh/“文件夹下创建两个文件id_dsa和id_dsa.pub,是ssh的一对儿私钥和公钥。接下来,将公钥追加到授权的key中去,输入:

  

  cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

  
  ssh免登陆设置完成。
  

  3. 安装并运行hadoop
  首先下载hadoop,链接是http://apache.etoak.com/hadoop/common/,里面由hadoop的各个版本。看到书上用的是0.20.2版本,我也就下这个了。文件不大,135M左右。接下来,到 hadoop-0.20.2/conf 文件夹下,要配置的几个文件都在这里。
  第一个是
hadoop-env.sh脚本文件,设置如下环境变量:

  

  

export JAVA_HOME=/System/Library/Java/JavaVirtualMachines/1.6.0.jdk/Contents/Home
export HADOOP_INSTALL=/Volumes/Data/Works/Hadoop/hadoop-0.20.2/  
export PATH=$PATH:$HADOOP_INSTALL/bin
  
  从名字都能判断各个环境变量的含义。需要说明的是,第一个路径,实际上是从”/System/Library/Frameworks/JavaVM.framework/Versions/1.6.0/Home“来的,只不过中间有些软连接,最后的实际目录如上面所示。
  接下来是
core-site.xml文件,配置hdfs的地址和端口号,如下:


  


<?xml version="1.0"?>  
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
<!-- Put site-specific property overrides in this file. -->  
<configuration>  
<property>  
<name>fs.default.name</name>  
<value>hdfs://localhost:9000</value>  
</property>  
</configuration>
  
默认是没有中间<property>区域的,需要自己加上。

  
然后是
mapred-site.xml文件,设置map-reduce中jobtracker的地址和端口号,如下:


  


<?xml version="1.0"?>  
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
<!-- Put site-specific property overrides in this file. -->  
<configuration>  
<property>  
<name>mapred.job.tracker</name>  
<value>localhost:9001</value>  
</property>  
</configuration>  
  最后是
hdfs-site.xml文件,设置hdfs的默认备份方式。默认值是3,在伪分布式系统中,需要修改为1,如下:


  


<?xml version="1.0"?>  
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
<!-- Put site-specific property overrides in this file. -->  
<configuration>  
<property>  
<name>dfs.replication</name>  
<value>1</value>  
</property>  
</configuration>
  
设置总算是完成了,接下来,格式化namenode。啊,namenode是啥?问度娘吧。在terminal里输入如下命令:


  
bin/Hadoop NameNode -format


  我曾担心把我的整个Data盘都给废掉,后来看看,不是的。不知道这个namenode在mac系统中的哪个目录下。
  接下来,启动hadoop,输入命令:
  

  bin/start-all.sh

  
  如果一切正常的话,会在http://localhost:50030和http://localhost:50070分别看到map-reduce和hdfs的相关信息。总之,走到这一步,我看到信息了,虽然没太看懂吧,但证明hadoop在我的mac上运行起来了。
  

  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-217931-1-1.html 上篇帖子: Mac OS X: 系统部署后程序安装的用户提示 下篇帖子: mac使用笔记
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表