设为首页 收藏本站
查看: 1153|回复: 0

[经验分享] Hadoop1.0.0学习笔记

[复制链接]

尚未签到

发表于 2018-10-30 11:55:04 | 显示全部楼层 |阅读模式
  一.  安装JDK,配置环境JAVA环境变量
  exportJAVA_HOME=/home/tmp/jdk1.6.0_26
  exportJRE_HOME=/home/tmp/jdk1.6.0_26/jre
  exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
  二.  安装Hadoop-1.0.0

  •   1.     下载hadoop文件,地址为:http://hadoop.apache.org/coases.html,下载完成后解压hadoop-1.0.0.tar.gz
  sudotar xzf hadoop-1.0.0.tar.gz

  •   2.  配置Hadoop环境变量
  exportHADOOP_INSTALL=/home/tmp/hadoop-1.0.0
  exportPATH=$PATH:$HADOOP_INSTALL/bin

  •   3.  查看hadoop版本
  输入 hadoop version命令后输入下图,则安装hadoop成功
DSC0000.jpg


  •   4.  修改配置文件
  •   a)    解压hadoop-1.0.0/hadoop-core-1.0.0.jar
  •   b)    去解压后的hadoop-core-1.0.0文件夹下,复制文件core-default.xml,hdfs-default.xml,mapred-default.xml三个文件到hadoop-1.0.0/conf/下,删除hadoop-1.0.0/conf/文件夹下的core-site.xml,hdfs-site.xml,mapred-site.xml,将复制过来的三个文件的文件名中的default修改为site
  •   c)    在hadoop-1.0.0文件夹同级创建文件夹hadoop,打开core-site.xml文件,修改属性节点下的name节点为hadoop.tmp.dir对应的value节点,修改为/home/${user.name}/hadoop/hadoop-${user.name}这样hadoop生成的文件会放入这个文件夹下.修改name节点为fs.default.name对应的value节点,修改为hdfs://localhost/
  三.  安装ssh

  •   1.  执行命令安装ssh:sudo apt-get install ssh
  •   2.  基于空口令创建一个新SSH密钥,以启用无密码登陆
  •   a)    ssh-keygen-t rsa -P '' -f ~/.ssh/id_rsa
  执行结果:
DSC0001.jpg


  •   b)    cat~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  •   3.  测试
  sshlocalhost
  测试结果:
DSC0002.jpg

  输入yes
DSC0003.jpg

  再次输入ssh localhost:
DSC0004.jpg

  成功之后,就不需要密钥
  四.  格式化HDFS文件系统
  输入指令:
  hadoopnamenode –format
DSC0005.jpg

  五.  启动和终止守护进程
  启动和终止HDFS和MapReduce守护进程,键入如下指令
  启动start-all.sh(start-dfs.sh,start-mapred.sh)
DSC0006.jpg

  出错了,JAVA_HOME is not set
  需要修改文件,打开hadoop-1.0.0/conf/hadoop-env.sh
DSC0007.jpg

  将红线以内部分注释解开,修改为本机JAVA_HOME
  export JAVA_HOME=/home/tmp/jdk1.7
  再次执行启动命令start-all.sh
DSC0008.jpg

  停止stop-all.sh(stop-dfs.sh,stop-mapred.sh)
  到此,hadoop就已经安装完成了
  六.  Hadoop文件系统

  •   1.  查看hadoop所有块文件
  执行命令:
  hadoopfsck / -files –blocks
  执行结果:
DSC0009.jpg

  此结果显示,hadoop文件系统中,还没有文件可以显示

  •   2.  将文件复制到hadoop文件系统中
  •   a)    在hadoop文件系统中创建文件夹,执行命令:
  hadoopfs –mkdir docs

  •   b)    复制本地文件到hadoop文件系统中执行命令:
  hadoopfs -copyFromLocal docs/test.txt \
  hdfs://localhost/user/tmp/docs/test.txt

  •   c)    复制hadoop文件系统中的文件回本地,并检查是否一致
  复制:hadoop fs -copyToLocal docs/test.txt docs/test.txt.bat
  检查:md5 docs/test.txt docs/text.txt.bat
  检查结果若显示两个md5加密值相同,则文件内容相同。

  •   d)    查看HDFS文件列表
  执行命令:
  hadoopfs –ls
  执行结果:
DSC00010.jpg


  •   e)    再次查看文件系统文件块
  执行命令:
  hadoopfsck / -files –blocks
  执行结果如图:
DSC00011.jpg

DSC00012.jpg

  此处为文件备份数量,可以调整,打开hadoop-1.0.0/conf/hdfs-site.xml文件,
DSC00013.jpg

  此处修改文件备份数量


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628460-1-1.html 上篇帖子: 运行Hadoop作业时一处常见错误以及解决方法 下篇帖子: hadoop项目使用
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表