设为首页 收藏本站
查看: 1081|回复: 0

[经验分享] 学习笔记--hadoop

[复制链接]

尚未签到

发表于 2018-10-29 11:03:44 | 显示全部楼层 |阅读模式
  Hadoop
  hadoop-1.2.1.tar.gz jdk-6u32-linux-x64.bin
  Useradd  -u 900 hadoop
  Mv jdk1.6.0_32  /home/hadoop
  Mv hadoop-1.2.1.tar.gz/home/hadoop
  Chown hadoop.hadoop /home/hadoop -R
  Su -hadoop
  Ln -s jdk1.6.0_32 java
  Tar zxf hadoop-1.2.1.tar.gz hadoop-1.2.1
  Ln -s hadoop-1.2.1 hadoop
  更改环境变量:
DSC0000.png

  Vim /hadoop/conf/hadoop-env.sh
DSC0001.png

  Cd /hadoop
  Mkdir input
  Cp conf/*.xml input
  Bin/hadoop jar hadoop-examples-1.2.1.jar grep input output ‘dfs[a-z.]+’
  设置无密码登陆:
  Ssh-keygen
  Ssh-copy-id 172.25.60.1
  保证 master 到所有的 slave 节点都实现无密码登录
  Cd ~/hadoop/conf
  Vim slaves ---->172.25.60.1
  Vim masters---->172.25.60.1
  Vim core-site.xml  在configuration中间添加以下内容
  
  
  fs.default.name
  hdfs://172.25.60.1:9000
  
  
  Vim hdfs-site.xml 在configuration中间添加以下内容
  
  
  dfs.replication
  1
  
  
  Vim mapred-site.xml 在configuration中间添加以下内容
  
  
  mapred.job.tracker
  172.25.60.1:9001
  
  
  格式化一个新的分布式文件系统:
  $ bin/hadoop namenode  -format
  启动 Hadoop 守护进程:
  $ bin/start-all.sh
  在各个节点查看 hadoop 进程:
  $ jps
  Hadoop 守护进程的日志写入到 ${HADOOP_HOME}/logs 目录
  浏览 NameNode 和 JobTracker 的网络接口,它们的地址默认为:
  NameNode – http://172.25.60.1:50070/
  JobTracker – http://172.25.60.1:50030/
  将输入文件拷贝到分布式文件系统:
  $ bin/hadoop fs -put conf input
  运行发行版提供的示例程序:
  $ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+'
  查看输出文件:
  将输出文件从分布式文件系统拷贝到本地文件系统查看:
  $ bin/hadoop fs -get output output
  $ cat output/*
  或者
  在分布式文件系统上查看输出文件:
  $ bin/hadoop fs -cat output/*
  完成全部操作后,停止守护进程:
  $ bin/stop-all.sh
  完全分布式(三个节点)server1 server2 server4:
  在三个节点上安装 rpcbind nfs-utils 并打开rpcind nfs服务
  Vim /etc/exports
  /home/hadoop    *(rw,all_squash,anonuid=900,anongid=900)
  在slave2 4上添加用户  useradd -u 900 hadoop
  mount  172.25.60.1:/home/hadoop/  /home/hadoop/
  在1上分别进行ssh 连接 ssh 172.25.60.2ssh172.25.60.4
  在master上:vim  ~/hadoop/conf
  Vim slaves
  172.25.60.2
  172.25.60.4
  Vim hdfs-site.xml
  1 ------> 2
  (删除tmp------>格式化---->bin/start-dfs.sh----->bin/hadoop fs -put conf/ input----->bin/start-mapred.sh
  bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+')
  bin/hadoop  dfsadmin-report:查看节点运行状态
  bin/hadoop fs -ls :查看输出文件
  添加一个节点文件:
DSC0002.png

  在线添加节点:
  添加用户 useradd -u 900 hadoop
  mount 172.25.60.1:/home/hadoop/home/hadoop
  su - hadoop
  vim slaves加入该节点 ----->>172.25.60.5
  bin/hadoop-daemon.sh start datanode
  bin/hadoop-daemon.sh start tasktracker
  在线删除节点:
  先做数据迁移:
  在server上:vim mapred-site.xml
  
  dfs.hosts.exclude
  /home/hadoop/hadoop/conf/hostexclude
  
  Vim hadoop/hadoop/conf/hostexclude------->172.25.60.4
  Bin/hadoop dfsadmin -refreshNodes  ####刷新节点
  回收站功能:
  vimcore-site.xml添加以下:
  
  fs.trash.interval
  1440      1440=60*24
  
  实验:bin/hadoop fs -rm input/hadoop-env.sh
  bin/hadoop fs -ls input  查看是否删除
  bin/hadoop fs -ls 此时新增目录 .Trash
  bin/hadoop fs -ls .Trash/Current/user/hadoop/input
  将此文件移回原目录即可恢复
  bin/hadoop fs -mv .Trash/Current/user/hadoop/input/hadoop-env.sh input
  优化:
DSC0003.png

DSC0004.png

DSC0005.png

DSC0006.png

  更新hadoop至2.6版本
  删除之前的链接,解压hadoop-2.6.4.tar.gz   jdk-7u79-linux-x64.tar.gz到hadoop家目录,并更改权限为hadoop.hadoop进入hadoop用户,链接成hadoop和java,进入hadoop/etc/hadoop/
  vim  hadoop-env.sh    export JAVA_HOME=/home/hadoop/java
  cd /hadoop/etc/hadoop
  vim  core-site.xml
  
  fs.defaultFS
  hdfs://172.25.60.1:9000
  
  vim hdfs-site.xml
  
  dfs.replication
  2
  
  vim yarn-env.sh
  # some Java parameters
  export JAVA_HOME=/home/hadoop/java
  cp  mapred-site.xml.template  mapred-site.xml
  
  mapreduce.framework.name
  yarn
  
  vim yarn-site.xml
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  vim slaves
  172.25.60.4
  172.25.60.5
  bin/hdfs namenode -format
  sbin/start-dfs.sh
  bin/hdfs dfs -mkdir /user
  bin/hdfs dfs -mkdir /user/hadoop
  bin/hdfs dfs -put etc/hadoop input
  sbin/start-yarn.sh
  bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+'
  访问 172.25.60.1:50070   172.25.60.1:8088
  ##########替换lib下文件为64位(不更改的话启动时会有warn警告)
  mv   hadoop-native-64-2.6.0.tar   /home/hadoop/hadoop/lib/native
  tarxf  hadoop-native-64-2.6.0.tar
  ###########指定节点目录
DSC0007.png



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627920-1-1.html 上篇帖子: 北京上海Cloudera Hadoop大数据培训:CCAH(管理员)、CCA(程序员) 下篇帖子: Hadoop的配置文件
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表