设为首页 收藏本站
查看: 892|回复: 0

云帆大数据学院_hdfs的Shell操作与管理

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2018-8-29 10:14:13 | 显示全部楼层 |阅读模式
HDFS的Shell操作与管理
6.1 启动HDFS
Step01:格式化NameNode
  [hadoop@hadoop-yarn hadoop-2.2.0]$ bin/hdfsnamenode –format
  说明:namenode在格式化的时候会产生一个ClusterID。也可以在格式化的时候自定义指定ID:
  bin/hdfsnamenode –format –clusterid yarn-cluster
Step02:启动NameNode
  启动脚本在$HADOOP_HOME/sbin目录下,在命令行输入:sbin/hadoop-deamon.sh ,可以看到关于该命令的提示:
  Usage:hadoop-daemon.sh [--config ] [--hosts hostlistfile] [--scriptscript] (start|stop)  
  启动NameNode:
  [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh start namenode
  验证:jps查看是否有NameNode进程
Step03:启动DataNode
  [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh start datanode
  验证:jps查看是否有DataNode
  输入HDFS的Web监控地址: http://hadoop-yarn.dragon.org:50070
Step04:启动SecondaryNameNode
  [hadoop@hadoop-yarn hadoop-2.2.0]$ sbin/hadoop-daemon.shstart secondarynamenode
  验证:jps查看是否有SecondaryNameNode
  输入SecondaryNameNode的管理地址: http://hadoop-yarn.dragon.org:50090
6.2日志分析
  (1) 启动日志文件目录为: $HADOOP_HOME/logs
  (2) 日志文件的格式 :【log】和【out】
  .log:通过log4j记录的,记录大部分应用程序的日志信息
  .out:记录标准输出和标准错误日志,少量记录
  (1)  日志文件的命名规则
  【框架名称-用户名-进程名-主机名-日志格式后缀】
6.3HDFS的Shell操作
(1)hdfs命令使用说明
  在$HADOOP_HOME/bin目录下有个hdfs脚本,查看该命令的使用方法:
  [hadoop@localhost hadoop-2.2.0]$ bin/hdfs
  执行上面的命令以后,就会列出关于hdfs命令的使用方法:
  Usage:hdfs [--config confdir] COMMAND
  where COMMAND is one of:
  dfs                   run a filesystem command on the file systemssupported in Hadoop.
  namenode-format     format the DFS filesystem
  secondarynamenode    run the DFS secondary namenode
  namenode            run the DFS namenode
  journalnode          run the DFS journalnode
  zkfc                 run the ZK Failover Controller daemon
  datanode             run a DFS datanode
  dfsadmin             run a DFS admin client
  haadmin              run a DFS HA admin client
  fsck                 run a DFS filesystem checking utility
  balancer             run a cluster balancing utility
  jmxget               get JMX exported values from NameNode orDataNode.
  oiv                  apply the offline fsimage viewer to anfsimage
  oev                  apply the offline edits viewer to an editsfile
  fetchdt              fetch a delegation token from theNameNode
  getconf              get config values from configuration
  groups               get the groups which users belong to
  snapshotDiff         diff two snapshots of a directory or diffthe
       current directory contents with a snapshot
  lsSnapshottableDir   list all snapshottable dirs owned by thecurrent user
                                Use -help to seeoptions
  portmap              run a portmap service
  nfs3                 run an NFS version 3 gateway
  Mostcommands print help when invoked w/o parameters.
(2)hdfsdfs命令使用说明
  从上面可以看到,hdfs命令下面有很多命令,下面我们了解分布式文件系统相关的命令:
  [hadoop@localhost hadoop-2.2.0]$ bin/hdfs dfs
  Usage:hadoop fs [generic options]
  [-appendToFile ... ]
  [-cat[-ignoreCrc]  ...]
  [-checksum ...]
  [-chgrp[-R] GROUP PATH...]
  [-chmod[-R]  PATH...]
  [-chown[-R] [OWNER][:[GROUP]] PATH...]
  [-copyFromLocal[-f] [-p]  ... ]
  [-copyToLocal[-p] [-ignoreCrc] [-crc]  ... ]
  [-count [-q]  ...]
  [-cp[-f] [-p]  ... ]
  [-createSnapshot []]
  [-deleteSnapshot ]
  [-df[-h] [ ...]]
  [-du[-s] [-h]  ...]
  [-expunge]
  [-get[-p] [-ignoreCrc] [-crc]  ... ]
  [-getmerge [-nl] ]
  [-help[cmd ...]]
  [-ls[-d] [-h] [-R] [ ...]]
  [-mkdir[-p]  ...]
  [-moveFromLocal ... ]
  [-moveToLocal ]
  [-mv ... ]
  [-put[-f] [-p]  ... ]
  [-renameSnapshot  ]
  [-rm[-f] [-r|-R] [-skipTrash]  ...]
  [-rmdir[--ignore-fail-on-non-empty]  ...]
  [-setrep[-R] [-w]   ...]
  [-stat[format]  ...]
  [-tail[-f] ]
  [-test-[defsz] ]
  [-text[-ignoreCrc]  ...]
  [-touchz ...]
  [-usage[cmd ...]]
  Genericoptions supported are
  -conf     specify anapplication configuration file
  -D            usevalue for given property
  -fs      specifya namenode
  -jt    specifya job tracker
  -files   specify comma separated files to be copied to the map reduce cluster

  -libjars   specify comma separated jar files to include in the>  -archives   specify comma separated archives to be unarchived on the computemachines.
  Thegeneral command line syntax is
  bin/hadoopcommand [genericOptions] [commandOptions]
(3)hdfsdfs命令使用示例:


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-558047-1-1.html 上篇帖子: Linux shell编程——if条件判断 下篇帖子: linux下shell显示-bash-4.1#的解决方法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表