设为首页 收藏本站
查看: 1800|回复: 1

[经验分享] Hadoop基本操作命令

[复制链接]

尚未签到

发表于 2018-11-1 10:32:18 | 显示全部楼层 |阅读模式
  Hadoop基本操作命令  在这篇文章中,我们默认认为Hadoop环境已经由运维人员配置好直接可以使用。
  假设Hadoop的安装目录HADOOP_HOME为/home/admin/hadoop。
  启动与关闭
  启动Hadoop
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/start-all.sh
  关闭Hadoop
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/stop-all.sh
  文件操作
  Hadoop使用的是HDFS,能够实现的功能和我们使用的磁盘系统类似。并且支持通配符,如*。
  查看文件列表
  查看hdfs中/user/admin/aaron目录下的文件。
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs -ls /user/admin/aaron
  这样,我们就找到了hdfs中/user/admin/aaron目录下的文件了。
  我们也可以列出hdfs中/user/admin/aaron目录下的所有文件(包括子目录下的文件)。
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs -lsr /user/admin/aaron
  创建文件目录
  查看hdfs中/user/admin/aaron目录下再新建一个叫做newDir的新目录。
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs -mkdir /user/admin/aaron/newDir
  删除文件
  删除hdfs中/user/admin/aaron目录下一个名叫needDelete的文件
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs -rm /user/admin/aaron/needDelete
  删除hdfs中/user/admin/aaron目录以及该目录下的所有文件
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs -rmr /user/admin/aaron
  上传文件
  上传一个本机/home/admin/newFile的文件到hdfs中/user/admin/aaron目录下
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs –put /home/admin/newFile /user/admin/aaron/
  下载文件
  下载hdfs中/user/admin/aaron目录下的newFile文件到本机/home/admin/newFile中
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs –get /user/admin/aaron/newFile /home/admin/newFile
  查看文件
  我们可以直接在hdfs中直接查看文件,功能与类是cat类似
  查看hdfs中/user/admin/aaron目录下的newFile文件
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop fs –cat /home/admin/newFile
  MapReduce Job操作
  提交MapReduce Job
  原则上说,Hadoop所有的MapReduce Job都是一个jar包。
  运行一个/home/admin/hadoop/job.jar的MapReduce Job
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop jar /home/admin/hadoop/job.jar [jobMainClass] [jobArgs]
  杀死某个正在运行的Job
  假设Job_Id为:job_201005310937_0053
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop job -kill job_201005310937_0053
  更多Hadoop的命令
  上面介绍的这些Hadoop的操作命令是我们最常用的。如果你希望了解更多,可以按照如下的方式获取命令的说明信息。
  1.         进入HADOOP_HOME目录。
  2.         执行sh bin/hadoop
  我们可以看到更多命令的说明信息:
  Usage: hadoop [--config confdir] COMMAND
  where COMMAND is one of:
  namenode -format     format the DFS filesystem
  secondarynamenode    run the DFS secondary namenode
  namenode             run the DFS namenode
  datanode             run a DFS datanode
  dfsadmin             run a DFS admin client
  fsck                 run a DFS filesystem checking utility
  fs                   run a generic filesystem user client
  balancer             run a cluster balancing utility
  jobtracker           run the MapReduce job Tracker node
  pipes                run a Pipes job
  tasktracker          run a MapReduce task Tracker node
  job                  manipulate MapReduce jobs
  queue                get information regarding JobQueues
  version              print the version
  jar             run a jar file
  distcp   copy file or directories recursively
  archive -archiveName NAME *  create a hadoop archive
  daemonlog            get/set the log level for each daemon
  or

  >  Most commands print help when invoked w/o parameters.


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629275-1-1.html 上篇帖子: Hadoop 安装 教程 下篇帖子: cloudera之hadoop-0.20.1+152.tar.gz 安装出现找不到JAVA_HOME问题的解决办法
累计签到:464 天
连续签到:5 天
发表于 2019-1-19 12:14:44 | 显示全部楼层
感谢楼主分享

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表