设为首页 收藏本站
查看: 1247|回复: 0

[经验分享] hadoop+kerberos常用运维命令

[复制链接]

尚未签到

发表于 2017-12-17 18:12:57 | 显示全部楼层 |阅读模式
  kerberos相关:
  

kadmin.local  //以超管身份进入kadmin  

  
kadmin    //进入kadmin模式,需输入密码
  

  
kdb5_util create -r JENKIN.COM -s    //创建数据库
  

  
service krb5kdc start    //启动kdc服务
  

  
service kadmin start    //启动kadmin服务
  

  
service kprop start     //启动kprop服务
  

  
kdb5_util dump /var/kerberos/krb5kdc/slave_data    //生成dump文件
  

  
kprop -f /var/kerberos/krb5kdc/slave_data master2.com    //将master数据库同步是slave
  

  
kadmin模式下:
  

  
  addprinc -randkey root/master1@JENKIN.COM   //生成随机key的principal
  

  
  addprinc admin/admin    //生成指定key的principal
  

  
  listprincs    //查看principal
  

  
  change_password -pw xxxx admin/admin  //修改admin/admin的密码
  

  
  delete_principal  admin/admin    //删除principal
  

  
kinit admin/admin    //验证principal是否可用
  

  
xst -norandkey -k /var/kerberos/krb5kdc/keytab/root.keytab root/master1@JENKIN.COM host/master1@JENKIN.COM    //为principal生成keytab,可同时添加多个
  

  
ktadd -k /etc/krb5.keytab host/master1@JENKIN.COM    //ktadd也可生成keytab
  

  
kinit -k -t /var/kerberos/krb5kdc/keytab/root.keytab root/master1@JENKIN.COM     //测试keytab是否可用
  

  
klist -e -k -t /var/kerberos/krb5kdc/keytab/root.keytab    //查看keytab
  

  

  

  hadoop相关:
  

./bin/hdfs zkfc -formatZK    //格式化zkfc  

  
./bin/hdfs namenode -format ns    //格式化 namenode
  

  
./sbin/start-dfs.sh    //启动dfs, namenode,journalnode,datanode,zkfc都会启动
  

  
./sbin/start-yarn.sh    //启动yarn,nodemanager, resourcemanager都会启动
  

  
./sbin/hadoop-daemon.sh start journalnode    //启动journalnode, 也可单独启动 namenode, datanode
  

  
./sbin/yarn-daemon.sh start resourcemanager  //启动resourcemanager,也可单独启动nodemanager
  

  

  
hadoop fs -put ./NOTICE.txt hdfs://ns/    //上传文件至hdfs根目录
  

  
hadoop fs -ls /    查看hdfs根目录文件
  

  

  

hadoop fs -mkdir -p /jenkintest/tmp/spark01  
[iyunv@hadoop3 soft]# hadoop fs -ls /jenkintest/tmp/
  
Found 1 items
  
drwxr-xr-x   - root supergroup          0 2017-09-18 12:27 /jenkintest/tmp/spark01
  

  


命令行操作:
  -help             
  功能:输出这个命令参数手册
  -ls                  
  功能:显示目录信息
  示例: hadoop fs -ls hdfs://hadoop-server01:9000/
  备注:这些参数中,所有的hdfs路径都可以简写
  -->hadoop fs -ls /   等同于上一条命令的效果
  -mkdir              
  功能:在hdfs上创建目录
  示例:hadoop fs  -mkdir  -p  /aaa/bbb/cc/dd
  -moveFromLocal            
  功能:从本地剪切粘贴到hdfs
  示例:hadoop  fs  - moveFromLocal  /home/hadoop/a.txt  /aaa/bbb/cc/dd
  -moveToLocal              
  功能:从hdfs剪切粘贴到本地
  示例:hadoop  fs  - moveToLocal   /aaa/bbb/cc/dd  /home/hadoop/a.txt
  --appendToFile  
  功能:追加一个文件到已经存在的文件末尾
  示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://hadoop-server01:9000/hello.txt
  可以简写为:
  Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt
  -cat  
  功能:显示文件内容  
  示例:hadoop fs -cat  /hello.txt
  -tail                 
  功能:显示一个文件的末尾
  示例:hadoop  fs  -tail  /weblog/access_log.1
  -text                  
  功能:以字符形式打印一个文件的内容
  示例:hadoop  fs  -text  /weblog/access_log.1
  -chgrp
  -chmod
  -chown
  功能:linux文件系统中的用法一样,对文件所属权限
  示例:
  hadoop  fs  -chmod  666  /hello.txt
  hadoop  fs  -chown  someuser:somegrp   /hello.txt
  -copyFromLocal   
  功能:从本地文件系统中拷贝文件到hdfs路径去
  示例:hadoop  fs  -copyFromLocal  ./jdk.tar.gz  /aaa/
  -copyToLocal      
  功能:从hdfs拷贝到本地
  示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz
  -cp              
  功能:从hdfs的一个路径拷贝hdfs的另一个路径
  示例: hadoop fs -cp  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2
  -mv                     
  功能:在hdfs目录中移动文件
  示例: hadoop fs -mv  /aaa/jdk.tar.gz  /
  -get              
  功能:等同于copyToLocal,就是从hdfs下载文件到本地
  示例:hadoop fs -get  /aaa/jdk.tar.gz
  -         
  功能:合并下载多个文件
  示例:getmerge    如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
  hadoop fs -getmerge /aaa/log.* ./log.sum
  -put               
  功能:等同于copyFromLocal
  示例:hadoop fs -put  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2
  -rm               
  功能:删除文件或文件夹
  示例:hadoop fs -rm -r /aaa/bbb/
  -rmdir                 
  功能:删除空目录
  示例:hadoop  fs  -rmdir   /aaa/bbb/ccc
  -df               
  功能:统计文件系统的可用空间信息
  示例:hadoop fs -df  -h /
  -du
  功能:统计文件夹的大小信息
  示例:
  hadoop  fs  -du  -s  -h /aaa/*
  -count         
  功能:统计一个指定目录下的文件节点数量
  示例:hadoop fs -count /aaa/
  -setrep               
  功能:设置hdfs中文件的副本数量
  示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz
  补充:查看dfs集群工作状态的命令
  hdfs dfsadmin -report

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425085-1-1.html 上篇帖子: Hadoop 新生报道(三) hadoop基础概念 下篇帖子: Hadoop 修改源码以及将修改后的源码应用到部署好的Hadoop中
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表