设为首页 收藏本站
查看: 678|回复: 0

[经验分享] ceph command

[复制链接]

尚未签到

发表于 2019-2-1 14:31:42 | 显示全部楼层 |阅读模式
General usage:  
==============
usage: ceph [-h] [-c CEPHCONF] [-i INPUT_FILE] [-o OUTPUT_FILE]
             [--id CLIENT_ID] [--name CLIENT_NAME] [--cluster CLUSTER]
             [--admin-daemon ADMIN_SOCKET] [--admin-socket ADMIN_SOCKET_NOPE]
             [-s] [-w] [--watch-debug] [--watch-info] [--watch-sec]
             [--watch-warn] [--watch-error] [--version] [--verbose] [--concise]
             [-f {json,json-pretty,xml,xml-pretty,plain}]
             [--connect-timeout CLUSTER_TIMEOUT]

Ceph administration tool

optional arguments:
   -h, --help            request mon help
   -c CEPHCONF, --conf CEPHCONF
                         ceph configuration file
   -i INPUT_FILE, --in-file INPUT_FILE
                         input file
   -o OUTPUT_FILE, --out-file OUTPUT_FILE
                         output file
   --id CLIENT_ID, --user CLIENT_ID
                         client id for authentication
   --name CLIENT_NAME, -n CLIENT_NAME
                         client name for authentication
   --cluster CLUSTER     cluster name
   --admin-daemon ADMIN_SOCKET
                         submit admin-socket commands ("help" for help
   --admin-socket ADMIN_SOCKET_NOPE
                         you probably mean --admin-daemon
   -s, --status          show cluster status
   -w, --watch           watch live cluster changes
   --watch-debug         watch debug events
   --watch-info          watch info events
   --watch-sec           watch security events
   --watch-warn          watch warn events
   --watch-error         watch error events
   --version, -v         display version
   --verbose             make verbose
   --concise             make less verbose
   -f {json,json-pretty,xml,xml-pretty,plain}, --format {json,json-pretty,xml,xml-pretty,plain}
   --connect-timeout CLUSTER_TIMEOUT
                         set a timeout for connecting to the cluster

Monitor commands:  
=================
[Contacting monitor, timeout after 5 seconds]
auth add  { [...]}   add auth info for  from input  
                                           file, or random key if no input given,
                                           and/or any caps specified in the  
                                           command
auth caps   [...]    update caps for  from caps  
                                           specified in the command
auth del                         delete all caps for  
auth export {}                   write keyring for requested entity, or  
                                           master keyring if none given
auth get                         write keyring file with requested key
auth get-key                     display requested key
auth get-or-create  {      add auth info for  from input  
  [...]}                             file, or random key if no input given,
                                           and/or any caps specified in the  
                                           command
auth get-or-create-key  {  get, or add, key for  from  
  [...]}                             system/caps pairs specified in the  
                                           command.  If key already exists, any  
                                           given caps must match the existing  
                                           caps for that key.
auth import                              auth import: read keyring file from -i  
                                            
auth list                                list authentication state
auth print-key                   display requested key
auth print_key                   display requested key
compact                                  cause compaction of monitor's leveldb  
                                           storage
config-key del                      delete  
config-key exists                   check for 's existence
config-key get                      get  
config-key list                          list keys
config-key put  {}             put , value  
df {detail}                              show cluster free space stats
fsid                                     show cluster FSID/UUID
health {detail}                          show cluster health
heap dump|start_profiler|stop_profiler|  show heap usage info (available only  
  release|stats                            if compiled with tcmalloc)
injectargs  [...]                                
log  [...]             log supplied text to the monitor log
mds add_data_pool                  add data pool  
mds cluster_down                         take MDS cluster down
mds cluster_up                           bring MDS cluster up
mds compat rm_compat            remove compatible feature
mds compat rm_incompat          remove incompatible feature
mds compat show                          show mds compatibility settings
mds deactivate                      stop mds
mds dump {}                     dump info, optionally from epoch
mds fail                            force mds to status failed
mds getmap {}                   get MDS map, optionally from epoch
mds newfs   {--yes-i-  make new filesystom using pools  
  really-mean-it}                           and  
mds remove_data_pool               remove data pool  
mds rm          remove nonactive mds
mds rmfailed                    remove failed mds
mds set max_mds|max_file_size|allow_new_ set mds parameter  to  
  snaps|inline_data  {}      
mds set_max_mds                 set max MDS index
mds set_state        set mds state of  to  
mds setmap                      set mds map; must supply correct epoch  
                                           number
mds stat                                 show MDS status
mds stop                            stop mds
mds tell   [...]        send command to particular mds
mon add             add new monitor named  at  
mon dump {}                     dump formatted monmap (optionally from  
                                           epoch)
mon getmap {}                   get monmap
mon remove                         remove monitor named  
mon stat                                 summarize monitor status
mon_status                               report status of monitors
osd blacklist add|rm         add (optionally until  seconds  
  {}                          from now) or remove  from  
                                           blacklist
osd blacklist ls                         show blacklisted clients
osd create {}                      create new osd (with optional UUID)
osd crush add       add or update crushmap position and  
    [...]         weight for  with  and  
                                           location  
osd crush add-bucket         add no-parent (probably root) crush  
                                           bucket  of type  
osd crush create-or-move    [..  for   at/to location  
  .]                                       
osd crush dump                           dump crush map
osd crush link   [...] link existing entry for  under  
                                           location  
osd crush move   [...] move existing entry for  to  
                                           location  
osd crush remove  {}     remove  from crush map (
                                           everywhere, or just at )
osd crush reweight    change 's weight to  in  
                                           crush map
osd crush rm  {}         remove  from crush map (
                                           everywhere, or just at )
osd crush rule create-erasure      create crush rule  for erasure  
  {}                              coded pool created with  (
                                           default default)
osd crush rule create-simple       create crush rule  to start from  
    {firstn|indep}             , replicate across buckets of  
                                           type , using a choose mode of  
                                            (default firstn; indep  
                                           best for erasure pools)
osd crush rule dump {}             dump crush rule  (default all)
osd crush rule list                      list crush rules
osd crush rule ls                        list crush rules
osd crush rule rm                  remove crush rule  
osd crush set                            set crush map from input file
osd crush set       update crushmap position and weight  
    [...]         for  to  with location  
                                            
osd crush show-tunables                  show current crush tunables
osd crush tunables legacy|argonaut|      set crush tunables values to  
  bobtail|firefly|optimal|default         
osd crush unlink  {}     unlink  from crush map (
                                           everywhere, or just at )
osd deep-scrub                      initiate deep scrub on osd  
osd down  [...]                set osd(s)  [...] down
osd dump {}                     print summary of OSD map
osd erasure-code-profile get       get erasure code profile  
osd erasure-code-profile ls              list all erasure code profiles
osd erasure-code-profile rm        remove erasure code profile  
osd erasure-code-profile set       create erasure code profile   
  { [...]}               with [ ...] pairs. Add a  
                                           --force at the end to override an  
                                           existing profile (VERY DANGEROUS)
osd find                        find osd  in the CRUSH map and  
                                           show its location
osd getcrushmap {}              get CRUSH map
osd getmap {}                   get OSD map
osd getmaxosd                            show largest OSD id
osd in  [...]                  set osd(s)  [...] in
osd lost  {--yes-i-really-mean- mark osd as permanently lost. THIS  
  it}                                      DESTROYS DATA IF NO MORE REPLICAS  
                                           EXIST, BE CAREFUL
osd ls {}                       show all OSD ids
osd lspools {}                      list pools
osd map            find pg for  in  
osd metadata                    fetch metadata for osd  
osd out  [...]                 set osd(s)  [...] out
osd pause                                pause osd
osd perf                                 print dump of OSD perf summary stats
osd pg-temp  { [...]}      set pg_temp mapping pgid:[ [...
                                           ]] (developers only)
osd pool create       create pool
  {} {replicated|erasure}         
  {} {}     
osd pool delete  {}  delete pool
  {--yes-i-really-really-mean-it}         
osd pool get  size|min_size|   get pool parameter  
  crash_replay_interval|pg_num|pgp_num|   
  crush_ruleset|hit_set_type|hit_set_      
  period|hit_set_count|hit_set_fpp|auid|   
  target_max_objects|target_max_bytes|     
  cache_target_dirty_ratio|cache_target_   
  full_ratio|cache_min_flush_age|cache_   
  min_evict_age|erasure_code_profile      
osd pool get-quota             obtain object or byte limits for pool
osd pool mksnap          make snapshot  in  
osd pool rename      rename  to  
osd pool rmsnap          remove snapshot  from  
osd pool set  size|min_size|   set pool parameter  to  
  crash_replay_interval|pg_num|pgp_num|   
  crush_ruleset|hashpspool|hit_set_type|   
  hit_set_period|hit_set_count|hit_set_   
  fpp|debug_fake_ec_pool|target_max_      
  bytes|target_max_objects|cache_target_   
  dirty_ratio|cache_target_full_ratio|     
  cache_min_flush_age|cache_min_evict_     
  age|auid  {--yes-i-really-mean-it}  
osd pool set-quota  max_       set object or byte limit on pool
  objects|max_bytes                  
osd pool stats {}                  obtain stats from all pools, or from  
                                           specified pool
osd primary-affinity

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670545-1-1.html 上篇帖子: Ceph replication 下篇帖子: 关于ceph的一些问题及解决
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表