设为首页 收藏本站
查看: 1318|回复: 0

[经验分享] ceph集群搭建

[复制链接]

尚未签到

发表于 2019-2-1 13:18:42 | 显示全部楼层 |阅读模式
  一、安装前准备:
  1.系统:Centos7.4 x64
[root@ceph-node1 ~]# cat /etc/redhat-release
CentOS Linux release 7.4.1708 (Core)  

  2.主机:
  主机名
  地址
  角色
  ceph-node1
  10.0.70.40
  Deploy、mon1、osd*2
  ceph-node2
  10.0.70.41
  mon1、osd*2
  ceph-node3
  10.0.70.42
  mon1、osd*2
  

  3.三台主机,每台主机有两个磁盘(磁盘大于100G)
[root@ceph-node1 ~]# lsblk
NAME        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
fd0           2:0    1     4K  0 disk
sda           8:0    0  1000G  0 disk
├─sda1        8:1    0     1G  0 part /boot
└─sda2        8:2    0   999G  0 part
├─cl-root 253:0    0    50G  0 lvm  /
├─cl-swap 253:1    0   7.9G  0 lvm  [SWAP]
└─cl-home 253:2    0 941.1G  0 lvm  /home
sdb           8:16   0  1000G  0 disk
sdc           8:32   0  1000G  0 disk  

  域名解析
ssh-keygen       #配置ceph-1到其他ceph节点的无密码访问
ssh-copy-id root@ceph-node1
ssh-copy-id root@cdph-node2
ssh-copy-id root@ceph-node3vim /etc/hosts    #拷贝解析到所有站点
10.0.70.40 ceph-node1
10.0.70.41 ceph-node2
10.0.70.42 ceph-node3
scp /etc/hosts root@ceph-node2:/etc/
scp /etc/hosts root@ceph-node3:/etc/  

  yum源配置
yum clean all
rm -rf /etc/yum.repos.d/*.repo
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
sed -i '/aliyuncs/d' /etc/yum.repos.d/CentOS-Base.repo
sed -i '/aliyuncs/d' /etc/yum.repos.d/epel.repo
sed -i 's/$releasever/7/g' /etc/yum.repos.d/CentOS-Base.repo
vim /etc/yum.repos.d/ceph.repo
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/
gpgcheck=0
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/
gpgcheck=0
scp /etc/yum.repos.d/ceph.repo root@ceph-node2:/etc/yum.repos.d/     #拷贝镜像到所有站点
scp /etc/yum.repos.d/ceph.repo root@ceph-node3:/etc/yum.repos.d/
yum install hdparm  ceph ceph-radosgw rdate  -y    #安装ceph客户端(所有节点)
hdparm -W 0 /dev/sda      #关闭写缓存
rdate -s time-a.nist.gov        #同步时间
echo rdate -s time-a.nist.gov >> /etc/rc.d/rc.local
chmod +x /etc/rc.d/rc.local  

  二、集群部署
  1.管理节点部署
yum install ceph-deploy -y
mkdir ~/cluster                     #创建my-cluster目录存放配置文件与秘钥
cd  ~/cluster                   #每次执行ceph-deploy命令最好都在这目录下执行
ceph-deploy new ceph-node1 ceph-node2 ceph-node3   #以node1为MON创建ceph.conf文件与秘钥
echo "osd_pool_default_size" = 2 >> ~/cluster/ceph.conf    #设置默认的副本数
echo public_network=10.0.70.20/24 >> ~/cluster/ceph.conf       #根据自己的IP配置向ceph.conf中添加public_network
echo mon_clock_drift_allowed = 2 >> ~/cluster/ceph.conf    #增大mon之间时差允许范围
cat  ~/cluster/ceph.conf
osd_pool_default_size = 2
public_network=10.0.70.20/24
mon_clock_drift_allowed = 2  

  

  

  开始部署monitor
ceph-deploy mon create-initial  

  开始部署OSD:
ceph-deploy --overwrite-conf osd prepare ceph-node1:/dev/sdb ceph-node1:/dev/sdc ceph-node2:/dev/sdb ceph-node2:/dev/sdc  ceph-node3:/dev/sdb ceph-node3:/dev/sdc   --zap-disk
ceph-deploy --overwrite-conf osd activate ceph-node1:/dev/sdb1 ceph-node1:/dev/sdc1  ceph-node2:/dev/sdb1 ceph-node2:/dev/sdc1  ceph-node3:/dev/sdb1 ceph-node3:/dev/sdc1  
  查看集群状态
[root@ceph-node1 cluster]# ceph -s
cluster 466e0a3e-f351-46f3-94a2-5ea976c26fd8
health HEALTH_WARN
15 pgs peering
2 pgs stuck unclean
too few PGs per OSD (21 < min 30)
monmap e1: 3 mons at {ceph-node1=10.0.70.40:6789/0,ceph-node2=10.0.70.41:6789/0,ceph-node3=10.0.70.42:6789/0}
election epoch 4, quorum 0,1,2 ceph-node1,ceph-node2,ceph-node3
osdmap e47: 6 osds: 6 up, 6 in; 9 remapped pgs
flags sortbitwise,require_jewel_osds
pgmap v125: 64 pgs, 1 pools, 0 bytes data, 0 objects
203 MB used, 5966 GB / 5967 GB avail
49 active+clean
9 remapped+peering
6 peering  查看OSD
[root@ceph-node1 cluster]# ceph osd tree
ID WEIGHT  TYPE NAME           UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 5.82715 root default
-2 1.94238     host ceph-node1
0 0.97119         osd.0            up  1.00000          1.00000
1 0.97119         osd.1            up  1.00000          1.00000
-3 1.94238     host ceph-node2
2 0.97119         osd.2            up  1.00000          1.00000
3 0.97119         osd.3            up  1.00000          1.00000
-4 1.94238     host ceph-node3
4 0.97119         osd.4            up  1.00000          1.00000
5 0.97119         osd.5            up  1.00000          1.00000  

  

  问题1:
  [ceph-1][ERROR ] admin_socket: exception getting command descriptions: [Errno 2] No such file or directory
  [ceph_deploy.mon][WARNIN] mon.ceph-1 monitor is not yet in quorum, tries left: 5
  [ceph_deploy.mon][WARNIN] waiting 5 seconds before retrying
  解决:
  主机名和hosts对应即可
  


  

  


  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670482-1-1.html 上篇帖子: Ceph:ceph 下篇帖子: kolla 部署 ceph
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表