设为首页 收藏本站
查看: 1522|回复: 0

[经验分享] CEPH Jewel+Ubuntu14.04+Calamari部署之CEPH Jewel集群部署

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-12-8 08:26:09 | 显示全部楼层 |阅读模式
CEPH简介
CEPH是一种已经震撼了整个存储行业的最热门的软件定义存储技术(SoftwareDefined Storage,SDS)。它是要给开源项目,为块存储、文件存储和对象存储提供了统一的软件定义解决方案。CEPH旨在提供一个扩展性强大、性能优越且无单点故障的分布式存储系统。从一开始,CEPH就被设计为能在通用商业硬件上运行,并且支持高度扩展(逼近甚至超过艾字节的数量)。
                                                                《Ceph Cookbook》      
一、环境准备
1.Vmware安装Ubuntu14.04共3台(分别是node1、node2、node3)。同时安装openssh-server服务。
node1作为monitor节点。node2和node3作为osd设备,并挂载适当大小的硬盘。
2.启用两张网卡,eth0设置为仅主机模式(在虚拟机中仅主机网络不受外网干扰,集群健壮性更好),eth1设置为桥接模式。仅主机网络需设置静态IP,桥接网络随意。
root@node1:~# vim /etc/network/interfaces
auto eth1
iface eth1 inet static
address 10.10.11.101
netmask 255.255.0.0
gateway 10.10.1.1
dns-nameservers 10.10.1.1 8.8.8.8
auto eth0
iface eth0 inet static
address 192.168.107.21
3.分别修改这三台设备的源,将apt的源文件替换成阿里云源,因为国内的源下载速度比较快。
root@ node1:~# cat /etc/apt/sources.list
deb http://mirrors.aliyun.com/ubuntu/ trusty main restricteduniverse multiverse
deb http://mirrors.aliyun.com/ubuntu/ trusty-security mainrestricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ trusty-updates mainrestricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ trusty-proposed mainrestricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ trusty-backports mainrestricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ trusty main restricteduniverse multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ trusty-security mainrestricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ trusty-updates mainrestricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ trusty-proposed mainrestricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ trusty-backports mainrestricted universe multiverse
root@ node1:~# apt_get update
root@ node1:~#
二、开始部署(建议直接用root用户,以下以root用户为例)
1、修改每个节点的主机名分别为node1node2 node3 (hostnamectl set-hostname $HOSTNAME)。并修改每台机器的host文件 (做一个硬解析),修改后可以通过名字访问各个设备。
root@node1:~/ceph-cluster# cat /etc/hosts
127.0.0.1 localhost
127.0.1.1 ubuntu14
# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
192.168.107.21 node1
192.168.107.22 node2
192.168.107.23 node3
2. 安装ceph-deploy(只在管理节点上执行)
wget -q -O-'https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc' | sudoapt-key add -
echo deb http://mirrors.163.com/ceph/debian-jewel$(lsb_release -sc) main |tee/etc/apt/sources.list.d/ ceph.list
apt-get update
apt-get install ceph-deploy
4、 用无密码的SSH连接到每个Ceph节点来配置你的ceph-deploy 管理节点. 保留密码为空。
创建密钥,提示输入的时候一直回车键即可。
  ssh-keygen
将密钥拷贝到其他osd设备上去。
  ssh-copy-idroot@node1
  ssh-copy-idroot@node2
  ssh-copy-idroot@node3
测试:此时您可以直接用ssh node2直接登陆到node2主机,不需要输入密码。
5、 修改你的ceph-deploy管理节点的~/.ssh/config 文件使它能像你创建的用户(比如, ceph)一样记录至Ceph节点 .可能不存在 这个配置文件,但是你可以创建一个这样的配置文件。配置文件中的内容如下:
root@ node1:~/ceph-cluster# cat ~/.ssh/config
Host node1
User root
Host node2
User root
Host node3
User root
6、创建一个自己的集群目录(目录名随意)
mkdir ceph-cluster
cd ceph-cluster
7、创建一个新的集群
ceph-deploy new node1
8、修改ceph.conf配置文件 vim ceph.conf
osd pool default size = 3  ---》设置副本个数,不建议超过osd数量
osd pool default min size = 1  --->设置可写最小副本个数
osd pool default pg num = 333  ---》设置pool的pg个数
osd pool default pgp num = 333 --》设置pool的pgp_num个数
9、分别在所有的设备上安装ceph
ceph-deploy install node1 node2 node3
注意:安装的时候很有可能出现各种不同的、不知名错误,如果解决不了也可以用以下方式在各节点单独安装,安装完成后可:
wget -q -O-'https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc' | sudoapt-key add -
echo deb http://mirrors.163.com/ceph/debian-jewel$(lsb_release -sc) main | tee /etc/apt/sources.list.d/ceph.list
apt-get update
apt-get install ceph
10、在node1上创建监视线程,并且初始化:
ceph-deploy mon create-initial
11、修改密钥文件权限:
chmod 777 ceph.client.admin.keyring
chmod 777 /etc/ceph/ceph.client.admin.keyring
12、列出各主机上面可以用的磁盘:
ceph-deploy disk list node1 node2 node3
13、格式化osd上的磁盘为xfs,并创建线程。
ceph-deploy disk zap node2:/dev/sdb
ceph-deploy osd create node2:/dev/sdb
ceph-deploy disk zap node3:/dev/sdb
ceph-deploy osd create node3:/dev/sdb
14、拷贝配置文件到每一台机器上
ceph-deploy admin node1 node2 node3
  chmod+r /etc/ceph/ceph.client.admin.keyring
15. 查看ceph的安装状态,如果集群健康则完成部署,若集群不健康则根据具体问题修改相关参数即可health ok
ceph –s
16.一切正常则在此拍摄快照


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-311184-1-1.html 上篇帖子: CEPH快速部署(Centos7+Jewel) 下篇帖子: centos7部署ceph集群(正确)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表