设为首页 收藏本站
查看: 1000|回复: 0

[经验分享] Centos-7 + Docker-1.12 中 devicemapper + direct_lvm 的 Docker 存储配置

[复制链接]

尚未签到

发表于 2017-11-22 21:40:26 | 显示全部楼层 |阅读模式
应用背景:
Docker最先就是跑在Ubuntu和Debian上的,使用的就是aufs存储器.因为docker越来越流行,许多公司希望在rhel上使用,但是上游内核中并没有包括aufs,所以rhel不能使用aufs. 最终,开发者们开发了一个新的后端存储引擎devicemapper,基于已有的Device Mapper技术,并且使docker 支持可插拔,现在全世界有很多真实案例在生产环境中使用devicemapper.
因为上述的原因,对于centos/rhel这类没有相关驱动的系统,一般使用devicemapper驱动利用LVM的一些机制来模拟分层存储。这样的做法除了性能比较差之外,稳定性一般也不好,而且配置相对复杂。Docker安装在CentOS/RHEL 上后,会默认选择 devicemapper,但是为了简化配置,其 devicemapper 是跑在一个稀疏文件模拟的块设备上,也被称为 loop-lvm。这样的选择是因为不需要额外配置就可以运行 Docker,这是自动配置唯一能做到的事情。但是 loop-lvm 的做法非常不好,其稳定性、性能更差,无论是日志还是 docker info 中都会看到警告信息。官方文档有明确的文章讲解了如何配置块设备给 devicemapper 驱动做存储层的做法,这类做法也被称为配置 direct-lvm。
除了前面说到的问题外,devicemapper + loop-lvm 还有一个缺陷,因为它是稀疏文件,所以它会不断增长。用户在使用过程中会注意到 /var/lib/docker/devicemapper/devicemapper/data 不断增长,而且无法控制。很多人会希望删除镜像或者可以解决这个问题,结果发现效果并不明显。原因就是这个稀疏文件的空间释放后基本不进行垃圾回收的问题。因此往往会出现即使删除了文件内容,空间却无法回收,随着使用这个稀疏文件一直在不断增长。
所以,对于 CentOS/RHEL 的用户来说,在没有办法使用 UnionFS 的情况下,一定要配置 direct-lvm 给 devicemapper,无论是为了性能、稳定性还是空间利用率

配置环境:
centos 7
docker 1.12

配置步骤:
1.停止 docker daemon(root)
#> systemctl stop docker
2.创建相关逻辑卷以及 thinpool(root)
(1).分配磁盘
分配磁盘予服务器,利用 fdisk 进行分区。
(2).创建 PV
例如:已分配磁盘 /dev/sdb1
#> pvcreate /dev/sdb1
(3).创建 VG
#> vgcreate dockervg /dev/sdb1
(4).创建 thinpool 逻辑卷
#> lvcreate --wipesignatures y -n thinpool -l 50%VG dockervg
lvcreate --wipesignatures y -n thinpoolmeta -l 1%VG dockervg
可通过如下命令检验
#> lvscan
DSC0000.png
(5).转换成 thinpool

#> lvconvert -y --zero n -c 512K --thinpool dockervg/thinpool --poolmetadata dockervg/thinpoolmeta
输出结果类似如下。
DSC0001.png
可以通过如下命令查看 thinpool 状态
#> lvs -o lv_name,data_percent,metadata_percent,lv_size,lv_metadata_size,data_lv,metadata_lv
输出结果类似如下。
DSC0002.png
注意:其中 LSize 即为 Data 的空间大小,Msize 即为 MetaData 的空间大小,Data 为 Data 对应逻辑卷,Meta 为 MetaData 对应逻辑卷。
(6).扩展 thinpool(选做)
该步骤选做,用于 MetaData 或 Data 空间不足时的扩容。
例如:MetaData 对应逻辑卷路径为 /dev/mapper/dockervg-thinpool_tmeta,则扩容命令如下。
#> lvresize -L +1G /dev/mapper/dockervg-thinpool_tmeta
例如:thinpool 整体对应逻辑卷路径为 dockervg-thinpool,则扩容命令如下。
#> lvresize -L +5G /dev/mapper/dockervg-thinpool
3.备份并删除 Docker 存储目录(root)
(1).备份
#>  mkdir /var/lib/docker.bk
mv /var/lib/docker/* /var/lib/docker.bk
(2).删除原存储目录
#> rm -rf /var/lib/docker/*
4.修改 Docker 启动参数并启动(root)  修改 daemon.json 配置文件
#> vi /etc/docker/daemon.json
修改为如下内容。
{
  "storage-driver": "devicemapper",
   "storage-opts": [
     "dm.thinpooldev=/dev/mapper/dockervg-thinpool",
     "dm.use_deferred_removal=true",
     "dm.use_deferred_deletion=true",

     "dm.basesize=25G"
   ]
}
注意:dm.basesize 指定了 images 以及 container 可以扩展到的最大空间

5.重启 Docker 服务(root)
#> systemctl daemon-reload
systemctl start docker
6.验证(root)


a.docker info 检查

#> docker info

结果类似如下。

DSC0003.png


其中,方框内信息表明以使用了 direct_lvm 的 Docker 存储模式,同时images 以及 container 可以扩展到的最大空间已修改所需大小。
b.试运行 hello-world
#> docker pull hello-world
docker run hello-world
结果类似如下,即表明运行正常。
DSC0004.png

参考资料:
https://docs.docker.com/engine/userguide/storagedriver/device-mapper-driver/#configure-direct-lvm-mode-for-production

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-409667-1-1.html 上篇帖子: Linux环境Nginx安装多版本PHP 下篇帖子: 【Linux基础】在 Linux 上安装软件的 3 种方法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表