一、Docker(linux container)所依赖的底层技术(隔离技术)
1 Namespace
用来做容器的隔离,有了namespace,在docker container 里头看来,就是一个完整的linux 的世界。在host 看来,container 里的进程,就是一个普通的host 进程,namespace提供这种pid 的映射和隔离效果,host 承载着container ,就好比一个世外桃源。
namespace包括:pid namespace 、net namespace 、ipc namespace 、mnt namespace 、uts namespace 、user namespace
例如我们运行一个容器
查看容器的进程号
可以看到该容器的pid是3894 ,在宿主的/proc 目录下存在3894 进程的目录
通过kill可以结束该容器
查看/proc/[pid]/ns文件
从3.8版本的内核开始,用户就可以在/proc/[pid]/ns 文件下看到指向不同namespace 号的文件,效果如下所示,形如[4026531839] 者即为namespace 号。
我们运行一个容器并获取容器的pid
获取容器的pid
#ls -l /proc/ pid/ns << pid表示应用 容器的PID
如果两个进程指向的namespace编号相同,就说明他们在同一个namespace 下,否则则在不同namespace 里面。
例如我们再创建一个容器,网络模式为container (使用 --net=container:NAMEorID 指定 )
从上面可以看出两个容器的net namespace编号相同 ,说明他们在同一个 net namespace下 ,共用一个网络。
Docker使用了pid 、network 、mnt 、ipc 、uts 等命名空间来隔离进程、网络、文件系统等资源。注意,由于Linux 并不是namespace 了所有东西(如cgroups 、/sys 、SELinux 、/dev/sd* 、内核模块等),仅靠这几个namespace 是无法实现像KVM 那样的完全资源隔离的。
pid namespace:PID namespace隔离非常实用,它对进程PID 重新标号,即两个不同namespace 下的进程可以有同一个PID ,实现进程隔离,容器只能看到自己的进程,并且每个容器都有一个pid为1 的父进程,kill 掉该进程容器内的所有进程都会停止;
net namespace:实现网络隔离,每个容器都可以设置自己的interface 、routers 、iptables 等;docker 默认采用veth 的方式将container 中的虚拟网卡同host 上的一个docker bridge: docker0 连接在一起;
ipc namespace:container 中进程交互还是采用linux 常见的进程间交互方法(interprocess communication - IPC) ,容器中进程间通信采用的方法包括常见的信号量、消息队列和共享内存。然而与虚拟机不同的是,容器内部进程间通信对宿主机来说,实际上是具有相同PID namespace中的进程间通信,在同一个IPC namespace下的进程彼此可见,而与其他的IPC namespace下的进程则互相不可见。
mnt namespace:通过隔离文件系统挂载点对隔离文件系统提供支持,不同mnt namespace中的文件结构发生变化也互不影响。你可以通过/proc/[pid]/mounts 查看到所有挂载在当前namespace 中的文件系统,还可以通过/proc/[pid]/mountstats 看到mount namespace 中文件设备的统计信息,包括挂载文件的名字、文件系统类型、挂载位置等等
注:43234是容器的进程号
uts namspace:UTS namespace提供了主机名和域名的隔离,这样每个容器就可以拥有了独立的主机名和域名,在网络上可以被视作一个独立的节点而非宿主机上的一个进程。
user namespace:每个container 可以有不同的 user 和 group id, 也就是说可以在container 内部用container 内部的用户执行程序而非Host 上的用户。
对于容器所依赖的内核文件系统(这些都是non-namespaced),为了保证安全性,docker 将其限制为只读的,例如进入一个容器执行mount 命令:
#mount
2 Cgroups
在前面了解了Docker背后使用的资源隔离技术namespace ,通过系统调用构建一个相对隔离的shell 环境,也可以称之为一个简单的“ 容器” 。 下面我们则要开始讲解另一个强大的内核工具——cgroups。他不仅可以限制被namespace 隔离起来的资源,还可以为资源设置权重、计算使用量、操控进程启停等等。 所以cgroups (Control groups)实现了对资源的配额和度量 。
cgroups是什么 ?
cgroups(Control Groups )最初叫Process Container ,由Google 工程师(Paul Menage 和Rohit Seth )于2006 年提出,后来因为Container 有多重含义容易引起误解,就在2007 年更名为Control Groups ,并被整合进Linux 内核。顾名思义就是把进程放到一个组里面统一加以控制
groups的作用
通俗的来说,cgroups可以限制、记录、隔离进程组所使用的物理资源(包括:CPU 、memory 、IO 等),为容器实现虚拟化提供了基本保证,是构建Docker 等一系列虚拟化管理工具的基石 。Cgroups提供了以下四大功能。
1)资源限制(Resource Limitation):cgroups 可以对进程组使用的资源总额进行限制。如设定应用运行时使用内存的上限,一旦超过这个配额就发出OOM (Out of Memory )。
2)优先级分配(Prioritization):通过分配的CPU 时间片数量及硬盘IO 带宽大小,实际上就相当于控制了进程运行的优先级。
3)资源统计(Accounting): cgroups 可以统计系统的资源使用量,如CPU 使用时长、内存用量等等,这个功能非常适用于计费。
4)进程控制(Control):cgroups 可以对进程组执行挂起、恢复等操作。
下面就介绍cgroup如何做到内存,cpu 和io 速率的隔离
本文用脚本运行示例进程,来验证Cgroups关于cpu 、内存、io 这三部分的隔离效果。
测试机器 环境
执行mount命令查看cgroup 的挂载点
从上图可以看到cgroup挂载在/sys/fs/cgroup 目录
groups可以限制blkio 、cpu 、cpuacct 、cpuset 、devices 、freezer 、memory 、net_cls 、ns 等系统的资源,以下是主要子系统的说明:
blkio 这个子系统设置限制每个块设备的输入输出控制。例如: 磁盘,光盘以及usb 等等。
cpu 这个子系统使用调度程序为cgroup 任务提供cpu 的访问。
cpuacct 产生cgroup 任务的cpu 资源报告。
cpuset 如果是多核心的cpu ,这个子系统会为cgroup 任务分配单独的cpu 和内存。
devices 允许或拒绝cgroup 任务对设备的访问。
freezer 暂停和恢复cgroup 任务。
memory 设置每个cgroup 的内存限制以及产生内存资源报告。
net_cls 标记每个网络包以供cgroup 方便使用,它通过使用等级识别符(classid)标记网络数据包,从而允许 Linux 流量控制程序(TC :Traffic Controller )识别从具体cgroup 中生成的数据包。
ns:命名空间子系统
cgroups管理进程cpu 资源
我们先看一个限制cpu资源的例子:
跑一个耗cpu的脚本
运行一个容器,在容器内创建脚本并运行脚本,脚本内容:
将容器切换到后台运行
在宿主机上top可以看到这个脚本基本占了 90% 多的cpu资源
下面用cgroups控制这个进程的cpu 资源
对于centos7来说,通过systemd-cgls 来查看系统cgroups tree :
#systemd-cgls
注:4813就是我们所运行的容器pid
将cpu.cfs_quota_us设为50000,相对于cpu.cfs_period_us的100000是50%
进入容器,再次执行脚本,打开宿主机的另一个终端执行top命令
然后top的实时统计数据如下,cpu 占用率将近50% ,看来cgroups 关于cpu 的控制起了效果
CPU资源控制
CPU资源的控制也有两种策略,一种是完全公平调度(CFS:Completely Fair Scheduler)策略,提供了限额和按比例分配两种方式进行资源控制;另一种是实时调度(Real-Time Scheduler)策略,针对实时进程按周期分配固定的运行时间。配置时间都以微秒(μs)为单位,文件名中用us表示。
CFS调度策略下的配置
按权重比例设定CPU的分配
docker提供了–cpu-shares 参数,在创建容器时指定容器所使用的CPU 份额值。 例如:
使用命令docker run -tid – -cpu-shares 100 镜像,创建容器,则最终生成的cgroup的cpu 份额配置可以下面的文件中找到:
# cat /sys/fs/cgroup/cpu/ system.slice/docker -<容器的完整长ID>/cpu.shares
cpu-shares的值不能保证可以获得1 个vcpu 或者多少GHz 的CPU 资源,仅仅只是一个加权值。
该加权值是一个整数(必须大于等于2)表示相对权重,最后除以权重总和算出相对比例,按比例分配CPU时间。
默认情况下,每个docker容器的cpu 份额都是1024 。单独一个容器的份额是没有意义的,只有在同时运行多个容器时,容器的cpu 加权的效果才能体现出来。例如,两个容器A 、B 的cpu 份额分别为1000 和500 ,在cpu 进行时间片分配的时候,容器A 比容器B 多一倍的机会获得CPU 的时间片 。如 果容器A的进程一直是空闲的,那么容器B 是可以获取比容器A 更多的CPU 时间片的。极端情况下,比如说主机上只运行了一个容器,即使它的cpu 份额只有50 ,它也可以独占整个主机的cpu 资源。
cgroups只在容器分配的资源紧缺时,也就是说在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的cpu 份额来确定有多少cpu 资源分配给它,资源分配结果取决于同时运行的其他容器的cpu 分配和容器中进程运行情况。
cpu-shares演示案例:
先删除docker主机上运行的容器
Docker通过--cpu-shares 指定CPU份额
运行一个容器指定cpu份额为1024
注:
--cpu-shares 指定CPU份额 ,默认就是1024
--cpuset-cpus可以绑定CPU。例如,指定容器在--cpuset-cpus 0,1 或--cpuset-cpus 0-3
--cpu是stress命令的选项表示产生n个进程每个进程都反复不停的计算随机数的平方根
stress命令是linux下的一个压力测试工具。
在docker宿主机上打开一个terminal 执行top
然后再启动一个容器,--cpu-shares为512。
查看top的现实结果
可以看到container1的CPU占比为1024/(1024+512)=2/3,container2的CPU占比为512/(1024+512)=1/3
将container1的cpu.shares 改为512 ,
#echo “512” > /sys/fs/cgroup/cpu/ system.slice/docker -<容器的完整长ID>/cpu.shares
可以看到两个容器的CPU占比趋于平均
设定CPU使用周期使用时间上限
cgroups 里,可以用 cpu.cfs_period_us 和 cpu.cfs_quota_us 来限制该组中的所有进程在单位时间里可以使用的 cpu 时间。cpu.cfs_period_us 就是时间周期,默认为 100000 ,即百毫秒。cpu.cfs_quota_us 就是在这期间内可使用的 cpu 时间,默认 -1 ,即无限制。
cpu.cfs_period_us :设定时间周期 (单位为微秒(μs) ),必须与 cfs_quota_us配合使用。
cpu.cfs_quota_us :设定周期内最多可使用的时间 (单位为微秒(μs) )。这里的配置指task对单个cpu 的使用上限。
举个例子,如果容器进程需要每1秒使用单个CPU 的0.2 秒时间,可以将cpu-period 设置为1000000 (即1 秒),cpu-quota 设置为200000 (0.2 秒)。
当然,在多核情况下, 若cfs_quota_us是cfs_period_us的两倍,就表示在两个核上完全使用CPU, 例如如果允许容器进程需要完全占用两个CPU,则可以将cpu-period 设置为100000 (即0.1 秒),cpu-quota 设置为200000 (0.2 秒)。
使用示例:
使用命令docker run创建容器
在宿主机上执行top
从上图可以看到基本占了 100%的cpu 资源
则最终生成的cgroup的cpu 周期配置可以下面的 目录中找到:
/sys/fs/cgroup/cpu/ system.slice/docker -<容器的完整长ID>/
修改容器的cpu.cfs_period_us 和 cpu.cfs_quota_us 值
执行top查看cpu 资源
从上图可以看到基本占了 50%的cpu 资源
RT调度策略下的配置 实时调度策略与公平调度策略中的按周期分配时间的方法类似,也是在周期内分配一个固定的运行时间。
cpu.rt_period_us :设定周期时间。
cpu.rt_runtime_us :设定周期中的运行时间。
cpuset - CPU绑定
对多核CPU的服务器,docker 还可以控制容器运行限定使用哪些cpu 内核和内存节点,即使用–cpuset-cpus 和–cpuset-mems 参数。对具有NUMA 拓扑(具有多CPU 、多内存节点)的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置。如果服务器只有一个内存节点,则–cpuset-mems 的配置基本上不会有明显效果
注:
现在的机器上都是有多个CPU和多个内存块的。以前我们都是将内存块看成是一大块内存,所有CPU 到这个共享内存的访问消息是一样的。但是随着处理器的增加,共享内存可能会导致内存访问冲突越来越厉害,且如果内存访问达到瓶颈的时候,性能就不能随之增加。NUMA (Non-Uniform Memory Access )就是这样的环境下引入的一个模型。比如一台机器是有2 个处理器,有4 个内存块。我们将1 个处理器和两个内存块合起来,称为一个NUMA node ,这样这个机器就会有两个NUMA node 。在物理分布上,NUMA node 的处理器和内存块的物理距离更小,因此访问也更快。比如这台机器会分左右两个处理器(cpu1, cpu2 ),在每个处理器两边放两个内存块(memory1.1, memory1.2, memory2.1,memory2.2) ,这样NUMA node1 的cpu1 访问memory1.1 和memory1.2 就比访问memory2.1 和memory2.2 更快。所以使用NUMA 的模式如果能尽量保证本node 内的CPU 只访问本node 内的内存块,那这样的效率就是最高的。
使用示例:
表示创建的容器只能用0、1 、2 这三个内核。最终生成的cgroup 的cpu 内核配置如下:
cpuset.cpus :在这个文件中填写cgroup可使用的CPU 编号,如 0-2,16 代表 0、1 、2 和16 这4 个CPU 。
cpuset.mems :与CPU类似,表示cgroup 可使用的 memory node ,格式同上
通过docker exec <容器ID> taskset -c -p 1( 容器内部第一个进程编号一般为1) ,可以看到容器中进程与CPU 内核的绑定关系,可以认为达到了绑定CPU 内核的目的。
总结:
CPU配额控制参数的混合使用
当上面这些参数中时,cpu-shares控制只发生在容器竞争同一个内核的时间片时,如果通过cpuset-cpus 指定容器A 使用内核0 ,容器B 只是用内核1 ,在主机上只有这两个容器使用对应内核的情况,它们各自占用全部的内核资源,cpu-shares 没有明显效果。
cpu-period、cpu-quota 这两个参数一般联合使用,在单核情况或者通过cpuset-cpus 强制容器使用一个cpu 内核的情况下,即使cpu-quota 超过cpu-period ,也不会使容器使用更多的CPU 资源。
cpuset-cpus、cpuset-mems 只在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的。
在系统具有多个CPU内核的情况下,需要通过cpuset-cpus 为容器CPU 内核才能比较方便地进行测试。
内存配额控制
和CPU控制一样,docker 也提供了若干参数来控制容器的内存使用配额,可以控制容器的swap 大小、可用内存大小等各种内存方面的控制。主要有以下参数:
Docker提供参数-m, --memory="" 限制容器的内存使用量 ,如果不设置-m,则默认容器内存是不设限的,容器可以使用主机上的所有空闲内存
内存配额控制使用示例
设置容器的内存上限,参考命令如下所示
#docker run -dit --memory128m 镜像
默认情况下,除了–memory指定的内存大小以外,docker 还为容器分配了同样大小的swap 分区,也就是说,上面的命令创建出的容器实际上最多可以使用256MB 内存,而不是128MB 内存。如果需要自定义swap 分区大小,则可以通过联合使用–memory–swap 参数来实现控制。
可以发现,使用256MB进行压力测试时,由于超过了内存上限(128MB 内存+128MB swap ),进程被OOM (out of memory )杀死 。
使用250MB进行压力测试时,进程可以正常运行 。
通过docker stats可以查看到容器的内存已经满负载了。
#docker stats test2
对上面的命令创建的容器,可以查看到在cgroups的配置文件中,查看到容器的内存大小为128MB (128×1024×1024=134217728B) ,内存和swap加起来大小为256MB (256×1024×1024=268435456B) 。
#cat /sys/fs/cgroup/memory/ system.slice/docker -<容器的完整ID>/memory.limit_in_bytes
134217728
#cat /sys/fs/cgroup/memory/system.slice/docker-<容器的完整ID>/memory.memsw.limit_in_bytes
268435456
磁盘IO配额控制
主要包括以下参数:
--device-read-bps :限制此设备上的读速度(bytes per second),单位可以是kb 、mb 或者gb 。 --device-read-iops :通过每秒读IO次数来限制指定设备的读速度。
--device-write-bps :限制此设备上的写速度(bytes per second ),单位可以是kb 、mb 或者gb 。
--device-write-iops :通过每秒写IO次数来限制指定设备的写速度。
--blkio-weight :容器默认磁盘IO的加权值,有效值范围为10-100 0。
--blkio-weight-device :针对特定设备的IO加权控制。其格式为 DEVICE_NAME:WEIGHT
磁盘IO配额控制示例
blkio-weight
使用下面的命令创建两个 –blkio-weight 值不同的容器:
在容器中同时执行下面的 dd 命令,进行测试
注:oflag=direct规避掉文件系统的cache ,把写请求直接封装成io 指令发到硬盘
3 Chroot
如何在container里头,看到的文件系统,就是一个完整的linux 系统,有/etc 、/lib 等,通过chroot 实现
4 Veth
container里,执行ifconfig 可以看到eth0 的网卡,如何通信呢?其实是在host 上虚拟了一张网卡出来(veth73f7 ),跟container 里的网卡做了桥接,所有从container 出来的流量都要过host 的虚拟网卡,进container 的流量也是如此。
5 Union FS
对于这种叠加的文件系统,有一个很好的实现是AUFS,这个可以做到以文件为粒度的copy-on-write ,为海量的container 的瞬间启动。
6 Iptables, netfilter
主要用来做ip数据包的过滤,比如可以做container 之间无法通信,container 可以无法访问host 的网络,但是可以通过host 的网卡访问外网等这样的网络策略
二、学习 Docker 也有一段时间了,了解了Docker的基本实现原理,也知道了Docker 的使用方法,这里对Docker 的一些典型应用场景做一个总结
1、配置简化
这是Docker的主要使用场景。将应用的所有配置工作写入Dockerfile 中,创建好镜像,以后就可以无限次使用这个镜像进行应用部署了。这大大简化了应用的部署,不需要为每次部署都进行繁琐的配置工作,实现了一次打包,多次部署。这大大加快了应用的开发效率,使得程序员可以快速搭建起开发测试环境,不用关注繁琐的配置工作,而是将所有精力都尽可能用到开发工作中去。
2、代码流水线管理
代码从开发环境到测试环境再到生产环境,需要经过很多次中间环节,Docker给应用提供了一个从开发到上线均一致的环境,开发测试人员均只需关注应用的代码,使得代码的流水线变得非常简单,这样应用才能持续集成和发布。
3、快速部署
在虚拟机之前,引入新的硬件资源需要消耗几天的时间。Docker的虚拟化技术将这个时间降到了几分钟,Docker 只是创建一个容器进程而无需启动操作系统,这个过程只需要秒级的时间。
4、应用隔离
资源隔离对于提供共享hosting服务的公司是个强需求。如果使用VM ,虽然隔离性非常彻底,但部署密度相对较低,会造成成本增加。
Docker容器充分利用linux 内核的namespace 提供资源隔离功能。结合cgroups ,可以方便的设置每个容器的资源配额。既能满足资源隔离的需求,又能方便的为不同级别的用户设置不同级别的配额限制。
5、服务器资源整合
正如通过VM来整合多个应用,Docker 隔离应用的能力使得Docker 同样可以整合服务器资源。由于没有额外的操作系统的内存占用,以及能在多个实例之间共享没有使用的内存,Docker 可以比VM 提供更好的服务器整合解决方案。
通常数据中心的资源利用率只有30%,通过使用Docker 并进行有效的资源分配可以提高资源的利用率。
6、多版本混合部署
随着产品的不断更新换代,一台服务器上部署多个应用或者同一个应用的多个版本在企业内部非常常见。但一台服务器上部署同一个软件的多个版本,文件路径、端口等资源往往会发生冲突,造成多个版本无法共存的问题。
如果用docker,这个问题将非常简单。由于每个容器都有自己独立的文件系统,所以根本不存在文件路径冲突的问题; 对于端口冲突问题,只需要在启动容器时指定不同的端口映射即可解决问题。
7、版本升级回滚
一次升级,往往不仅仅是应用软件本身的升级,通过还会包含依赖项的升级。但新旧软件的依赖项很可能是不同的,甚至是有冲突的,所以在传统的环境下做回滚一般比较困难。
如果使用docker,我们只需要每次应用软件升级时制作一个新的docker 镜像,升级时先停掉旧的容器,然后把新的容器启动。需要回滚时,把新的容器停掉,旧的启动即可完成回滚,整个过程各在秒级完成,非常方便。
8、内部开发环境
在容器技术出现之前,公司往往是通过为每个开发人员提供一台或者多台虚拟机来充当开发测试环境。开发测试环境一般负载较低,大量的系统资源都被浪费在虚拟机本身的进程上了。
Docker容器没有任何CPU 和内存上的额外开销,很适合用来提供公司内部的开发测试环境。而且由于Docker 镜像可以很方便的在公司内部共享,这对开发环境的规范性也有极大的帮助。
9、PaaS
使用Docker搭建大规模集群,提供PaaS 。这一应用是最有前景的一个了,目前已有很多创业公司在使用Docker 做PaaS 了,例如云雀云平台。用户只需提交代码,所有运维工作均由服务公司来做。而且对用户来说,整个应用部署上线是一键式的,非常方便。
10、云桌面
在每一个容器内部运行一个图形化桌面,用户通过RDP或者VNC 协议连接到容器。该方案所提供的虚拟桌面相比于传统的基于硬件虚拟化的桌面方案更轻量级,运行速率大大提升。不过该方案仍处于实验阶段,不知是否可行。可以参考一下Docker-desktop 方案。
运维网声明
1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网 享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com