设为首页 收藏本站
查看: 954|回复: 0

[经验分享] (八)Docker网络跨主机通讯vxlan和vlan

[复制链接]

尚未签到

发表于 2018-5-27 12:35:24 | 显示全部楼层 |阅读模式
基于OpenvSwitch实现跨主机通信:

环境描述:

计算机名称IP

Docker01  eth0:192.168.130.128/24
  eth1:172.16.100.10/24
  docker0:172.17.0.1/24(默认)


Docker02  eth0:192.168.130.129/24
  eth1:172.16.100.20/24
  docker0:172.17.0.1/24(默认)




安装OpenvSwitch
检查内核文件
ll /lib/modules/`uname -r`/build
ll -d /usr/src/kernels/`un
DSC0000.png

下载openvswitch源码包并制作RPM包
mkdir -p /root/rpmbuild/SOURCES
cd /root/rpmbuild/SOURCES
wget http://openvswitch.org/releases/openvswitch-2.5.2.tar.gz
tar -xzf openvswitch-2.5.2.tar.gz
sed 's/openvswitch-kmod, //g' openvswitch-2.5.2/rhel/openvswitch.spec > openvswitch-2.5.2/rhel/openvswitch_no_kmod.spec
cd /root
rpmbuild -bb --nocheck ./rpmbuild/SOURCES/openvswitch-2.5.2/rhel/openvswitch_no_kmod.spec制作好的RPM安装包在/root/rpmbuild/RPMS/x86_64目录下
DSC0001.png
在2台机器上都安装
yum -y localinstall ./openvswitch-2.5.2-1.x86_64.rpm DSC0002.png
启动服务和查看服务状态
systemctl start openvswitch
systemctl status openvswitch DSC0003.png
注意:需要关闭SELinux和防火墙。
为什么要在用户家目录下建立一个叫做rpmbuild的目录?
rpmbuild --showrc | grep topdir DSC0004.jpg
上图可以看到rpmbuild是制作RPM包默认的工作目录,在每个用户家目录下,这个目录通常没有,需要自己建立,这些信息是通过一个叫做%_topdir的宏变量定义的,虽然你可以修改但是官方推荐不要直接修改,而是在用户家目录下建立一个隐藏文件
touch .rpmmacros
#定义目录
%_topdir    PATH在%_topdir目录下通常有以下6个目录:
目录说明宏名称
BUILD编译RPM包时的临时目录%_buildir
BUILDROOT编译后乘车的软件临时安装目录%_buildrootdir
RPMS最终生成的可安装RPM包存放目录%_rpmdir
SOURCES所有源代码和补丁文件存放目录%_sourcedir
SPECS存放SPECS文件的目录,很重要%_specdir
SRPMS
软件最终的RPM源码个数存放路径%_srcrpmdir


openvswitch核心组件及常用命令说明
组件说明
ovs-vswitchdOVS守护进程是OVS核心组件,实现交换功能和Linux内核模块协同完成基于流的交换。它和上层的controller通信遵从OPENFLOW协议,它与ovsdb-server通信使用OVSDB协议,它和内核模块通过netlink通信,它支持多个独立的datapath(网桥),通过更改flow table实现了绑定和VLAN等功能。
ovsdb-serverOVS轻量级的数据库服务器,用于整个OVS的配置信息,包括接口,交换内容,VLAN 等等。ovs-vswitchd 根据数据库中的配置信息工作。它于 manager 和 ovs-vswitchd 交换信息使用了OVSDB(JSON-RPC)的方式
ovsdb-client
ovsdb-tool
ovs-docker
ovs-dpctl一个工具,用来配置交换机内核模块,可以控制转发规则
ovs-vsctl主要是获取或者更改ovs-vswitchd的配置信息,此工具操作的时候会更新ovsdb-server中的数据库
ovsdmmonitorGUI工具来显示ovsdb-server中数据信息。(Ubuntu下是可以使用apt-get安装,可以远程获取OVS数据库和OpenFlow的流表)
ovs-controller一个简单的OpenFlow控制器
ovs-ofctl
用来控制OVS作为OpenFlow交换机工作时候的流表内容
ovs-pki
OpenFlow交换机创建和管理公钥框架
ovs-tcpdundump
tcpdump的补丁,解析OpenFlow的消息
ovs-appctl主要是向OVS守护进程发送命令的,一般用不上。 a utility that sends commands to running Open vSwitch daemons (ovs-vswitchd)


命令说明
ovs-vsctl add-br [BRNAME]创建名为BRNAME的网桥
ovs-vsctl list-br显示所有网桥
ovs-vsctl add-port [BRNAME] [NIC1] [NIC2]关联网络接口(NIC,可以是物理的也可以是虚拟的)到名为BRNAME的网桥。一个物理网卡作为网桥的一部分是无法再拥有IP的,你想象一下Hyper-V宿主机,创建虚拟网卡(其实这个网卡就是虚拟交换机上的一个接口)之后,你原来的物理网卡是不是没有IP了,而原来的IP就跑到那个虚拟网卡上了,但是你仍然可以通过那个IP访问宿主机。所以你一旦把一个物理网卡绑定到一个网桥,你就需要去掉原来网卡的IP,然后给那个和网桥同名的虚拟网卡配置上原来的IP。只不过在hyper-v中是自动完成的,你只需要指定基于那个网卡来创建虚拟交换机,其余的创建交换机、把物理网卡绑定到虚拟交换机、把原来物理网卡IP移植到虚拟网卡上。在Linux中你需要手动做这些步骤。你可以绑定多个网卡到网桥,但要注意广播风暴,解决办法就是开启生成树协议。
ovs-vsctl set bridge [BRNAME] stp_enable=true|false关闭或开启指定网桥的STP功能,也就是生成树功能
ovs-vsctl del-port [BRNAME] [NIC]解除物理网卡与网桥的绑定
ovs-vsctl add-bond [BRNDNAME] [NIC1] [NIC2]多网卡绑定,然后和指定网桥绑定,这样可以提高带宽,而且不会产生广播风暴。
ovs-vsctl del-br [BRNAME]删除一个名为BRNAME的网桥,如果这个网桥不存在则会有错误提示。那么你可以加上--if-exists参数。
ovs-vsctl list-ports [BRNAME]列出在名为BRNAME上绑定的接口
ovs-vsctl port-to-br [NIC]列出所有挂到该物理网卡上的网桥
ovs-vsctl show查看网桥绑定的接口
ovs-ofctl show BRNAME
查看指定网桥内部状态


实验目标:

前提:如果你没有额外的为容器分配IP的工具则建议你使用docker默认产生的网桥也就是docker0,并且通过修改配置文件,增加--dip参数来设置不同主机上的docker0网桥IP,因为毕竟默认都是一样的。但如果使用这种方式,那么你的网络结构设置将会受到一定限制,不过对于中小企业来说已经够用了。如果你有其他分配IP机制,那么完全可以不用默认的docker0网桥而是通过openvswitch来新建功能更加强大的网桥。
比如你可以选修ovs+valn的方式,在宿主机上建立OVS网桥,把一个物理网口变成trunk口,允许所有VLAN或者指定VALN通过,容器获取的就是你物理网络中的不同VLAN的地址,当然你外部需要有一个DHCP服务器,不过你最多也只能使用4096个VLAN,对于中等规模的互联网公司也足够了,但是对于大型互联网公司或者公有云则有IP就有很大限制,通常会使用NVGRE或Vxlan等隧道技术。
  

  拓扑如下:
  虽然拓扑结构是3台,但我的环境中只有2台容器宿主机这个是为了说明三台是怎样的一个结构。道理是一样的。
   DSC0005.jpg
  下面是在Docker01服务器上执行:
  注意:要先关闭两台主机的防火墙
systemctl stop firewalld
systemctl disable firewalld  还要设置允许IPV4转发
#临时生效
sysctl -a net.ipv4.ip_forward = 1
#永久生效在下面的文件中添加 net.ipv4.ip_forward = 1
vim /usr/lib/sysctl.d/50-default.conf  

  网桥设置
  我在这里修改默认网桥的IP地址范围,当然你也可以新建一个,然后使用新建的网桥。修改daemon.json文件,其实fixed-cidr可以省略,修改完重启docker服务
  下面是配置文件
   DSC0006.png
  下面是docker0的IP
   DSC0007.png
  默认bridge的网络设置
   DSC0008.png
  自定义docker0网桥网络

  

  虚拟交换机设置
ovs-vsctl add-br ovsBridge0
DSC0009.jpg

  建立到对端也就是docker02服务器的隧道
ovs-vsctl add-port ovsBridge0 vxlan0 -- set Interface vxlan0 type=vxlan options:remote_ip=172.16.100.30
DSC00010.jpg

  默认docker0网桥设置
  把新建立的ovsBridge0网桥绑定到docker0网桥上
brctl addif docker0 ovsBridge0
DSC00011.jpg

  添加路由
  添加大段的路由,我们容器的IP地址段是10.0.1.0/24,我们添加的路由是16位掩码的
ip route add 10.0.0.0/16 dev docker0
DSC00012.jpg

  下面是在Docker02服务器上执行:
  执行和docker01服务器相同的操作
vs-vsctl add-br ovsBridge0
ovs-vsctl add-port ovsBridge0 vxlan0 -- set Interface vxlan0 type=vxlan options:remote_ip=172.16.100.20
brctl addif docker0 ovsBridge0
ovs-vsctl show
ip route add 10.0.0.0/16 dev docker0  

  启用ovs网桥:
  两边服务器都设置好后,就该启用ovsBridge0网桥,默认该我们建立的ovsBridge0网桥是DOWN状态的,不过执行了下面的命令它的状态也不是UP,而是UNKNOWN的状态。但是你不执行则肯定不通
ip link set dev ovsBridge0 up   DSC00013.jpg
  

  测试:
   DSC00014.jpg DSC00015.jpg
  从docker02主机的容器上PING
   DSC00016.jpg


基于Vlan的夸主机通讯:

计算机名称IP

Docker01  eth0:192.168.130.128/24
  eth1:172.16.10.1/24
  docker0:172.17.0.1/24(默认)


Docker02  eth0:192.168.130.129/24
  eth1:172.16.20.1/24
  docker0:172.17.0.1/24(默认)




拓扑如下:

DSC00017.jpg
忽略上面的实验,重新开始。同样需要关闭防火墙和开启IPV4转发。
实验目标:

让容器获得和物理机同样网段的IP地址通过外部的路由设备通常是三层交换机来实现路由。每个物理服务器上可以跑多少个容器取决于你的子网划分,我们这里每台物理机都是一个网段容器与物理机处在同一网段,能有多少可用IP取决于你的子网划分。因为环境中没有三层交换机所以使用Windows Server 2008 R2的路由和远程访问实现路由功能。另外在这个环境中忽略主机上的192的地址。你只需要关注172的那个地址即可。


在Docker01上执行:
首先修改docker配置文件
修改后重启docker服务
DSC00018.jpg
意思是默认的docker0的IP是172.16.10.1,容器的IP是从这个网段划分,但是容器的网关地址则是172.16.10.254,这个地址是三层交换机上配置的,我这个环境中是Windows Server 2008 R2上的一个网卡的地址。
DSC00019.jpg
去掉物理网卡eth1的IP地址
这个网卡的地址是172段的也就是真实IP,这时候我们要去掉这个IP地址,物理网卡将作为一个docker0网桥的一个端口而且网桥地址就是物理IP,所以物理网卡没有必要再使用IP。
ifconfig eth1 0 DSC00020.jpg
绑定eth1网卡到docker0网桥

这样做的原因是在网桥上添加一个物理端口
brctl addif docker0 eth1 DSC00021.jpg
设置路由
先删除默认路由因为需要把路由指向三层交换机我这里是WIN2K8R2机器,所以要删除原有的路由然后添加一条新的路由
route del default gw 0.0.0.0添加默认路由
route add -net 0.0.0.0 gw 172.16.10.254 DSC00022.jpg
在Docker02上执行:
在该机器上做同样的操作,不过IP要进行更换。
修改配置文件
DSC00023.jpg
ifconfig eth1 0
brctl addif docker0 eth1
route del default gw 0.0.0.0
route add -net 0.0.0.0 gw 172.16.20.254 DSC00024.jpg
配置Windows服务器:
DSC00025.jpg
安装路由和远程访问过程略,很简单默认安装就好。
配置路由和远程访问:
DSC00026.jpg

DSC00027.jpg

DSC00028.jpg

DSC00029.jpg

DSC00030.jpg

  到这里就配置好了
  测试:
  宿主机测试
   DSC00031.jpg
  容器测试--从docker01上的容器PING在docker02上的容器
  
DSC00032.jpg

  容器测试--从docker02上的容器PING在docker01上的容器
DSC00033.jpg

  我这里没有配置DNS所以到不了外网,你可以在docker配置文件中指定DNS服务器
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-481785-1-1.html 上篇帖子: docker 加速器 下篇帖子: Docker 构建镜像
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表