设为首页 收藏本站
查看: 806|回复: 0

[经验分享] Redhat Linux Enterprise AS3下双网卡绑定技术实现负载均衡

[复制链接]

尚未签到

发表于 2018-5-14 11:45:45 | 显示全部楼层 |阅读模式
保持服务器的高可用性是企业级 IT 环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。 双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。 详细信息请参考RedHat中Bonding  实验的操作系统是Redhat Linux Enterprise AS3
  绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片。
  双网卡邦定的拓朴图(见附件)
  1.编辑虚拟网络接口配置文件,指定网卡IP
  vi /etc/sysconfig/ network-scripts/ ifcfg-bond0
[root@rhas-13 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0

  2 #vi ifcfg-bond0
  将第一行改成 DEVICE=bond0
  # cat ifcfg-bond0
  DEVICE=bond0
  BOOTPROTO=static
  IPADDR=172.31.0.13
  NETMASK=255.255.252.0
  BROADCAST=172.31.3.254
  ONBOOT=yes
  TYPE=Ethernet
  这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。
[root@rhas-13 network-scripts]# cat ifcfg-eth0

  DEVICE=eth0
  ONBOOT=yes
  BOOTPROTO=dhcp
[root@rhas-13 network-scripts]# cat ifcfg-eth1

  DEVICE=eth0
  ONBOOT=yes
  BOOTPROTO=dhcp
  3 # vi /etc/modules.conf
  编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
  加入下列两行
  alias bond0 bonding
  options bond0 miimon=100 mode=1
  说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
  mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
  mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
  bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用
  4 # vi /etc/rc.d/rc.local
  加入两行
  ifenslave bond0 eth0 eth1
  route add -net 172.31.3.254 netmask 255.255.255.0 bond0
  到这时已经配置完毕重新启动机器.
  重启会看见以下信息就表示配置成功了
  ................
  Bringing up interface bond0 OK
  Bringing up interface eth0 OK
  Bringing up interface eth1 OK
  ................
  下面我们讨论以下mode分别为0,1时的情况
  mode=1工作在主备模式下,这时eth1作为备份网卡是no arp的
[root@rhas-13 network-scripts]# ifconfig 验证网卡的配置信息

  bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
  RX packets:18495 errors:0 dropped:0 overruns:0 frame:0
  TX packets:480 errors:0 dropped:0 overruns:0 carrier:0
  collisions:0 txqueuelen:0
  RX bytes:1587253 (1.5 Mb) TX bytes:89642 (87.5 Kb)
  eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
  RX packets:9572 errors:0 dropped:0 overruns:0 frame:0
  TX packets:480 errors:0 dropped:0 overruns:0 carrier:0
  collisions:0 txqueuelen:1000
  RX bytes:833514 (813.9 Kb) TX bytes:89642 (87.5 Kb)
  Interrupt:11
  eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
  UP BROADCAST RUNNING NOARP SLAVE MULTICAST MTU:1500 Metric:1
  RX packets:8923 errors:0 dropped:0 overruns:0 frame:0
  TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  collisions:0 txqueuelen:1000
  RX bytes:753739 (736.0 Kb) TX bytes:0 (0.0 b)
  Interrupt:15
  那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能.
  在mode=0 负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息
[root@rhas-13 root]# ifconfig

  bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
  RX packets:2817 errors:0 dropped:0 overruns:0 frame:0
  TX packets:95 errors:0 dropped:0 overruns:0 carrier:0
  collisions:0 txqueuelen:0
  RX bytes:226957 (221.6 Kb) TX bytes:15266 (14.9 Kb)
  eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
  RX packets:1406 errors:0 dropped:0 overruns:0 frame:0
  TX packets:48 errors:0 dropped:0 overruns:0 carrier:0
  collisions:0 txqueuelen:1000
  RX bytes:113967 (111.2 Kb) TX bytes:7268 (7.0 Kb)
  Interrupt:11
  eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
  RX packets:1411 errors:0 dropped:0 overruns:0 frame:0
  TX packets:47 errors:0 dropped:0 overruns:0 carrier:0
  collisions:0 txqueuelen:1000
  RX bytes:112990 (110.3 Kb) TX bytes:7998 (7.8 Kb)
  Interrupt:15
  在这种情况下出现一块网卡失效,仅仅会是服务器出口带宽下降,也不会影响网络使用.
  通过查看bond0的工作状态查询能详细的掌握bonding的工作状态
[root@rhas-13 bonding]# cat /proc/net/bonding/bond0

  bonding.c:v2.4.1 (September 15, 2003)
  Bonding Mode: load balancing (round-robin)
  MII Status: up
  MII Polling Interval (ms): 0
  Up Delay (ms): 0
  Down Delay (ms): 0
  Multicast Mode: all slaves
  Slave Interface: eth1
  MII Status: up
  Link Failure Count: 0
  Permanent HW addr: 00:0e:7f:25:d9:8a
  Slave Interface: eth0
  MII Status: up
  Link Failure Count: 0
  Permanent HW addr: 00:0e:7f:25:d9:8b

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-459930-1-1.html 上篇帖子: 无软驱和光驱安装Redhat方法 下篇帖子: RedHat AS 3.0下高可用性集群配置
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表