设为首页 收藏本站
查看: 739|回复: 0

[经验分享] Linux网络管理之网卡别名及网卡绑定配置

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-9-6 08:40:36 | 显示全部楼层 |阅读模式
在日常的运维工作当中,有时候需要在一块物理网卡上配置多个IP地址,这就是网卡子接口的概念,以及多块网卡实现网卡的绑定,通俗来讲就是多块网卡使用的一个IP地址,下面我来详细说明实现的过程。
&创建网卡子接口
在CentOS系统当中网络是由NetworkManager这个服务来管理的,它提供了一个图形的界面,但此服务不支持物理网卡子接口的设置,所以在配置网卡子接口的时候,我们需要关闭此服务
临时关闭:service NetworkManager stop
永久关闭:chkconfig  NetworkMangager  off
如果有时需要临时创建子接口需要这么操作
[iyunv@server ~]#  ip   addr add 10.1.252.100/16 dev eth0 label  eth0:0
注意:一旦重启网络服务,将会失效
创建永久的网卡子接口,这时候就需要写到网卡的配置文件里面去了网卡的配置文件路径在/etc/sysconfig/network-scripts/目录下以ifcfg开头跟设备名的文件,加入我设置的子接口的配置文件叫做eth0:0
vim /etc/sysconfig/network-scripts/ifcfg-eth0:0(如果你每次编辑网卡配置文件,每次这个路径觉得很长的时候可以定义别名,直接cd切换目录到这个文件的当前目录下)
DEVICE=eth0:0   //网卡的子接口名称                                                                                 
BOOTPROTO=none  //使用的协议这里是静态                                                                    
IPADDR=192.168.1.100   //子接口的IP地址                                                                     
NETMASK=255.255.255.0  //子接口的子网掩码                                                                 
GATEWAY=192.168.1.254   //子接口的网关                                                                        
DNS1=8.8.8.8                     //子接口指定的dns                                                                        
编辑网卡的配置文件之后需要重启网络服务                                                                     
[iyunv@server network-scripts]# service network restart                                                     
[iyunv@server network-scripts]# ifconfig                                                                                   
eth0      Link encap:Ethernet  HWaddr 00:0C:29:D1:18:FD                                      
          inet addr:10.1.252.100  Bcast:10.1.255.255  Mask:255.255.0.0           
          inet6 addr: fe80::20c:29ff:fed1:18fd/64 Scope:Link                                         
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1                 
          RX packets:47570 errors:0 dropped:0 overruns:0 frame:0                           
          TX packets:1618 errors:0 dropped:0 overruns:0 carrier:0                             
          collisions:0 txqueuelen:1000                                                                                 
          RX bytes:3140045 (2.9 MiB)  TX bytes:135945 (132.7 KiB)                          

eth0:0    Link encap:Ethernet  HWaddr 00:0C:29:D1:18:FD                                                
          inet addr:192.168.1.100  Bcast:192.168.1.255  Mask:255.255.255.0  
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1               
至此网络子接口就配置完成了


&网卡绑定
在讲解如何实现bonding网卡绑定前我先来讲讲bond的原理以及bond的工作模式,最后将实现网卡绑定的配置
bonding
就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡。当然给两块网卡设置同一IP地址是不可能的。通过bonding,虚拟一块网卡对外提供连接,物理网卡被修改为相同的MAC地址。
正常情况下,网卡只接受目的硬件地址是自身MAC的以太网帧,对于别的数据帧都过滤掉,以减轻负担。但是网卡也支持混杂promisc的模式,接收网络上的所有帧,tcpdump和bonding就运行在这个模式下,驱动程序中的mac地址,将两块网卡的MAC地址改成相同,可以接受特定的mac数据帧,然后把相应的数据帧传给bond驱动程序处理。双网卡工作的时候表现为一个虚拟网卡(bond0),该虚拟网卡也需要驱动,驱动名叫bonding。
bonding的工作模式
mode 0 (balance-rr)
轮询(round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包。本模式提供负载均衡和容错的能力,两块网卡都工作。

mode  1 (active-backup)
主备策略:在绑定中,只有一个slave被激活。当且仅当活动的slvae接口失败时才会激活其他slave。为了避免交换机发生混乱时绑定的MAC地址只有一个外部端口上可见。

mode 3(broadcast)
广播策略:在所有的slave接口上传送所有的保温。本模式提供容错能力。

这里我给大家配置的mode 1模式,我这里使用的是vmware虚拟机来做的实验,在做实验之前需要再添加一块网卡,这样linux系统中才会有两块网卡
第一步:创建bonding设备的配置文件
[iyunv@server network-scripts]# vim ifcfg-bond0                                                                     
DEVICE=bond0                                                                                                                                 
BOOTPROTO=none                                                                                                                           
IPADDR=10.1.252.100                                                                                                                     
NETMASK=255.255.0.0                                                                                                                  
GATEWAY=10.1.0.1                                                                                                                          
DNS1=8.8.8.8                                                                                                                                    
BONDING_OPTS="miimon=100 mode=1"                                                                                 
第二部:编辑两块物理网卡的配置文件                                                                              
[iyunv@server network-scripts]# vim ifcfg-eth0                                                                        
DEVICE=eth0                                                                                                                                    
MASTER=bond0                                                                                                                                
SLAVE=yes                                                                                                                                          

[iyunv@server network-scripts]# vim ifcfg-eth1                                                                        
DEVICE=eth1                                                                                                                                    
MASTER=bond0                                                                                                                                 
SLAVE=yes              
注:miimon是用来进行链路检测的。如果miimon=100,那么系统每100毫秒检测一次链路状态,如果有一条线路不通就转入另一条线路。
    mode=1表示工作模式为主备模式
    MASTER=bond0 主设备为bond0

配置完成只需要重启网络服务即可,测试使用另一台主机来ping bond0的IP地址接口,接下来测试bond的状态,将其中的一块网卡down掉,看另一块网卡能不能顶上来,如果能,则表示成功
查看bond的状态:watch –n 1 cat /proc/net/bonding/bond 动态观察bond的状态
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)                                            
Bonding Mode: fault-tolerance (active-backup)                                                              
Primary Slave: None                                                                                                               
Currently Active Slave: eth0                                                                                                
MII Status: up                                                                                                                           
MII Polling Interval (ms): 100                                                                                               
Up Delay (ms): 0                                                                                                                     
Down Delay (ms): 0                                                                                                                 
Slave Interface: eth0                                                                                                              
MII Status: up                                                                                                                           
Speed: 1000 Mbps                                                                                                                  
Duplex: full                                                                                                                                
Link Failure Count: 0                                                                                                               
Permanent HW addr: 00:0c:29:d1:18:fd                                                                           
Slave queue ID: 0                                                                                                                     
Slave Interface: eth1                                                                                                              
MII Status: up                                                                                                                           
Speed: 1000 Mbps                                                                                                                  
Duplex: full                                                                                                                                
Link Failure Count: 0                                                                                                               
Permanent HW addr: 00:0c:29:d1:18:07                                                                          
Slave queue ID:  0                                                                                                                                                                                       

当我把eth0网卡down掉,当前活动的网卡就变成了eth1了
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)                                            
Bonding Mode: fault-tolerance (active-backup)                                                              
Primary Slave: None                                                                                                               
Currently Active Slave: eth1                                                                                                
MII Status: down                                                                                                                     
MII Polling Interval (ms): 100                                                                                               
Up Delay (ms): 0                                                                                                                     
Down Delay (ms): 0                                                                                                                 
Slave Interface: eth0                                                                                                              
MII Status: up                                                                                                                           
Speed: 1000 Mbps                                                                                                                  
Duplex: full                                                                                                                                
Link Failure Count: 0                                                                                                               
Permanent HW addr: 00:0c:29:d1:18:fd                                                                           
Slave queue ID: 0                                                                                                                     
Slave Interface: eth1                                                                                                              
MII Status: up                                                                                                                           
Speed: 1000 Mbps                                                                                                                  
Duplex: full                                                                                                                                
Link Failure Count: 0                                                                                                               
Permanent HW addr: 00:0c:29:d1:18:07                                                                          
Slave queue ID          :        0         


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-268239-1-1.html 上篇帖子: bash新手if语句实现三个数比较大小 下篇帖子: chattr和lsattr命令 网络管理 Linux 网卡
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表