2e232 发表于 2014-4-21 08:55:37

LB集群及开源代表LVS

LB简介
LB=Load Blancing,即负载均衡;
就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器等,从而共同完成工作任务的机制;
负载均衡设备不是基础网络设备,而是一种性能优化设备;
对于网络应用而言,并不是一开始就需要负载均衡,当网络应用的访问量不断增长,单个处理单元无法满足负载需求时,网络应用流量将要出现瓶颈时,负载均衡才会起到作用

LB分类


# 一般分类:
tcp层:LVS,Haproxy
应用层:Nginx,Haproxy,Ats
缓存:Varnish,Squid
# 开源解决方案:
LVS:工作于tcp层,性能好,但控制力差
Haproxy:工作于tcp或http层
Nginx:较Haproxy性能欠佳,但缓存能力较好
# 硬件解决方案:
BIG-IP(F5公司)
Netscaler(Citrix公司)
A10(A10公司)
Array
Redware

LVS简介
LVS=Linux Virtual Server,意即Linux虚拟服务器,是一个虚拟的服务器集群系统;
本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一;

LVS组成
ipvs:框架,需要依赖于规则完成转发;工作于内核的INPUT链上;相当于iptables/netfilter中的netfilter
在INPUT链上强行将发送至本机的连接转发至POSTROUTING链;
与DNAT不同的是:在经过ipvs处理后,目标IP地址并不一定会修改;
ipvs提供集群服务(如172.16.100.7:80),定义一个或多个后端服务器RS
ipvsadm:用户空间的规则生成器
注:LVS工作于tcp/udp层,故又称为四层交换、四层路由
LVS基本结构图
LVS 4大模型NAT:多目标的DNAT特性:
[*]RS应该使用私有地址;
[*]RS的网关必须指向DIP;
[*]RIP和DIP必须在同一网段内;
[*]请求和响应的报文都得经过Director;(在高负载应用场景中,Director很可能成为系统性能瓶颈)
[*]支持端口映射;
[*]RS可以使用任意支持集群服务的OS(如Windows)
适用场景:
[*]非高并发请求场景,10个RS以内;可隐藏内部的DIP和RIP地址;
结构图
DR:Direct Routing需解决的关键问题:
[*]让前端路由将请求发往VIP时,只能是Director上的VIP进行响应;实现方式是修改RS上的Linux内核参数,将RS上的VIP配置为lo接口的别名,并限制Linux仅对对应接口的ARP请求做响应
特性:
[*]RS可以使用私有地址,但也可以使用公网地址,此时可以直接通过互联网连入RS以实现配置,监控等;
[*]RS的网关一定不能指向DIP;
[*]RS和Director要在同一物理网络(即不能由路由器分隔)
[*]请求报文经过Director,但响应报文一定不进过Director;
[*]不支持端口映射;
[*]RS可以使用大多数的操作系统
适用场景:
[*]因为响应报文不经过Director,极大的减轻了Director的负载压力,故Director可以支持更大的并发访问,一般RS在100台以内;
结构图:LVS-DR配置架构根据其VIP与RIP是否在同一个网段内又分为两种模型
TUN:IP隧道,即含有多个IP报头特性:
[*]RIP、DIP、VIP都得是公网地址;
[*]RS的网关不会指向也不可能指向DIP;
[*]请求报文经过Director,但响应报文一定不经过Director;
[*]不支持端口映射;
[*]RS的操作系统必须得支持隧道功能,即部署ipip模块
适用场景:
[*]跨互联网的请求转发
结构图:
FULLNAT:NAT模型的改进版特性:
[*]实现RS间跨VLAN通信,是NAT模式的改进版;
[*]默认内核不支持,需重新编译内核,才能使用;
适用场景:
[*]内网服务器跨VLAN的负载分担
结构图:LVS调度算法静态方法:仅根据算法本身进行调度

rr:Round Robin # 即轮询wrr:Weighted RR # 即加权轮询sh:Source Hashing # 即来源IP地址hashdh:Destination Hashing # 即目标地址hash(不常用,仅用于前端多防火墙的场景,保证防火墙的连接追踪功能有效)动态方法:根据算法及RS当前的负载情况

lc:Least Connection# 评判标准:Overhead=Active*256+Inactive# Overhead最小者胜出wlc:Weighted LC# 评判标准:Overhead=(Active*256+Inactive)/weight# Overhead最小者胜出sed:Shortest Expect Delay# 评判标准:Overhead=(Active+1)*256/weight# Overhead最小者胜出nq:Never Queue # 集群开始时工作时,每台服务器都至少分配一个连接请求,然后再根据sed算法调度;lblc:Locality-based Least Connection # 类似于dh+lclblcr:Relicated and Locality-based Least Connection # 主要用于后端服务器是缓存服务器时
LVS持久连接简介无论LVS采用何种调度算法,都可以在一段时间内,将客户端的请求发往同一个后端RS;类型PCC=Persistent client connections:将来自于同一客户端发往VIP的所有请求统统定向至同一RS;PPC=Persistent port connections:将来自于同一客户端发往某VIP的某端口的所有请求统统定向至同一个RS;针对特定服务特定端口转发的;PFMC=Persistent Filewall Mark Connection基于防火墙标记,将两个或以上的端口绑定为同一个服务防火墙标记是0-99间的整数实现:编写LVS规则时,加上-p选项即可

PCC:ipvsadm -A -t 172.16.100.7:0 -s rr -p 120 # 端口为0表示全部端口PPC:ipvsadm -A -t 172.16.100.7:80 -s rr -p 120PFMC:# 首先需要利用iptables将相关的服务打上标签:iptables -t mangle -A PREROUTING -d 172.16.100.8 -p tcp --dport 80 -j MARK --set-mark 10iptables -t mangle -A PREROUTING -d 172.16.100.8 -p tcp --dport 443 -j MARK --set-mark 10ipvsadm -A -f 10 -s rr -p 1200注:若LVS集群中存储的持久连接模板(即连接记录)倒计时归0了,则判断当前是否还有连接,若还有连接,则此模板就延时失效,每次延迟2min,直至连接断开

页: [1]
查看完整版本: LB集群及开源代表LVS