高可用之KeepAlived(一):基本概念和配置文件分析

2018-03-01 07:46:47来源:cnblogs.com作者:骏马金龙人点击

分享

KeepAlived系列文章:http://www.cnblogs.com/f-ck-need-u/p/7576137.html


本文目录:
1. 概述
2. VRRP协议
3. KeepAlived架构模型
4. 安装KeepAlived
5. 配置keepalived的日志
6. keepalived配置文件详解

1.概述

KeepAlived主要有两个功能:

  • (1).能够对RealServer进行健康状况检查,支持4层、5层和7层协议进行健康检查;
  • (2).对负载均衡调度器实现高可用,防止Director单点故障。

在keepalived设计之初,它只是LVS周边的一个辅助工具,用于LVS的监控状况检查,因此它和LVS的兼容性非常好。如果某一个realserver节点宕了,keepalived会将此节点从管理列表中踢出去,当此节点恢复后又将此节点加回管理列表,这样能够就让realserver负载均衡变的智能化。但是,此时的调度器存在单点故障的可能性,因此有必要对其实现高可用。

实现LVS高可用可以使用多种软件来实现,如heartbeat,但是heartbeat本身不能实现ipvs的健康状况检查,需要搭配Ldirectord(安装完heartbeat就有了)来进行健康检查。所幸的是keepalived后来也加入了高可用的功能,而且配置起来也相当简单。相比于heartbeat+Ldirectord,keepalived的检查速度极快,故障转移也极快,布置也简单的多。所以一般来说,要管理ipvs,都会选择使用keepalived。下图列出了构建LVS高可用的几种工具:

keepalived实现故障转移的功能是通过VRRP(virtual router redundancy protocol虚拟路由器冗余协议)协议来实现的。在keepalived正常工作的时候,主节点(master)会不断的发送心跳信息给备节点(backup),当备节点不能在一定时间内收到主节点的心跳信息时,备节点会认为主节点宕了,然后会接管主节点上的资源,并继续向外提供服务保证其可用性。当主节点恢复的时候,备节点会自动让出资源并再次自动成为备节点。

注意,使用keepalived监控、高可用LVS集群时(即常说的keepalived+lvs),并不需要在Director上使用ipvsadm等管理工具额外配置ipvs规则。因为keepalived中集合了管理ipvs规则的组件(即稍后模型图中的ipvs wrapper),可以直接在keepalived的配置文件中配置ipvs相关规则,在解析配置文件时会通过特定的组件将规则发送到内核中的ipvs模块。

2. VRRP协议

VRRP协议的出现是为了解决静态路由的单点故障,它是通过一种竞选机制来将路由任务交给某个vrrp路由器的。

在VRRP物理结构中,有多个物理的VRRP路由器,其中有一台称为"master"即主节点路由器,其他的都是"backup"备节点路由器,谁是master谁是backup,这是通过他们的优先级来定义竞选的。

在VRRP虚拟结构中,虚拟路由器是通过"MAC+VRID"的形式来标识的,如"00-00-5E-00-01-{VRID}"。在VRRP虚拟结构中,不管是master还是backup,VRID必须一致。它们对外都是相同的VIP,客户端并不需要因为master的切换而修改自己的路由配置。

VRRP结构中路由器之间的通信是通过IP多播的方式实现的(也可以配置为其它通信方式)。但是,只有master节点才会发送VRRP广告包(vrrp advertisement message)。当master节点宕掉的时候,backup中优先级最高的VRRP设备会抢占并升级为master。

3.keepalived架构模型

Keepalived服务启动的时候,将产生三个相关进程,一个父进程和两个子进程。

PID    111     Keepalived  <-- Parent process fork and monitor children       112     /_ Keepalived   <-- VRRP child       113     /_ Keepalived   <-- Healthchecking child

父进程负责fork和监控子进程,因此父进程也称为WatchDog。两个子进程都会开启本地套接字Unix Domain Socket。当keepalived服务启动后,父进程会通过unxi domain socket每隔5秒发送一个"Hello"消息给子进程,如果父进程无法发送消息给子进程,将认为子进程出现问题,于是会重启子进程。

下图是keepalived设计架构图:

其中:

  • Checkers组件:负责RealServer的健康状况检查,并在LVS的拓扑中移除、添加RealServer。它支持layer4/5/7层的协议检查。该组件使用独立的子进程负责,但被父进程监控。
  • VRRP组件:提供Director的故障转移功能从而实现Director的高可用。该组件可独立提供功能,无需LVS的支持。该组件使用独立的子进程负责,但被父进程监控。
  • System Call组件:提供读取自定义脚本的功能。该组件在使用时,将临时产生一个子进程来执行任务。
  • IPVS wrapper组件:负责将配置文件中IPVS相关规则发送到内核的ipvs模块。
  • Netlink Reflector:用来设定、监控vrrp的vip地址。

4.安装keepalived

使用keepalived,完全可以yum安装。本文仅给出编译安装的方法,后文的所有配置都使用yum安装的keepalived。

官方各版本源码下载地址:http://www.keepalived.org/download.html。以下是编译安装keepalived-1.2.19版本的过程。

yum -y install openssl-develtar xf keepalived-1.2.19.tar.gzcd keepalived-1.2.19./configure --prefix=/usr/local/keepalived-1.2.19make && make install

其中./configure的·--with-kernel-dir·是在管理LVS时需要使用的,如果不用配合LVS,则可以不用此选项。

再做一下编译安装的规范行为。

ln -s /usr/local/keepalived-1.2.19 /usr/local/keepalivedecho "MANPATH /usr/local/keepalived/share/man" >>/etc/man.configecho "export PATH=/usr/local/keepalived/sbin:$PATH" > /etc/profile.d/keepalived.shchmod +x /etc/profile.d/keepalived.sh. /etc/profile.d/keepalived.sh

编译安装后,在安装目录下生成以下一些目录,其中keepalived程序在sbin目录下。

[root@xuexi ~]# cd /usr/local/keepalived[root@xuexi keepalived]# lsbin  etc  lib  sbin  share

在etc目录下,有配置文件、SysV管理脚本和大量配置文件示例。

[root@xuexi keepalived]# ls etckeepalived  rc.d  sysconfig[root@xuexi keepalived]# ls etc/keepalived/keepalived.conf  samples[root@xuexi keepalived]# ls etc/rc.d/init.d/keepalived

但需要注意的是,这里提供的SysV服务管理脚本是错误的,原因是脚本中的keepalived命令路径错误。所以修改该文件。

#原文start() {    echo -n $"Starting $prog: "    daemon keepalived ${KEEPALIVED_OPTIONS}    RETVAL=$?    echo    [ $RETVAL -eq 0 ] && touch /var/lock/subsys/$prog}#修改后start() {    echo -n $"Starting $prog: "    daemon /usr/local/keepalived/sbin/keepalived ${KEEPALIVED_OPTIONS}    RETVAL=$?    echo    [ $RETVAL -eq 0 ] && touch /var/lock/subsys/$prog}

5.配置keepalived的日志

默认keeepalived的日志会记录到/var/log/messages中。可以配置keepalived使其记录到其它文件中。

先修改/etc/sysconfig/keepalived文件,以下是原文内容。

# Options for keepalived. See `keepalived --help' output and keepalived(8) and# keepalived.conf(5) man pages for a list of all options. Here are the most# common ones :## --vrrp               -P    Only run with VRRP subsystem.# --check              -C    Only run with Health-checker subsystem.# --dont-release-vrrp  -V    Dont remove VRRP VIPs & VROUTEs on daemon stop.# --dont-release-ipvs  -I    Dont remove IPVS topology on daemon stop.# --dump-conf          -d    Dump the configuration data.# --log-detail         -D    Detailed log messages.# --log-facility       -S    0-7 Set local syslog facility (default=LOG_DAEMON)#KEEPALIVED_OPTIONS="-D"

要配置独立的日志,将其中的"KEEPALIVED_OPTIONS"改为如下:

KEEPALIVED_OPTIONS="-D -S 0"

上面配置使用local0这个设备来记录日志,因此去修改rsyslog的配置文件/etc/rsyslog.conf,添加该设备记录日志的级别和路径。

# Keepalived log configlocal0.*                           /var/log/keepalived.log

再重启rsyslog。

service rsyslog restart

6.keepalived配置文件详解

配置文件分为3部分:全局部分、VRRPd部分(即实现高可用部分)以及LVS虚拟服务部分(健康状况检查以及管理的集群服务)。

选项很多,具体的意义可以man keepalived.conf。默认内容如下:

! Configuration File for keepalivedglobal_defs {                    #全局部分定义邮件报警系统,可以不用定义   notification_email {          #定义邮件发送目标     acassen@firewall.loc     failover@firewall.loc     sysadmin@firewall.loc   }   notification_email_from Alexandre.Cassen@firewall.loc  #定义邮件发送人   smtp_server 192.168.200.1   smtp_connect_timeout 30   router_id LVS_DEVEL         #标识keepalived服务器的字符串,实现高可用时需要使用它标识节点        # 全局部分关于静态地址和静态路由的配置,可以man keepalived.conf,不过几乎不用配置这部分}#定义vrrp实例。一个配置文件中可以实现多实例。但不同主机上互为master<-->backup的实例名需相同vrrp_instance VI_1 {             state MASTER           #定义实例的角色状态是master还是backup    interface eth0         #定义vrrp绑定的接口,即接收或发送心跳通告的接口,即HA监测接口    virtual_router_id 51   #虚拟路由标识(VRID),同一实例该数值必须相同,即master和backup中该值相同                           #同一网卡上的不同vrrp实例,该值必须不能相同。取值范围0-255    priority 100           #该vrrp实例中本机的keepalived的优先级,优先级最高的为master。该选项的优先级                           #高于state选项,即若state指定的是backup,但这里设置的值最高,则仍为master。    advert_int 1           #心跳信息发送和接收时间间隔,单位为秒    authentication {       #认证方式,同一实例中这个配置必须完全一样才可通过认证。只建议使用PASS认证        auth_type PASS        auth_pass 1111     #最多支持8字符,超过8字符将只取前8字符    }virtual_ipaddress {      #设置的VIP。只有master节点才会设置。master出现故障后,VIP会故障转移到backup。                         #这些vip默认配置在interface指定的接口别名上,可使用dev选项来指定配置接口。                         #使用ip add的方式添加。若要被ifconfig查看,在IP地址后加上label即可。                         #<IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPE> label <LABEL>        192.168.200.16 label eth0:1        192.168.200.17        192.168.200.18        192.168.200.19/24 dev eth1    }}#定义虚拟服务部分virtual_server 192.168.200.100 443 { #虚拟服务地址和端口,使用空格分隔,其中地址为VIP    delay_loop 6                     #健康检查时间间隔    lb_algo rr                       #定义负载均衡LB的算法,这里使用的是rr调度算法    lb_kind NAT                      #lvs的模型,有NAT/DR/TUN三种    nat_mask 255.255.255.0    persistence_timeout 50           #持久会话保持时长    protocol TCP                     #监控服务的协议类型,1.3.0版本之前只支持tcp,之后还支持udp    real_server 192.168.201.100 443 {   #定义real_server部分,地址和端口使用空格分隔        weight 1       #LVS权重        SSL_GET {      #健康状况检查的检查方式,常见的有HTTP_GET|SSL_GET|TCP_CHECK|MISC_CHECK。            url {                    path /   #指定ssl_get健康状况检查的路径,例如检查index.html是否正常              digest ff20ad2481f97b1754ef3e12ecd3a9cc                                  #健康状况需要状态码,可以是status_code、digest或digest+status_code                                #digest值用keepalived的genhash命令生成,一般使用status_code即可              status_code 200            }            url {              path /mrtg/              digest 9b3a0c85a887a256d6939da88aabd8cd            }            connect_timeout 3           #表示3秒无响应就超时,即此realserver不健康,需重试连接            nb_get_retry 3              #表示重试3次,3次之后都超时就是宕机,防止误伤(nb=number)            delay_before_retry 3        #重试的时间间隔                                        #上述配置需12秒才能判断节点故障,时间太久,应改小        }    }}virtual_server 10.10.10.2 1358 {    delay_loop 6    lb_algo rr     lb_kind NAT    persistence_timeout 50    protocol TCP    sorry_server 192.168.200.200 1358    #定义当所有Real server都宕机的时候,由哪台服务器继续提供服务                                         #一般在keepalived本机给定一个web页面,提示网站正在维护的信息    real_server 192.168.200.2 1358 {        weight 1        HTTP_GET {            url {               path /testurl/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            url {               path /testurl2/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            url {               path /testurl3/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            connect_timeout 3            nb_get_retry 3            delay_before_retry 3        }    }    real_server 192.168.200.3 1358 {        weight 1        HTTP_GET {            url {               path /testurl/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334c            }            url {               path /testurl2/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334c            }            connect_timeout 3            nb_get_retry 3            delay_before_retry 3        }    }}virtual_server 10.10.10.3 1358 {    delay_loop 3    lb_algo rr     lb_kind NAT    nat_mask 255.255.255.0    persistence_timeout 50    protocol TCP    real_server 192.168.200.4 1358 {        weight 1        HTTP_GET {            url {               path /testurl/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            url {               path /testurl2/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            url {               path /testurl3/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            connect_timeout 3            nb_get_retry 3            delay_before_retry 3        }    }    real_server 192.168.200.5 1358 {        weight 1        HTTP_GET {            url {               path /testurl/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            url {               path /testurl2/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            url {               path /testurl3/test.jsp              digest 640205b7b0fc66c1ea91c463fac6334d            }            connect_timeout 3            nb_get_retry 3            delay_before_retry 3        }    }}

关于配置文件中的几种时间间隔:

  • advert_int N1:vrrp主备之间发送和接收心跳信息的时间间隔。和Checker组件无关。
  • delay_loop N2:是健康状况检查的时间间隔。每隔几秒就检查一次。
  • connect_timeout N3:连接RS的超时时间,连接不上说明不健康,需要重试连接来判定RS是否故障。
  • nb_get_retry N4:一个节点不健康的判定重试次数。要重试N次,N次内都不健康说明节点故障了。
  • delay_before_retry N5:判定某节点不健康后过N秒再进行重试判定。

N2和N5的区别在于:当上一次健康检查结果是正常的,将会隔N2秒再检查。如果某次检查不健康,即联系不上RS,则每隔N5秒重试一次,直到N4次后才判定该RS已经故障。因此,最终需要N3+N4*N5才能判定一个节点的故障。

虽然健康检查的失败次数是可以指定的,但一般都会设置多于1次防止误伤。另外,成功的检查只需一次即可。

keepalived支持4层、5层和7层的健康状况检查,按检查类型又可分为TCP检查(4层)、HTTP检查(5层)、SSL_HTTP检查(5层)以及自定义的MISC检查(可实现7层)。其中:

  • TCP_CHECK:通过TCP连接来检查后端RS是否健康。
  • HTTP_GET:通过获取指定页面来检查后端RS是否健康。是否健康是根据是否匹配digest、status_code来判断的。
  • SSL_GET:和HTTP_GET一样,只不过使用的协议是HTTPS。
  • MISC_CHECK:通过加载自定义健康状况检查的脚本来检查对象是否健康,要求这些脚本中健康与否的返回值为0或1。

使用MISC_CHECK检查时,方式如下:

MISC_CHECK {    misc_path /path_to_script/script.sh    (or misc_path “ /path_to_script/script.sh <arg_list>”)}

回到Linux系列文章大纲:http://www.cnblogs.com/f-ck-need-u/p/7048359.html
回到网站架构系列文章大纲:http://www.cnblogs.com/f-ck-need-u/p/7576137.html
回到数据库系列文章大纲:http://www.cnblogs.com/f-ck-need-u/p/7586194.html
转载请注明出处:http://www.cnblogs.com/f-ck-need-u/p/8483807.html

注:若您觉得这篇文章还不错请点击右下角推荐,您的支持能激发作者更大的写作热情,非常感谢!

最新文章

123

最新摄影

闪念基因

微信扫一扫

第七城市微信公众平台