本文共 10086 字,大约阅读时间需要 33 分钟。
18.3 用keepalived配置高可用集群(上)
用keepalive配置高可用准备两台机器128和129 128作为master,129作为backup两台机器都执行yum install -y keepalivednginx相当于keepalived实现高可用的对象,。两台机器都安装nginx,其中128上已经编译安装过nginx,129上需要yum先安装nginx。yum -y install gcc gcc-c++ autoconf automake make //安装gcc编译器nginx需要先安装pcre,rpm -qa |grep nginx //查看是否安装了配置主 MASTER1)关闭防火墙和selinuxiptables -Fiptables -nvLsetenforce 02)在master:128上编辑keepalived配置文件, 设定vip为100vim /etc/keepalived/keepalived.conf ,/etc/keepalived/keepalived.conf 清空配置文件
内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_keepalived.conf获取如下:global_defs { notification_email { aming@aminglinux.com #有问题时发邮件}notification_email_from root@aminglinux.comsmtp_server 127.0.0.1smtp_connect_timeout 30router_id LVS_DEVEL}vrrp_script chk_nginx { script "/usr/local/sbin/check_ng.sh" #监控的脚本interval 3}vrrp_instance VI_1 { state MASTER #主interface ens33 #网卡名virtual_router_id 51 #路由器的IDpriority 100 #主权重advert_int 1authentication { auth_type PASS #密码认证auth_pass aminglinux>com #认证的密码}virtual_ipaddress { 192.168.188.100#当主有问题时,主变从时公用的IP,要在ip add 内}track_script { chk_nginx #加载脚本} }3)在master:128编辑监控脚本,vim /usr/local/sbin/check_ng.sh内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_checkng.sh获取#!/bin/bash#时间变量,用于记录日志d=`date --date today +%Y%m%d%H:%M:%S<br/>#计算nginx进程数量<br/>n=
ps -C nginx --no-heading|wc -l<br/>#如果进程为0,则启动nginx,并且再次检测nginx进程数量,<br/>#如果还为0,说明nginx无法启动,此时需要关闭keepalived<br/>if [ $n -eq "0" ]; then<br/>/etc/init.d/nginx start<br/>n2=
ps -C nginx --no-heading|wc -l`if [ $n2 -eq "0" ]; thenecho "$d nginx down,keepalived will stop" >> /var/log/check_ng.logsystemctl stop keepalivedfifi
给脚本755权限
chmod 755 /usr/local/sbin/check_ng.shsystemctl start keepalived 启动服务ps aux | grep keepalived 查看是否启动了使用 /etc//init.d/nginx stop 停止发现会自动加载nginx,,,,不成功???
18.4 用keepalived配置高可用集群(中)
配置从BACKUP1)关闭防火墙和selinuxiptables -Fiptables -nvLsetenforce 02)在backup:129上编辑keepalived配置文件vim /etc/keepalived/keepalived.conf ,/etc/keepalived/keepalived.conf 清空配置文件
内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_keepalived.conf获取global_defs { notification_email {
3)在backup:129编辑监控脚本,
vim /usr/local/sbin/check_ng.sh内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_checkng.sh获取#时间变量,用于记录日志d=`date --date today +%Y%m%d%H:%M:%S<br/>#计算nginx进程数量<br/>n=
ps -C nginx --no-heading|wc -l<br/>#如果进程为0,则启动nginx,并且再次检测nginx进程数量,<br/>#如果还为0,说明nginx无法启动,此时需要关闭keepalived<br/>if [ $n -eq "0" ]; then<br/>systemctl start nginx<br/>n2=
ps -C nginx --no-heading|wc -l`if [ $n2 -eq "0" ]; thenecho "$d nginx down,keepalived will stop" >> /var/log/check_ng.logsystemctl stop keepalivedfifichmod 755 /usr/local/sbin/check_ng.shsystemctl start keepalived 启动服务ps aux | grep keepalived 查看是否启动了 测试:
在浏览器访问128--129--100发现100访问会访问到主128。18.5 用keepalived配置高可用集群(下)
测试高可用:先确定好两台机器上nginx差异,比如可以通过curl -I 来查看nginx版本测试1:关闭master上的nginx服务 能自动的将nginx启动起来??未成功测试2:在master上增加iptabls规则iptables -I OUTPUT -p vrrp -j DROP测试3:关闭master上的keepalived服务用 ip add 查看vip100只在master上,从上没有100;关闭master上的keepalived服务后,从上有了100。此时用web访问192.168.188.100,访问到了从 Backup上
测试4:启动master上的keepalived服务此时用web访问192.168.188.100,又访问到了主master上mysql,nginx才是实际运行的服务,keepalived只是用来搭建高可用集群,供nginx服务实现高可用。
18.6 负载均衡集群介绍
主流开源软件LVS、keepalived、haproxy、nginx等其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用keepalived的负载均衡功能其实就是lvslvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求18.7 LVS介绍
LVS是由国人章文嵩开发流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高LVS最新版本基于Linux内核2.6,有好多年不更新了LVS有三种常见的模式:NAT、DR、IP TunnelLVS架构中有一个核心角色叫做分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)1) LVS NAT模式 这种模式借助iptables的nat表来实现用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去rs需要设定网关为分发器的内网ip。用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈。在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源。2) LVS IP Tunnel模式这种模式,都需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip。
客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上。rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。3) LVS DR模式这种模式,也都需要有一个公共的IP配置在分发器和所有rs上,也就是vip。
和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址。rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。18.8 LVS调度算法
轮询 Round-Robin rr加权轮询 Weight Round-Robin wrr最小连接 Least-Connection lc加权最小连接 Weight Least-Connection wlc------前四种重要----基于局部性的最小连接 Locality-Based Least Connections lblc带复制的基于局部性最小连接 Locality-Based Least Connections with Replication lblcr目标地址散列调度 Destination Hashing dh源地址散列调度 Source Hashing sh18.9 NAT模式搭建(上) – 准备工作
1)需要准备两台rs机器rs1 内网:192.168.188.129 设置网关为dir的网关192.168.188.128rs2 内网:192.168.188.137 设置网关未dir的网关192.168.188.128克隆主机,编辑配置文件,重新获取ip,查看ip,修改主机名并在xshell中新建连接vi /etc/sysconfig/network-srcipts/ifcfg-ens33IPADDR=192.168.188.137systemctl restart network.servicedhclientip addrhostnamectl set-hostname aming-03bash2)准备一台分发器,也叫调度器(简写为dir)内网:192.168.188.128,外网:192.168.142.147(vmware仅主机模式)需要新添加一个网卡,在虚拟机上--设置--网络适配器--添加仅主机模式网卡--修改一下网段。编辑网卡vi /etc/sysconfig/network-scripts/ifcfg-ens37
systemctl restart network.servicedhclientip addr18.10NAT 模式搭建(下)
实现LVS的工具 ipvsadm,只需要在主dir:128上安装ipvsadm。(1)在dir:128上安装ipvsadm,并 编写脚本yum install -y ipvsadmvim /usr/local/sbin/lvs_nat.sh//内容如下#! /bin/bashecho 1 > /proc/sys/net/ipv4/ip_forward
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirectsecho 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirectsiptables -t nat -F
iptables -t nat -Xiptables -t nat -A POSTROUTING -s 192.168.188.0/24 -j MASQUERADEIPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C$IPVSADM -A -t 192.168.142.147:80 -s rr#算法均衡,容易看出区别$IPVSADM -a -t 192.168.142.147:80 -r 192.168.188.129:80 -m -w 1$IPVSADM -a -t 192.168.142.147:80 -r 192.168.188.137:80 -m -w 1sh /usr/local/sbin/lvs_nat.sh //执行脚本,不出错,表示成功。ipvsadm -ln 查看链接NAT模式效果测试
两台rs上都安装nginx设置两台rs的主页,做一个区分,也就是说直接curl两台rs的ip时,得到不同的结果。vim /usr/share/nginx/html/index.html在 三个客户端访问curl localhost ,查看再使用curl 192.168.142.147 访问外网,多访问几次看结果差异依次交替访问两个129和137。18.11 DR模式搭建--准备工作
将rs1=192.168.188.129与rs2=192.168.188.137的网关改成默认192.168.188.2编辑网卡 vi /etc/sysconfig/network-scripts/ifcfg-ens33重启服务 systemctl restart network.service在主128上虚拟一个ip:192.168.188.200,做转发。(1)dir:128上编写脚本 vim /usr/local/sbin/lvs_dr.sh //内容如下//#! /bin/bashecho 1 > /proc/sys/net/ipv4/ip_forward #打开端口映射ipv=/usr/sbin/ipvsadmvip=192.168.188.200rs1=192.168.188.129rs2=192.168.188.137#注意这里的网卡名字ifdown ens33ifup ens33 ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 uproute add -host $vip dev ens33:2$ipv -C$ipv -A -t $vip:80 -s wrr$ipv -a -t $vip:80 -r $rs1:80 -g -w 1$ipv -a -t $vip:80 -r $rs2:80 -g -w 1//sh /usr/local/sbin/lvs_dr.sh 运行一下脚本(2) 两台rs上也编写脚本 vim /usr/local/sbin/lvs_rs.sh//内容如下/#/bin/bashvip=192.168.188.200#把vip绑定在lo上,是为了实现rs直接把结果返回给客户端ifdown loifup loifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 uproute add -host $vip lo:0#以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端#参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.htmlecho "1" >/proc/sys/net/ipv4/conf/lo/arp_ignoreecho "2" >/proc/sys/net/ipv4/conf/lo/arp_announceecho "1" >/proc/sys/net/ipv4/conf/all/arp_ignoreecho "2" >/proc/sys/net/ipv4/conf/all/arp_announce//执行脚本 sh /usr/local/sbin/lvs_rs.shroute -n ip addr测试:
iptables -t nat -nvLiptables -t nat -F ipvsadm -ln18.11 Keepalived+LVS DR
完整架构需要两台服务器(角色为dir)分别安装keepalived软件,目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived, keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本三台机器分别为:dir(安装keepalived)188.128rs1 188.129rs2 188.137vip 188.200编辑keepalived配置文件 vim /etc/keepalived/keepalived.conf //内容请到https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/lvs_keepalived.conf 获取
/vrrp_instance VI_1 { #备用服务器上为 BACKUPstate MASTER#绑定vip的网卡为ens33,你的网卡和阿铭的可能不一样,这里需要你改一下interface ens33virtual_router_id 51#备用服务器上为90priority 100advert_int 1authentication { auth_type PASSauth_pass aminglinux}virtual_ipaddress { 192.168.188.200}}virtual_server 192.168.188.200 80 { #(每隔10秒查询realserver状态)delay_loop 10#(lvs 算法)lb_algo wlc#(DR模式)lb_kind DR#(同一IP的连接60秒内被分配到同一台realserver)persistence_timeout 0#(用TCP协议检查realserver状态)protocol TCPreal_server 192.168.188.129 80 { #(权重)weight 100TCP_CHECK { #(10秒无响应超时)connect_timeout 10nb_get_retry 3delay_before_retry 3connect_port 80}}real_server 192.168.188.137 80 { weight 100TCP_CHECK { connect_timeout 10nb_get_retry 3delay_before_retry 3connect_port 80}}}需要更改里面的ip信息执行ipvsadm -C 把之前的ipvsadm规则清空掉,没有了虚拟Ip200systemctl start keepalived 启动keepalivedip addr 又出现了虚拟ip 200 systemctl restart network 可以把之前的vip清空掉两台rs上,依然要执行/usr/local/sbin/lvs_rs.sh脚本总结:keepalived有一个比较好的功能,可以在一台rs宕机时,不再把请求转发过去转载于:https://blog.51cto.com/iammalt/2106184