【昊海 微营销 源码】【自助查询小程序源码】【类似汽车之家的源码】源码安装keepalived

时间:2024-11-25 02:57:00 来源:炫舞大喇叭源码 编辑:transe源码注释

1.keepalive部署虚拟IP项目
2.Keepalived原理与使用
3.Linux实现ARP缓存老化时间原理问题深入解析
4.运维工程师课程大纲
5.Nginx如何实现Nginx的源码高可用负载均衡?看完我也会了!!安装
6.mycat 高可用

源码安装keepalived

keepalive部署虚拟IP项目

       在..4.和..4.上部署虚拟IP,源码通过keepalive实现高可用性。安装

       在..4.配置(主):

       1. 安装依赖包(gcc,源码 gcc-c++, kernel-devel, openssl-devel, popt, libnl, libnl-devel)。

       2. 使用源码安装keepalive。安装昊海 微营销 源码

       3. 创建软链接,源码将keepalive文件链接至系统路径。安装

       4. 编辑配置文件(/etc/keepalive/keepalive.conf),源码设置router_id、安装虚拟路由ID、源码优先级和虚拟IP地址。安装

       5. 重启服务。源码

       在..4.配置(从):

       1. 安装依赖包。安装

       2. 使用源码安装keepalive。源码

       3. 创建软链接。

       4. 编辑配置文件(/etc/keepalive/keepalive.conf),设置为从机,并设置相关参数。

       5. 重启服务。

       Keepalived支持多种服务的高可用性,通过VRRP协议实现自动接管。

       查看部署的虚拟IP使用命令:ip addr。

       默认日志路径为:/var/log/messages。

       在...(nat公网)上部署虚拟IP..4.5:

       安装依赖包、源码安装keepalive、创建软链接、编辑配置文件、重启服务。

       完成配置后,使用命令检查进程和端口,验证虚拟IP部署成功。

Keepalived原理与使用

       部署与配置

       安装部署可选择在镜像站下载安装或通过官网下载源码编译安装。

       使用yum install keepalived或tar -zxvf keepalived-2.2.7.tar.gz、cd keepalived-2.2.7及./configure --prefix=/usr/local/keepalived --sysconf=/etc完成安装。

       针对可能出现的依赖错误,按照提示安装对应依赖包。

       完成安装后,需通过cd xxxx/keepalived-2.2.7/keepalived/etc将keepalived注册为系统服务,实现开机启动。

       主服务器配置(Master)

       完整的keepalived配置主要包含全局定义、VRRP实例定义及虚拟服务器定义三大部分。

       虚拟服务器定义用于健康监测与流量分发,区别于nginx等反向代理服务,keepalived专注于四层流量分发。

       若仅为高可用配置,虚拟服务器定义块非必要。自助查询小程序源码

       生产环境配置备服务器

       配置完成后重启keepalived服务,实现高可用部署。

       VIP无法ping通

       若配置了vrrp_strict,防火墙会自动生成规则,导致无法ping通主节点VIP。可调整配置避免生成该规则,但生产环境不建议开启此功能。

       非抢占模式下,未绑定VIP

       keepalived部署分为抢占与非抢占模式。选择模式依据需求,稳定性要求高时,建议使用非抢占模式。

       非抢占模式下,需配置以避免VIP无法绑定。

       同一网段下,virtual_router_id(VRID)不能重复

       VRID用于标识不同的VRRP组,同一网段下不能重复使用,否则可能引起错误。

Linux实现ARP缓存老化时间原理问题深入解析

       一.问题

       众所周知,ARP是一个链路层的地址解析协议,它以IP地址为键值,查询保有该IP地址主机的MAC地址。协议的详情就不详述了,你可以看RFC,也可以看教科书。这里写这么一篇文章,主要是为了做一点记录,同时也为同学们提供一点思路。具体呢,我遇到过两个问题:

       1.使用keepalived进行热备份的系统需要一个虚拟的IP地址,然而该虚拟IP地址到底属于哪台机器是根据热备群的主备来决定的,因此主机器在获得该虚拟IP的时候,必须要广播一个免费的arp,起初人们认为这没有必要,理由是不这么做,热备群也工作的很好,然而事实证明,这是必须的;

       2.ARP缓存表项都有一个老化时间,然而在linux系统中却没有给出具体如何来设置这个老化时间。那么到底怎么设置这个老化时间呢?

二.解答问题前的说明

       ARP协议的规范只是阐述了地址解析的细节,然而并没有规定协议栈的实现如何去维护ARP缓存。ARP缓存需要有一个到期时间,这是必要的,因为ARP缓存并不维护映射的状态,也不进行认证,因此协议本身不能保证这种映射永远都是类似汽车之家的源码正确的,它只能保证该映射在得到arp应答之后的一定时间内是有效的。这也给了ARP欺骗以可乘之机,不过本文不讨论这种欺骗。

       像Cisco或者基于VRP的华为设备都有明确的配置来配置arp缓存的到期时间,然而Linux系统中却没有这样的配置,起码可以说没有这样的直接配置。Linux用户都知道如果需要配置什么系统行为,那么使用sysctl工具配置procfs下的sys接口是一个方法,然而当我们google了好久,终于发现关于ARP的配置处在/proc/sys/net/ipv4/neigh/ethX的时候,我们最终又迷茫于该目录下的N多文件,即使去查询Linux内核的Documents也不能清晰的明了这些文件的具体含义。对于Linux这样的成熟系统,一定有办法来配置ARP缓存的到期时间,但是具体到操作上,到底怎么配置呢?这还得从Linux实现的ARP状态机说起。

       如果你看过《Understading Linux Networking Internals》并且真的做到深入理解的话,那么本文讲的基本就是废话,但是很多人是没有看过那本书的,因此本文的内容还是有一定价值的。

       Linux协议栈实现为ARP缓存维护了一个状态机,在理解具体的行为之前,先看一下下面的图(该图基于《Understading Linux Networking Internals》里面的图-修改,在第二十六章):

       在上图中,我们看到只有arp缓存项的reachable状态对于外发包是可用的,对于stale状态的arp缓存项而言,它实际上是不可用的。如果此时有人要发包,那么需要进行重新解析,对于常规的理解,重新解析意味着要重新发送arp请求,然后事实上却不一定这样,因为Linux为arp增加了一个“事件点”来“不用发送arp请求”而对arp协议生成的缓存维护的优化措施,事实上,这种措施十分有效。这就是arp的“确认”机制,也就是说,如果说从一个邻居主动发来一个数据包到本机,那么就可以确认该包的“上一跳”这个邻居是有效的,然而为何只有到达本机的包才能确认“上一跳”这个邻居的有效性呢?因为Linux并不想为IP层的处理增加负担,也即不想改变IP层的原始语义。

       Linux维护一个stale状态其实就是为了保留一个neighbour结构体,在其状态改变时只是个别字段得到修改或者填充。如果按照简单的实现,只保存一个reachable状态即可,其到期则删除arp缓存表项。gis编程python源码教程Linux的做法只是做了很多的优化,但是如果你为这些优化而绞尽脑汁,那就悲剧了...

三.Linux如何来维护这个stale状态

       在Linux实现的ARP状态机中,最复杂的就是stale状态了,在此状态中的arp缓存表项面临着生死抉择,抉择者就是本地发出的包,如果本地发出的包使用了这个stale状态的arp缓存表项,那么就将状态机推进到delay状态,如果在“垃圾收集”定时器到期后还没有人使用该邻居,那么就有可能删除这个表项了,到底删除吗?这样看看有木有其它路径使用它,关键是看路由缓存,路由缓存虽然是一个第三层的概念,然而却保留了该路由的下一条的ARP缓存表项,这个意义上,Linux的路由缓存实则一个转发表而不是一个路由表。

       如果有外发包使用了这个表项,那么该表项的ARP状态机将进入delay状态,在delay状态中,只要有“本地”确认的到来(本地接收包的上一跳来自该邻居),linux还是不会发送ARP请求的,但是如果一直都没有本地确认,那么Linux就将发送真正的ARP请求了,进入probe状态。因此可以看到,从stale状态开始,所有的状态只是为一种优化措施而存在的,stale状态的ARP缓存表项就是一个缓存的缓存,如果Linux只是将过期的reachable状态的arp缓存表项删除,语义是一样的,但是实现看起来以及理解起来会简单得多!

       再次强调,reachable过期进入stale状态而不是直接删除,是为了保留neighbour结构体,优化内存以及CPU利用,实际上进入stale状态的arp缓存表项时不可用的,要想使其可用,要么在delay状态定时器到期前本地给予了确认,比如tcp收到了一个包,要么delay状态到期进入probe状态后arp请求得到了回应。否则还是会被删除。

四.Linux的ARP缓存实现要点

       在blog中分析源码是儿时的记忆了,现在不再浪费版面了。只要知道Linux在实现arp时维护的几个定时器的要点即可。

       1.Reachable状态定时器

       每当有arp回应到达或者其它能证明该ARP表项表示的邻居真的可达时,启动该定时器。android系统源码下载迅雷到期时根据配置的时间将对应的ARP缓存表项转换到下一个状态。

       2.垃圾回收定时器

       定时启动该定时器,具体下一次什么到期,是根据配置的base_reachable_time来决定的,具体见下面的代码:

       复制代码

           

       代码如下:

       static void neigh_periodic_timer(unsigned long arg)

           {

           ...

           if (time_after(now, tbl-last_rand + * HZ)) { //内核每5分钟重新进行一次配置

           struct neigh_parms *p;

           tbl-last_rand = now;

           for (p = tbl-parms; p; p = p-next)

           p-reachable_time =

           neigh_rand_reach_time(p-base_reachable_time);

           }

           ...

           /* Cycle through all hash buckets every base_reachable_time/2 ticks.

           * ARP entry timeouts range from 1/2 base_reachable_time to 3/2

           * base_reachable_time.

           */

           expire = tbl-parms.base_reachable_time 1;

           expire /= (tbl-hash_mask + 1);

           if (!expire)

           expire = 1;

           //下次何时到期完全基于base_reachable_time);

           mod_timer(tbl-gc_timer, now + expire);

           ...

           }

           static void neigh_periodic_timer(unsigned long arg)

           {

           ...

           if (time_after(now, tbl-last_rand + * HZ)) { //内核每5分钟重新进行一次配置

           struct neigh_parms *p;

           tbl-last_rand = now;

           for (p = tbl-parms; p; p = p-next)

           p-reachable_time =

           neigh_rand_reach_time(p-base_reachable_time);

           }

           ...

           /* Cycle through all hash buckets every base_reachable_time/2 ticks.

           * ARP entry timeouts range from 1/2 base_reachable_time to 3/2

           * base_reachable_time.

           */

           expire = tbl-parms.base_reachable_time 1;

           expire /= (tbl-hash_mask + 1);

           if (!expire)

           expire = 1;

           //下次何时到期完全基于base_reachable_time);

           mod_timer(tbl-gc_timer, now + expire);

           ...

           }

       一旦这个定时器到期,将执行neigh_periodic_timer回调函数,里面有以下的逻辑,也即上面的...省略的部分:

       复制代码

           

       代码如下:

       if (atomic_read(n-refcnt) == 1 //n-used可能会因为“本地确认”机制而向前推进

           (state == NUD_FAILED ||time_after(now, n-used + n-parms-gc_staletime))) {

           *np = n-next;

           n-dead = 1;

           write_unlock(n-lock);

           neigh_release(n);

           continue;

           }

           if (atomic_read(n-refcnt) == 1 //n-used可能会因为“本地确认”机制而向前推进

           (state == NUD_FAILED ||time_after(now, n-used + n-parms-gc_staletime))) {

           *np = n-next;

           n-dead = 1;

           write_unlock(n-lock);

           neigh_release(n);

           continue;

           }

       如果在实验中,你的处于stale状态的表项没有被及时删除,那么试着执行一下下面的命令:

       [plain] view plaincopyprint?ip route flush cache

       ip route flush cache然后再看看ip neigh ls all的结果,注意,不要指望马上会被删除,因为此时垃圾回收定时器还没有到期呢...但是我敢保证,不长的时间之后,该缓存表项将被删除。

五.第一个问题的解决

       在启用keepalived进行基于vrrp热备份的群组上,很多同学认为根本不需要在进入master状态时重新绑定自己的MAC地址和虚拟IP地址,然而这是根本错误的,如果说没有出现什么问题,那也是侥幸,因为各个路由器上默认配置的arp超时时间一般很短,然而我们不能依赖这种配置。请看下面的图示:

       如果发生了切换,假设路由器上的arp缓存超时时间为1小时,那么在将近一小时内,单向数据将无法通信(假设群组中的主机不会发送数据通过路由器,排出“本地确认”,毕竟我不知道路由器是不是在运行Linux),路由器上的数据将持续不断的法往原来的master,然而原始的matser已经不再持有虚拟IP地址。

       因此,为了使得数据行为不再依赖路由器的配置,必须在vrrp协议下切换到master时手动绑定虚拟IP地址和自己的MAC地址,在Linux上使用方便的arping则是:

       [plain] view plaincopyprint?arping -i ethX -S 1.1.1.1 -B -c 1

       arping -i ethX -S 1.1.1.1 -B -c 1这样一来,获得1.1.1.1这个IP地址的master主机将IP地址为...的ARP请求广播到全网,假设路由器运行Linux,则路由器接收到该ARP请求后将根据来源IP地址更新其本地的ARP缓存表项(如果有的话),然而问题是,该表项更新的结果状态却是stale,这只是ARP的规定,具体在代码中体现是这样的,在arp_process函数的最后:

       复制代码

           

       代码如下:

       if (arp-ar_op != htons(ARPOP_REPLY) || skb-pkt_type != PACKET_HOST)

           state = NUD_STALE;

           neigh_update(n, sha, state, override ? NEIGH_UPDATE_F_OVERRIDE : 0);

           if (arp-ar_op != htons(ARPOP_REPLY) || skb-pkt_type != PACKET_HOST)

           state = NUD_STALE;

           neigh_update(n, sha, state, override ? NEIGH_UPDATE_F_OVERRIDE : 0);

       由此可见,只有实际的外发包的下一跳是1.1.1.1时,才会通过“本地确认”机制或者实际发送ARP请求的方式将对应的MAC地址映射reachable状态。

       更正:在看了keepalived的源码之后,发现这个担心是多余的,毕竟keepalived已经很成熟了,不应该犯“如此低级的错误”,keepalived在某主机切换到master之后,会主动发送免费arp,在keepalived中有代码如是:

       复制代码

           

       代码如下:

       vrrp_send_update(vrrp_rt * vrrp, ip_address * ipaddress, int idx)

           {

           char *msg;

           char addr_str[];

           if (!IP_IS6(ipaddress)) {

           msg = "gratuitous ARPs";

           inet_ntop(AF_INET, ipaddress-u.sin.sin_addr, addr_str, );

           send_gratuitous_arp(ipaddress);

           } else {

           msg = "Unsolicited Neighbour Adverts";

           inet_ntop(AF_INET6, ipaddress-u.sin6_addr, addr_str, );

           ndisc_send_unsolicited_na(ipaddress);

           }

           if (0 == idx debug ) {

           log_message(LOG_INFO, "VRRP_Instance(%s) Sending %s on %s for %s",

           vrrp-iname, msg, IF_NAME(ipaddress-ifp), addr_str);

           }

           }

           vrrp_send_update(vrrp_rt * vrrp, ip_address * ipaddress, int idx)

           {

           char *msg;

           char addr_str[];

           if (!IP_IS6(ipaddress)) {

           msg = "gratuitous ARPs";

           inet_ntop(AF_INET, ipaddress-u.sin.sin_addr, addr_str, );

           send_gratuitous_arp(ipaddress);

           } else {

           msg = "Unsolicited Neighbour Adverts";

           inet_ntop(AF_INET6, ipaddress-u.sin6_addr, addr_str, );

           ndisc_send_unsolicited_na(ipaddress);

           }

           if (0 == idx debug ) {

           log_message(LOG_INFO, "VRRP_Instance(%s) Sending %s on %s for %s",

           vrrp-iname, msg, IF_NAME(ipaddress-ifp), addr_str);

           }

           }

六.第二个问题的解决

       扯了这么多,在Linux上到底怎么设置ARP缓存的老化时间呢?

       我们看到/proc/sys/net/ipv4/neigh/ethX目录下面有多个文件,到底哪个是ARP缓存的老化时间呢?实际上,直接点说,就是base_reachable_time这个文件。其它的都只是优化行为的措施。比如gc_stale_time这个文件记录的是“ARP缓存表项的缓存”的存活时间,该时间只是一个缓存的缓存的存活时间,在该时间内,如果需要用到该邻居,那么直接使用表项记录的数据作为ARP请求的内容即可,或者得到“本地确认”后直接将其置为reachable状态,而不用再通过路由查找,ARP查找,ARP邻居创建,ARP邻居解析这种慢速的方式。

       默认情况下,reachable状态的超时时间是秒,超过秒,ARP缓存表项将改为stale状态,此时,你可以认为该表项已经老化到期了,只是Linux的实现中并没有将其删除罢了,再过了gc_stale_time时间,表项才被删除。在ARP缓存表项成为非reachable之后,垃圾回收器负责执行“再过了gc_stale_time时间,表项才被删除”这件事,这个定时器的下次到期时间是根据base_reachable_time计算出来的,具体就是在neigh_periodic_timer中:

       复制代码

           

       代码如下:

       if (time_after(now, tbl-last_rand + * HZ)) {

           struct neigh_parms *p;

           tbl-last_rand = now;

           for (p = tbl-parms; p; p = p-next)

           //随计化很重要,防止“共振行为”引发的ARP解析风暴

           p-reachable_time =neigh_rand_reach_time(p-base_reachable_time);

           }

           ...

           expire = tbl-parms.base_reachable_time 1;

           expire /= (tbl-hash_mask + 1);

           if (!expire)

           expire = 1;

           mod_timer(tbl-gc_timer, now + expire);

           if (time_after(now, tbl-last_rand + * HZ)) {

           struct neigh_parms *p;

           tbl-last_rand = now;

           for (p = tbl-parms; p; p = p-next)

           //随计化很重要,防止“共振行为”引发的ARP解析风暴

           p-reachable_time =neigh_rand_reach_time(p-base_reachable_time);

           }

           ...

           expire = tbl-parms.base_reachable_time 1;

           expire /= (tbl-hash_mask + 1);

           if (!expire)

           expire = 1;

           mod_timer(tbl-gc_timer, now + expire);

       可见一斑啊!适当地,我们可以通过看代码注释来理解这一点,好心人都会写上注释的。为了实验的条理清晰,我们设计以下两个场景:

       1.使用iptables禁止一切本地接收,从而屏蔽arp本地确认,使用sysctl将base_reachable_time设置为5秒,将gc_stale_time为5秒。

       2.关闭iptables的禁止策略,使用TCP下载外部网络一个超大文件或者进行持续短连接,使用sysctl将base_reachable_time设置为5秒,将gc_stale_time为5秒。

       在两个场景下都使用ping命令来ping本地局域网的默认网关,然后迅速Ctrl-C掉这个ping,用ip neigh show all可以看到默认网关的arp表项,然而在场景1下,大约5秒之内,arp表项将变为stale之后不再改变,再ping的话,表项先变为delay再变为probe,然后为reachable,5秒之内再次成为stale,而在场景2下,arp表项持续为reachable以及dealy,这说明了Linux中的ARP状态机。那么为何场景1中,当表项成为stale之后很久都不会被删除呢?其实这是因为还有路由缓存项在使用它,此时你删除路由缓存之后,arp表项很快被删除。

七.总结

       1.在Linux上如果你想设置你的ARP缓存老化时间,那么执行sysctl -w net.ipv4.neigh.ethX=Y即可,如果设置别的,只是影响了性能,在Linux中,ARP缓存老化以其变为stale状态为准,而不是以其表项被删除为准,stale状态只是对缓存又进行了缓存;

       2.永远记住,在将一个IP地址更换到另一台本网段设备时,尽可能快地广播免费ARP,在Linux上可以使用arping来玩小技巧。

运维工程师课程大纲

       运维工程师课程大纲分为三个等级,从基础班至高级班,逐步深入。

       基础班课程涵盖了Linux学习方法论,如VMware虚拟机的使用和企业常用服务器(如DELL、IBM、HP)的介绍。学习内容包括Linux系统简介、安装、远程工具使用、常用命令,如Vim编辑器,以及系统启动过程、用户与组管理、磁盘与文件系统管理(parted)、LVM逻辑卷管理、RAID管理、软件包管理(RPM/YUM源码包安装)等。此外,进程管理、计划任务、系统监控和日志管理也是基础部分的重要内容。

       中级班深化了服务管理,如FTP/SAMBA/NFS、IP网络存储ISCSI、DHCP、NTP、DNS等,还包括Web服务器(如Apache、Nginx)的配置。高性能HTTP加速器Varnish、数据备份工具rsync/unison、Tomcat和MySQL数据库基础也是中级课程的亮点。

       高级班则涉及云计算领域的技术,如XEN环境和KVM环境部署,版本控制(SVN、CVS、GIT)的使用,以及RPM包构建、PAM和SELinux等高级安全策略。此外,还会学习用户身份验证的集中管理、NFSv4安全性提升、系统调优和性能优化、Linux集群技术(如Heartbeat、Keepalived、LVS、RHCS)以及CDN、Squid、Memcached和分布式存储系统(MFS、MooseFS)等实战应用。

Nginx如何实现Nginx的高可用负载均衡?看完我也会了!!

       编写文章以介绍如何实现Nginx的高可用负载均衡,根据读者需求,提供了一个详细的指南。Keepalived被用于实现服务器的高可用性或热备,与Nginx结合,可以实现web前端服务的高可用性。Keepalived基于VRRP协议,通过虚拟路由器冗余协议将多台路由器虚拟为一个设备,主路由器(MASTER)负责对外提供虚拟路由器IP,而备份路由器(BACKUP)在主路由器失效时接管网络功能。VRRP协议通过多播数据传输,确保主路由器状态的及时更新。

       为了实现Nginx的高可用负载均衡,首先需要准备和安装相关软件环境,包括操作系统、依赖库(如openssl、pcre、zlib)以及nginx-rtmp-module。在安装Nginx时,需要指定依赖库的源码解压目录,并确保Nginx配置文件的完整路径为/usr/local/nginx-1..1/conf/nginx.conf。

       接下来,配置Nginx,包括修改欢迎首页内容以区分两个节点的Nginx实例。需要在服务器上执行特定命令编辑nginx.conf文件,并添加相应代码段。同时,开放Nginx所需的端口并配置防火墙,以确保Nginx服务的正常运行。

       安装Keepalived以实现Nginx高可用性。从官方链接下载并上传或下载Keepalived(版本1.2.),解压后安装,确保将其安装为Linux系统服务。复制默认配置文件和服务脚本到默认路径,并设置开机启动。编写Nginx状态检测脚本,用于在Nginx服务异常时自动重启Keepalived服务。

       最后,同时启动Nginx和Keepalived服务。通过虚拟IP地址访问Nginx,进行高可用性测试。如果主节点失效,备份节点将接管服务。整个过程确保了Nginx负载均衡的高可用性。

       实现Keepalived + Nginx高可用负载均衡,不仅提高了系统的稳定性和可靠性,也为读者提供了详细的实施步骤。通过关注公众号获取更多技术资料,持续学习,实现技术能力的提升。

mycat 高可用

       mycat 高可用

       mycat 可通过 zookeeper 集群进行配置文件管理。

       1.1 搭建 zookeeper 集群

       此处不做 zookeeper集群搭建讲解

       1.2 配置mycat支持zookeeper

       修改 mycat conf 目录下myid.properties

       loadZk=true # zk集群地址,多个用","隔开 zkURL=..3.:,..3.:,..3.: # zk集群内Mycat集群ID clusterId=mycat-cluster-1 # Mycat集群内本实例ID,禁止重复 myid=mycat_fz_ # Mycat集群内节点个数 clusterSize=3 #集群内所有节点的 id clusterNodes=mycat_fz_,mycat_fz_,mycat_fz_ #server booster ; booster install on db same server,will reset all minCon to 1 type=server boosterDataHosts=dataHost1

       1.3 自定义配置

       将需要修改的配置文件替换到 conf 目录中的 zkconf 目录下,只需要在一台机器修改即可,需要注意 conf目录中的 server.xml 中用户名和密码与 zkconf 中的不一致

       1.4 上传配置

       执行修改了配置文件的 mycat 下的bin 目录下的initzkdata.sh,上传配置文件,(在修改了配置文件的机器上执行)

       ./initzkdata.sh

       1.5 启动所有 mycat

       启动后发现其他 mycat conf 下的配置文件已经自动变化为修改的内容,是zookeeper 中下载的

       2. 使用的是 lvs+keepalived 的方式

       此处使用的是 lvs+keepalived 的方式实现mycat高可用负载均衡集群

       2.1 配置环境

       角色 主机IP 主机名 操作系统版本 软件版本

       VIP ..3.

       LVS-DR-Master ..3. keepalived CentOS6.9 Keepalived v1.2.,LVS 1.2.1

       LVS-DR-Backup ..3. keepalived CentOS6.9 Keepalived v1.2.,LVS 1.2.1

       mycat-Realserver ..3. mycat CentOS6.9 mycat v1.6.5

       mycat-Realserver ..3. mycat CentOS6.9 mycat v1.6.5

       mycat-Realserver ..3. mycat CentOS6.9 mycat v1.6.5

       2.2 安装keepalived和ipvsadm

       注意:ipvsadm并不是lvs,它只是lvs的配置工具。在 CentOS1.1 的内核版本中是默认支持的。因此,这里不需要重新安装。使用 yum 的安装方式,分别在 keepalived 和 keepalived 两台主机上安装 keepalived 和 ipvsadm。除了这种简易方式外,也可直接编译官方的源码包。安装步骤可参考文档。

       2.3 配置Keepalived

       2.3.1 master

       vi /etc/keepalived/keepalived.conf

       配置详细内容如下,注意优先级、状态、接口、虚拟IP地址、负载调度算法、服务器节点配置、检查间隔、会话保持时间、协议类型等参数设置。

       2.3.2 backup

       备份机配置与主机一致,除了优先级和状态修改外。

       在配置文件中,特别需要注意的是interface的修改,根据实际情况进行相应的修改。

       2.4 安装配置 mycat

       安装mycat请参考相关文档。

       2.4.1 绑定虚拟 vip

       在mycat服务器上为lo:0绑定VIP地址、抑制ARP广播。

       执行脚本./realserver.sh start在mycat和mycat、mycat三台主机上。

       2.4.2 查看

       运行 ifconfig 查看结果。

       2.5 启动 keeplive

       分别在keepalived和keepalived上启动Keepalived服务。

       2.5.1 查看

       通过ipvsadm -L 查看映射。

       2.5.2 测试

       通过一台装有 mysql的机器连接虚拟 ip 发现可以登录数据库。

       2.5.3 查看转发

       再次在 keepalived 的机器执行ipvsadm -L,发现被转到上面一次。

       2.5.4 负载均衡方式

       与配置相关,多次都指向一个机器,因为我们在 keepalived 的配置文件中persistence_timeout属性指定为,则代表秒内同一个机器来的请求会被 hash 一致性分配。如果想实现严格意义上面的轮询,修改为0即可。

copyright © 2016 powered by 皮皮网   sitemap