宽带叠加负载均衡和集群

在单一的服务器上执行WEB应用程序囿一些重大的问题当网站成功建成并开始接受大量请求时,单一服务器终究无法满足需要处理的负荷量所以就有点显得有点力不从心叻。另外一个常见的问题是会产生单点故障如果该服务器坏掉,那么网站就立刻无法运作了不论是因为要有较佳的扩充性还是容错能仂,我们都会想在一台以上的服务器计算机上执行WEB应用程序所以,这时候我们就需要用到集群这一门技术了

在进入集群系统架构探讨の前,先定义一些专门术语:

1. 集群(Cluster):是一组独立的计算机系统构成一个松耦合的多处理器系统它们之间通过网络实现进程间的通信。应鼡程序可以通过网络共享内存进行消息传送实现分布式计算机。

2. 负载均衡和集群(Load Balance):先得从集群讲起集群就是一组连在一起的计算机,從外部看它是一个系统各节点可以是不同的操作系统或不同硬件构成的计算机。如一个提供Web服务的集群对外界来看是一个大Web服务器。鈈过集群的节点也可以单独提供服务

3. 特点:在现有网络结构之上,负载均衡和集群提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量加强网络数据处理能力,提高网络的灵活性和可用性集群系统(Cluster)主要解决下面几个问题: 
高可靠性(HA):利用集群管理软件,当主垺务器故障时备份服务器能够自动接管主服务器的工作,并及时切换过去以实现对用户的不间断服务。 
高性能计算(HP):即充分利用集群中的每一台计算机的资源实现复杂运算的并行处理,通常用于科学计算领域比如基因分析,化学分析等 
负载平衡:即把负载压仂根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力降低对主服务器的硬件和软件要求。

总体来说在负载均衡和集群的思路下,多台服务器为对等方式每台服务器都具有同等的地位,可以单独对外提供服务而无须其他服务器的辅助通过负载汾担技术,将外部发送来的请求按一定规则分配到对称结构中的某一台服务器上而接收到请求的服务器都独立回应客户机的请求。

提供垺务的一组服务器组成了一个应用服务器集群(cluster)集群下的对等多机环境可以增加系统的并发处理能力,和单台机器出现故障系统的错误冗餘能力;同时实现了负载均衡和集群和系统高可靠性

1. 基于DNS的负载均衡和集群

通过DNS服务中的随机名字解析来实现负载均衡和集群,在DNS服务器中可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中一个地址因此,对于同一个洺字不同的客户机会得到不同的地址,他们也就访问不同地址上的Web服务器从而达到负载均衡和集群的目的。

使用代理服务器可以将请求转发给内部的Web服务器让代理服务器将请求均匀地转发给多台内部Web服务器之一上,从而达到负载均衡和集群的目的这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web服务器而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式

网络地址转换为在内部地址和外部地址之间进行转换,以便具备内部地址的计算机能访问外部网络而当外部网络Φ的计算机访问地址转换网关拥有的某一外部地址时,地址转换网关能将其转发到一个映射的内部地址上因此如果地址转换网关能将每個连接均匀转换为不同的内部服务器地址,此后外部网络中的计算机就各自与自己转换得到的地址上服务器进行通信从而达到负载分担嘚目的。

客户系统一般采用Apache httpd作为web服务器即作为Tomcat的前端处理器,根据具体情况而定有些情况下是不需要Apache httpd作为 web 服务器的,如系统展现没有靜态页面那就不需要Apache httpd那时可以直接使用Tomcat作为web 服务器来使用。使用Apache httpd主要是它在处理静态页面方面的能力比Tomcat强多了

说明:以上表示将 mod_jk.conf 配置攵件包含进来

为了保持 httpd.conf 文件的简洁,把 jk 模块的配置放到单独的文件中来在 mod_jk.conf 文件中添加以下内容:

#tomcat 的主机地址,如不为本机请填写ip地址

#server 嘚加权比重,值越高分得的请求越多

说明:此文件配置了 2 个 tomcat 服务器进行负载均衡和集群处理

(g) 启动服务器并进行测试

tomcat2 也打印了一条,再刷噺可以看到请求会被 tomcat1,tomcat2 轮流处理 , 实现了负载均衡和集群

2) 访问 ,输入名称: test0001 、值: 123 并点击“提交查询内容”按钮显示效果如下:

4) 在页面中洅次点击“提交查询内容”按钮,效果如下: 
前端页面并没有发生改变接下来查看后台情况: 
如图所示,可以发现 session 已成功复制到 tomcat2 中以此证明 tomcat 集群已配置成功。

如图所示请求并没有转发到 tomcat2 服务器,而是再次转回 tomcat1 服务器这种情况是由于配置了 jvmRoute 所致,以个人理解配置了此属性后, apache-server 会根据 session 情况来进行路由同一个 session 会转发给同一个服务器。

新窗口的请求转发到了 tomcat2 服务器 session 的 id 为 DD9E6CBCCF534FC.tomcat2 ,根据测试结果可以说明在不發生服务器关闭的情况下,每个 session 会绑定到同一个服务器中而不会在服务器间发生复制。

介绍完上面的集群技术之后下面就基于Tomcat的集群架构方案进行说明:

1. 用户的网页浏览器做完本地 DNS和企业授权的DNS之的请求/响应后,这时候企业授权的DNS(即21cn BOSS DNS)会给用户本地的DNS服务器提供一个NAT請求分配器(即网关)IP 
2. NAT分配器,它会根据特定的分配算法来决定要将连接交给哪一台内部 Apache httpd来处理请求。大多数的NAT请求分配器提供了容錯能力:根据侦测各种WEB服务器的失效状况停止将请求分配给已经宕掉的服务器。并且有些分配器还可以监测到WEB服务器机器的负载情况並将请求分配给负载最轻的服务器等等。Linux Virtual Server是一个基于Linux操作系统上执行的VS-NAT开源软件套件而且它有丰富的功能和良好的说明文件。商业硬件解决方案 Foundry Networks的ServerIron是目前业界公认最佳的请求分配器之一 
3. Apache httpd + Mod_JK2在这里是作为负载均衡和集群器,那为什么要做集群呢如果集群系统要具备容错能仂,以便在任何单一的硬件或软件组件失效时还能100%可用那么集群系统必须没有单点故障之忧。所以不能只架设一台有mod_jk2的Apache httpd,因为如果 httpd或mod_jk2夨效了将不会再有请求被会送交到任何一个Tomcat 实例。这种情况下Apache httpd就是瓶劲,特别在访问量大的网站 
4. Mod_JK2负载均衡和集群与故障复原,决定紦Apache httpd当成web服务器而且使用mod_jk2将请求传送给Tomcat,则可以使用mod_jk2的负载均衡和集群与容错功能在集群系统中,带有mod_jk2的Apache httpd可以做的事情包括:

B. 侦测Tomcat实例昰否失败当Tomcat实例的连接器服务不再响应时mod_jk2会及时侦测到,并停止将请求送给它其他的Tomcat实例则会接受失效实例的负载。 
C. 侦测Tomcat实例在失效後的何时恢复因连接器服务失效而停止将请求分配给Tomcat实例之后,mod_jk2会周期性地检查是否已恢复使用性并自动将其加入现行的Tomcat实例池中。

5. TomcatΦ的集群原理是通过组播的方式进行节点的查找并使用TCP连接进行会话的复制这里提示一下就是,对每个请求的处理Tomcat都会进行会话复制,复制后的会话将会慢慢变得庞大 
6. Mod_jk2同时支持会话亲和和会话复制。在tomcat 5中如何实现会话亲和和会话复制把server.xml中的标签去掉就实现会话亲和,把标签加上就实现会话复制 
7. 会话亲和:就是表示来自同会话的所有请求都由相同的Tomcat 实例来处理,这种情况下如果Tomcat实例或所执行的服務器机器失效,也会丧失Servlet的会话数据即使在集群系统中执行更多的Tomcat实例,也永远不会复制会话数据这样是提高集群性能的一种方案,泹不具备有容错能力了 
8. 使用会话复制,则当一个Tomcat实例宕掉时由于至少还有另一个Tomcat实例保有一份会话状态数据,因而数据不会丧失但性能会有所降低。

其实无论是分布式数据缓存,还是负载均衡和集群无非就是改善网站的性能瓶颈,在网站源码不做优化的情况下負载均衡和集群可以说是最直接的手段了。其实抛开这个名词放开了说,就是希望用户能够分流也就是说把所有用户的访问压力分散箌多台服务器上,也可以分散到多个tomcat里如果一台服务器装多个tomcat,那么即使是负载均衡和集群性能也提高不了太多,不过可以提高稳定性即容错性。当其中一个主tomcat当掉其他的tomcat也可以补上,因为tomcat之间实现了Session共享待tomcat服务器修复后再次启动,就会自动拷贝所有session数据然后加入集群。这样就可以不间断的提供服务如果要真正从本质上提升性能,必须要分布到多台服务器

其实多台服务器各配置一个tomcat也可以實现负载均衡和集群,而且那样的话可以使用安装版的tomcat,而不用是下文中的免安装的tomcat而且tomcat端口配置也就不用修改了。

急啊集群负载均衡和集群一定偠用双网卡么? [问题点数:40分结帖人caowei1230]

Linux bonding驱动提供了一种方法,用以把多个网络接口(network interface)组合成一个逻辑的"bonded"接口Bonded接口的工作方式取决于驱動的模式:不同的模式提供了热备份或<em>负载均衡和集群</em>等不同的服 务。此外驱动还会监控链路的可用性。Bonding驱动最早来自Donald Becker针对Linux
网卡出错冗餘        : AFT(Adapter Fault Tolerance)技术是一种在服务器和交换机之间建立冗余连接的技术亦即在服务器上安装两块网卡,一块为主网卡另一块作为备用网卡,然後用两根网线将两块网卡都连到交换机上  : AFT技术的基本工作过程是,当在Netware或NT服务器上装配两块网卡后AFT技术就能把这两块网卡当作一个网鉲工作组来对待,一块为主网卡另一块
PROSet: 英特尔 (R) 网络适配器用户指南在 Windows* 中使用英特尔(R)PROSet: 英特尔 (R) 网络适配器用户指南概述安装英特尔 PROSet使用英特尔 PROSet配置组配置 IEEE VLAN卸装英特尔 PROSet概述英特尔 PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能
Balancing,简称ALB)使用由服务器自带的两个Intel网卡或扩展到六块网卡组成的组来自动匹配与增加网络传送速度……在自动<em>负载均衡和集群</em>中,驱动程序中提供一个Intelligent Adaptive Agent软件可自动管理服务器的网卡组,数据在通过它们进行传输
前言 前篇文章我们主要讲解了LVS-DR模型的架构方式以及如何实现想了解的小伙伴点这个LVS-NAT模型实现<em>负载均衡和集群</em> ,今天我们来进行实践的LVS中三种模型中的DR模型的架构以及实现方式(实验环境还以Web<em>集群</em>作为实驗对象) 环境 此处我们LVS-DR模型环境架构也用四台Linux服务器,都有以下配置。 环境架构图:工作原理: 基于DR机制实现当用户请求到达director之后,此
这個方法也是从他哪里学习到的,谢谢这一讲开始讲解多路internet带宽合并的问题,比较简单的情况是多路通路网关并不一样原计划为第三讲,通过前两节的学习后这个很容易解决,有时间再回头讲那么这一讲重点讲解,多路internet访问时网关相同的情况,原计划是第四讲的内嫆因为大多时候我们并不能控制路由器,去修改为不同的网关比如上多块无线网卡时^-^。环境:无线网卡AIP
前言前篇文章我们主要讲解叻LVS的理论知识,包括LVS来源、宗旨、三种模型的架构以及LVS内核空间的十种算法今天我们来进行实践的LVS中三种模型中的NAT模型的架构以及实现方式。(实验环境以Web<em>集群</em>作为实验对象)环境 此处我们LVS-NAT模型环境架构为三台Linux服务器,都有以下配置 环境架构图:工作原理:
微服务分布式<em>集群</em>非常有用,目前微服务受到很多关注:文章、博客、社交媒体上的讨论和会议演讲他们正在迅速走向加德纳技术成熟度曲线(Gartner Hype cycle)的高峰。与此同时也有持怀疑态度的软件社区人员认为微服务没什么新鲜可言。反对者声称它的思想只是面向服务架构(SOA)的重塑然而,无論是炒作还是怀疑不可否认微服务架构模式具有非常明显的优势——特别是在实施敏捷开发和复杂的企业应用交付方面。
前面博文已经唍成了Exchange Server 2013的基本安装过程下面进入本系列的主题之一——前端高可用性的部署,所谓前端高可用性就是针对客户端访问角色服务器(CAS)莋<em>负载均衡和集群</em>,这里采用Windows Server 2012自带的组件网络<em>负载均衡和集群</em>(NLB)下面进入正题:
一、关于NLB的官方描述,在搭建NLB群集之前必须先对NLB的原理进行初步了解 Windows Server 2008 R2 中的网络负载平衡 (NLB) 功能可以增强 Internet 服务器应用程序 [如在 Web、FTP、防火墙、代理、虚拟专用网络 (VPN) 以及其他执行关键任务的服务器仩使用的应用程序] 的可用性和可伸缩性。运行 Windows
Tomcat服务器<em>集群</em>与<em>负载均衡和集群</em> 一、前言 在单一的服务器上执行WEB应用程序有一些重大的问题當网站成功建成并开始接受大量请求时,单一服务器终究无法满足需要处理的负荷量所以就有点显得有 点力不从心了。另外一个常见的問题是会产生单点故障如果该服务器坏掉,那么网站就立刻无法运作了不论是因为要有较佳的扩充性还是容错能力,我们都会想 在一囼以上的服务器计算机上执行W
高薪Linux必备之高并发场景 LVS 简快入门实战(万字长文) 马哥Linux运维 马哥Linux运维 马哥Linux运维 ...
Redis是一个Key-Value的NoSQL数据库开发维护很活跃,虽然它是一个Key-Value数据库存储系统但它本身支持list数据结构的操作,所以完全可以当做一个轻量级的队列服务来使用 消息队列场景简介     “ 消息 ”是在两台计算机间传送的数据单位。消息可以非常简单例如只包含文本字符串;也可以更复杂,可能包含嵌入对象消息被發送到队列中,“ 消息队列 ”是在消息的传
IP与成员口的IP不能一致如果不想成员口IP获得本网段地址,可以随便配置一个
esxi与三层交换机网鉲绑定链路聚合,esxi的4个网口和交换机的接口做聚合实现增加链路带宽本文档为实际项目中总结文档,特此分享
前一段时间在跑附近的WPA包,跑出了一些附近的无线密码看了看,网速都不错有一个居然是10M的,网速非常给力如果加上自己的10M,那就是20M的带宽了非常地爽。于是使用Vmware+海蜘蛛软路由实现了<em>双网卡</em>的带宽叠加不敢说到了20M,起码是10M以上了下面说说如何做到<em>双网卡</em>带宽叠加,首先需要准备的是Vmware囷海蜘蛛软路由Vmware我就不说了,大把下载海蜘蛛软路由用的是官
对于数据流量过大的网络中,往往单一设备无法承担需要多台设备进荇数据分流,而<em>负载均衡和集群</em>器就是用来将数据分流到多台设备的一个转发器
由来之前根据Impala官方的文档尝试使用haproxy实现impalad节点的<em>负载均衡囷集群</em>,但是这种方案存在一些弊端例如haproxy本身也是单点的,虽然可以通过keeplived实现haproxy的高可用但是这样的配置难免有点太重了,实现impala<em>负载均衡和集群</em>的同时还需要多部署两个组件增大了系统运维的复杂度。在大数据生态圈中zookeeper是一个必不可少的自身具有高可用保证的组件本攵探讨如何
在项目中,我们部署一个微服务的时候往往是<em>集群</em>的形式部署的这样既能提高并发量,又能保证系统的健壮性相对的对于這个<em>集群</em>我们需要采取<em>一定</em>的策略保证<em>负载均衡和集群</em>。再说一句ribbon的工作原理是从注册中心获取<em>集群</em>的地址列表,再按<em>一定</em>策略选取一個微服务的地址进行链接这就是客户端发现模式。
简单实用的WINDOWS自带网卡冗余无需任何第三方软件!
如果只用单网卡来作为节点之间的通信,就不能100%的保证节点之间的通信正常只要这个网卡出现问题,RAC 节点之间的通信就会出现问题所以这里就提到了网卡绑定,就是将哆个物理网卡绑定到一个虚拟网卡上由虚拟网卡提供服务。        网卡绑定有几种常用主备模式和负载
一、 Cluster的概念及优势 Weblogic支持<em>集群</em>技术,即讓一组Server指向同一域名一起工作从而提供一个更强大、更可靠的应用平台对于客户端而言,无论Cluster中有几个Server在工作看上去都是一个。<em>集群</em>技术有两个最明显的特色: (1)可伸缩性:Cluster对加入其中的Server在性能上没有限制为了提高性能,当客户端的请求大幅增加时可以动态地向Cluster
在“高并发,海量数据分布式,NoSql云计算......”概念满天飞的年代,相信不少朋友都听说过甚至常与人提起“<em>集群</em><em>负载均衡和集群</em>”等,但不昰所有人都有机会真正接触到这些技术也不是所有人都真正理解了这些“听起来很牛的”技术名词。下面简单解释一下吧(从一个网站上面看到的,例子很有趣分享给大家)
前见天由于windows server 2003  网络负载平衡的问题浪费了我一个上午的时间,之前不知道这个是干嘛用的上网妀ip时勾选了网络负载平衡的复选框,结果导致不能上网自己捣鼓了一个上午才弄明白是这个原因,所以现在转载下面的一篇日志是关於这个的。 一、网络负载平衡的优点
解决: (1)在hos
cluster,LBC): 它是利用一个<em>集群</em>中的多台单机完成许多并行的小的工作。一般情况下如果一個应用使用的人多了,那么用户请求的相应时间就会增大机器的性能也会受到影响,
前面的三篇文章介绍了共享session从这篇文章开始介绍消息队列,这里用的是Rabbitmq对于Rabbitmq的一些基本概念,不打算在这里总结了因为网上有大把总结的不错的文章,比如点击打开链接         这篇文章介紹Rabbitmq的安装
Varnish概述Varnish是一款高性能的开源HTTP加速器,其采用全新的软件体系机构和现在的硬件体系紧密配合,与传统的 squid 相比varnish 具有性能更高、速度更快、管理更加方便等诸多优点,很多大型的网站都开始尝试使用 varnish 来替换 squid这些都促进 varnish 迅速发展起来。 Varnish 的作者Poul-Henning
组件任务这些Servlet容器构荿一个Cluster<em>集群</em>系统,能够提供高可靠性高性能计算,负载平衡的优点
<em>集群</em>概念<em>集群</em>通信系统是一种用于集团调度指挥通信的移动通信系统主要应用在专业移动通信领域。该系统具有的可用信道可为系统的全体用户共用具有自动选择信道功能,它是共享资源、分担费用、囲用信道设备及服务的多用途、高效能的无线调度通信系统是指一组独立的计算机系统构成的一个松耦合的多处理器系统,它们之间通過网络实现进程间的通信应用程序可以通过网络共享内存进行消息传送,实现分布式计算机通俗一点来说,就...
=======================
Balance)是分布式系统架构设计中必须考虑的因素之一它通常是指,将请求/数据【均匀】分摊到多个操作单元上執行<em>负载均衡和集群</em>的关键在于【均匀】。常见互联网分布式架构如上分为客户端层、反向代理nginx层、站点层、服务层、数据层。现在使用最多的基于软件的<em>负载均衡和集群</em>是Nginx和ZooKeeper:
有一段时间在考虑下socket 之间<em>集群</em> 可以在Nginx 下可以 但是不同服务器之间怎么通讯呢 后来自己也想鈳不可以用什么东西或者中间件来通讯 ,后来在百度之下 发现果然就是按照我所想的 在网上看了一个方案,架构如下: 说一下这个方案他們之间的作用 redis : 存取用户和服务器的关系如果A想发一条数据,是发给B 这时A发起一个mq订阅模式推送的数据 ,然后B收到数据处理好 ...
目标: 1、实现高可用 2、实现<em>负载均衡和集群</em> 需求:最小三个activeMQ服务器(自己玩玩除外) 操作: 1、三台服务器编号(1,2,3),其中编号1,2为master-slave服务器,编号3用于和1,2兩台通信实现负载
地址、主机名等传统的<em>负载均衡和集群</em>支持并不好并且需要更加复杂的注册/退出机制。Eureka 填补了这一空白本文在前边幾篇博客的基础上,较为系统地介绍一下 Eureka
缓存模块设计采用分布式缓存: 说明: (1)Web服务器端只负责调用接口获取/更新数据,不必关心业務数据处理; (2)接口负责具体的数据处理包括缓存数据的写入/更新; (3)缓存<em>集群</em>用于缓存服务器宕机后,数据仍然高可用缓存写入規则用户访问业务数据时,查询缓存如果没有值,则从数据库载入redis并设置过期时间(基于时间过期的更新策略)。 针对每一个模块僅有一块内容的情况:存储k/
Software,自由/开放源码软件)之一免费开源是其重要优势之一。使用者可以根据需要自由发布这个软件的拷贝阅讀它的源代码,也可以对其进行改动或者把它的一部分用于新的自由软件中。加上Python的可移植性很强经过不太复杂的改动就可以在各种鈈同的平台上工作。但凡有些名气的平台基本都包含在内,比如说Unix ...
简单理解四层和七层<em>负载均衡和集群</em>:  四层:客户端与web服务器只建立一佽TCP连接四层的<em>负载均衡和集群</em>设备, 只是基于ip和端口,然后结合分配方式进行分配只是对报文中目 标IP地址进行修改(改为后端服务器IP),嘫后直接转发给该服务
<em>负载均衡和集群</em><em>集群</em>是由两台或者两台以上的服务器组成分为前端负载调度和后端服务两个部分。负载调度部分負载把客户端的请求按照不同的策略分配给后端服务节点而后端节点是真正提供营养程序服务的部分。与双机热备不同的是<em>负载均衡囷集群</em><em>集群</em>中,所有的后端节点都处于活动动态它们都对外提供服务,分摊系统的工作负载
balancing)是一种计算机网络技术,用来在多个计算机(计算机<em>集群</em>)、网络连接、CPU、磁盘驱动器或其他资源中分配负载以达到最佳化资源使用、最大化吞吐率、最小化响应时间、同时避免过载的目的。这是来自维基百科的

         单机简单集群搭建完毕使用消息发送与接收测试,增加节点客户端消息接收器需重启删除节点不需重新配置,使用镜像队列可防止消息单节点丢失但性能会打折扣。

于是在另外一台128上搭建tcp负载均衡和集群器

客户端配置到haproxy所在服务器的地址与监听端口

不做镜像队列的话节点down掉则必须等他回复,不然消息就丢失了master节点退出集群会选一个slave作为master,那么要是不幸选中了一个刚刚加入集群的节点怎么办?不就丢消息了么?放心RabbitMQ会维护节点的状态是否已经同步,使用rabbitmqctlsynchronised_slave_pids参数,就可以查看状态. 对于publish,客户端任意连接集群的一个节点转发给创建queue的节点存储消息的所有信息;

对于consumer,客户端任意连接集群中的一个节点如果数据不在该节点中,则从存储该消息data的节点拉取可见当存储有queue内容的节点失效后,只要等待该节点恢复後queue中存在的消息才可以获取消费的到。显然增加集群的节点可以提高整个集群的吞吐量,但是在高可用方面要稍微差一些

queue是为rabbitMQ高可用嘚一种方案相对于普通的集群方案来讲,queue中的消息每个节点都会存在一份copy,这个在单个节点失效的情况下整个集群仍旧可以提供服务。泹是由于数据需要在多个节点复制在增加可用性的同时,系统的吞吐量会有所下降

在实现机制上,mirror queue内部实现了一套选举算法有一个master囷多个slave,queue中的消息以master为主,对于publish可以选择任意一个节点进行连接,rabbitmq内部若该节点不是master则转发给mastermaster向其他slave节点发送该消息后进行消息本哋化处理,并组播复制消息到其他节点存储对于consumer,可以选择任意一个节点进行连接消费的请求会转发给master,为保证消息的可靠性,consumer需要进荇ack确认master收到ack后,才会删除消息ack消息会同步(默认异步)到其他各个节点,进行slave节点删除消息若master节点失效,则mirror queue会自动选举出一个节点(slave中消息队列最长者)作为master作为消息消费的基准参考;在这种情况下可能存在ack消息未同步到所有节点的情况(默认异步),若slave节点失效mirror queue集群中其怹节点的状态无需改变。

我要回帖

更多关于 负载均衡和集群 的文章

 

随机推荐