负载均衡由来
在业务初期,我们一般会先使用单台服务器对外提供服务。随着业务流量越来越大,单台服务器无论如何优化,无论采用多好的硬件,总会有性能天花板,当单服务器的性能无法满足业务需求时,就需要把多台服务器组成集群系统提高整体的处理性能。
基于上述需求,我们要使用统一的流量入口来对外提供服务,本质上就是需要一个流量调度器,通过均衡的算法,将用户大量的请求流量均衡地分发到集群中不同的服务器上。这其实就是我们今天要说的负载均衡。
什么是负载均衡
负载均衡(Server Load Balancer)是将访问流量根据转发策略分发到后端多台云服务器(ECS实例)的流量分发控制服务。负载均衡扩展了应用的服务能力,增强了应用的可用性。
负载均衡通过设置虚拟服务地址,将添加的同一地域的多台ECS实例虚拟成一个高性能、高可用的后端服务池,并根据转发规则,将来自客户端的请求分发给后端服务器池中的ECS实例。
负载均衡默认检查云服务器池中的ECS实例的健康状态,自动隔离异常状态的ECS实例,消除了单台ECS实例的单点故障,提高了应用的整体服务能力。此外,负载均衡还具备抗DDoS攻击的能力,增强了应用服务的防护能力。
负载均衡的组成
负载均衡实例 (Server Load Balancer instances) 一个负载均衡实例是一个运行的负载均衡服务,用来接收流量并将其分配给后端服务器。要使用负载均衡服务,您必须创建一个负载均衡实例,并至少添加一个监听和两台ECS实例。 监听 (Listeners) 监听用来检查客户端请求并将请求转发给后端服务器。监听也会对后端服务器进行健康检查。 后端服务器(Backend Servers) 一组接收前端请求的ECS实例。您可以单独添加ECS实例到后端服务器池,也可以通过虚拟服务器组或主备服务器组来批量添加和管理。
天翼云的优势
ELB集群结构可将请求分发到不同的ELB实例。基于DPDK架构提供高性能的处理能力。能够对七层SSL卸载,减轻后端服务器压力,单实例可支持2000w并发
采用集群化部署,支持多可用区的同城双活容灾,无缝实时切换。完善的健康检查机制,保障业务实时在线。
支持TCP/UDP/HTTP/HTTPS协议,满足不同协议接入需求。
快速部署ELB,实时生效,支持多种调度算法(轮询、加权轮询、加权最小连接数等),用户可以高效地管理和调整分发策略。
使用天翼云负载均衡服务,用户无需再投入额外的负载均衡硬件,无需投入过多繁琐的运维工作,为用户节省大量的硬件费用和人力支出。
产品架构
负载均衡基础架构是采用集群部署,提供四层(TCP协议和UDP协议)和七层(HTTP和HTTPS协议)的负载均衡,可实现会话同步,以消除服务器单点故障,提升冗余,保证服务的稳定性。
负载均衡作为流量转发服务,将来自客户端的请求通过负载均衡集群转发至后端服务器,后端服务器再将响应通过内网返回给负载均衡。
应用场景
场景说明
对于业务量访问较大的业务,可以通过负载均衡设置相应的转发策略,将访问量均匀的分到多个后端处理。
场景特点
业务访问量大,高并发,单机难以支撑,负载均衡通过流量负载分担到多台后端主机承载,提升业务可靠性,有效支撑大流量、大并发业务
典型应用对象
例如大型门户网站,移动应用市场等。同时用户还可以开启会话保持功能,保证同一个客户请求转发到同一个后端,从而提升访问效率。同时,可以将后端的云主机部署在不同的可用区中,实现后端主机的高可用。如图所示。
场景说明
对于存在潮汐效应的业务,结合弹性伸缩服务,随着业务量的增长和收缩,弹性伸缩服务自动增加或者减少的,可以自动添加到负载均衡的后端云主机组或者从负载均衡的后端云主机组移除。
场景特点
负载均衡实例会根据流量分发、健康检查等策略灵活使用云主机资源,在资源弹性的基础上大大提高资源的使用效率和可靠性
典型应用对象
如图所示。例如电商的“双11”、“双12”、“618”等大型促销活动,业务的访问量短时间迅速增长,且只持续短暂的几天甚至几小时。使用负载均衡及弹性伸缩能最大限度的节省IT成本。
场景说明
对于可靠性有较高要求的业务,可以在负载均衡器上添加多个后端云主机,且可以将后端主机部署在不同的可用区内。
场景特点
负载均衡器会通过健康检查及时发现并屏蔽有故障的云主机,并将流量转发到其他正常运行的后端云主机,确保业务不中断。
典型应用对象
如图所示,例如官网,计费业务,Web业务等。
以上就是对负载均衡的介绍,希望能够对大家有所帮助。
引用:https://www.bilibili.com/read/cv19925268