成都网站建设设计

将想法与焦点和您一起共享

分布式服务限流实战,已经为你排好坑了|总结的很全面-创新互联

一、限流的作用

创新互联专注于企业网络营销推广、网站重做改版、大观网站定制设计、自适应品牌网站建设、html5商城建设、集团公司官网建设、成都外贸网站制作、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为大观等各大城市提供网站开发制作服务。

由于API接口无法控制调用方的行为,因此当遇到瞬时请求量激增时,会导致接口占用过多服务器资源,使得其他请求响应速度降低或是超时,更有甚者可能导致服务器宕机。

限流(Rate limiting)指对应用服务的请求进行限制,例如某一接口的请求限制为100个每秒,对超过限制的请求则进行快速失败或丢弃。

限流可以应对:

  • 热点业务带来的突发请求;

  • 调用方bug导致的突发请求;

  • 恶意gonji请求。

因此,对于公开的接口最好采取限流措施。

二、为什么要分布式限流

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

当应用为单点应用时,只要应用进行了限流,那么应用所依赖的各种服务也都得到了保护。

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

但线上业务出于各种原因考虑,多是分布式系统,单节点的限流仅能保护自身节点,但无法保护应用依赖的各种服务,并且在进行节点扩容、缩容时也无法准确控制整个服务的请求限制。

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

而如果实现了分布式限流,那么就可以方便地控制整个服务集群的请求限制,且由于整个集群的请求数量得到了限制,因此服务依赖的各种资源也得到了限流的保护。

三、限流的算法

实现限流有很多办法,在程序中时通常是根据每秒处理的事务数(Transaction per second)来衡量接口的流量。

本文介绍几种最常用的限流算法:

  • 固定窗口计数器;

  • 滑动窗口计数器;

  • 漏桶;

  • 令牌桶。

1、固定窗口计数器算法

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

固定窗口计数器算法概念如下:

  • 将时间划分为多个窗口;

  • 在每个窗口内每有一次请求就将计数器加一;

  • 如果计数器超过了限制数量,则本窗口内所有的请求都被丢弃当时间到达下一个窗口时,计数器重置。

固定窗口计数器是最为简单的算法,但这个算法有时会让通过请求量允许为限制的两倍。考虑如下情况:限制1秒内最多通过5个请求,在第一个窗口的最后半秒内通过了5个请求,第二个窗口的前半秒内又通过了5个请求。这样看来就是在1秒内通过了10个请求。

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

2、滑动窗口计数器算法

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

滑动窗口计数器算法概念如下:

  • 将时间划分为多个区间;

  • 在每个区间内每有一次请求就将计数器加一维持一个时间窗口,占据多个区间;

  • 每经过一个区间的时间,则抛弃最老的一个区间,并纳入最新的一个区间;

  • 如果当前窗口内区间的请求计数总和超过了限制数量,则本窗口内所有的请求都被丢弃。

滑动窗口计数器是通过将窗口再细分,并且按照时间"滑动",这种算法避免了固定窗口计数器带来的双倍突发请求,但时间区间的精度越高,算法所需的空间容量就越大。

3、漏桶算法

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

漏桶算法概念如下:

  • 将每个请求视作"水滴"放入"漏桶"进行存储;

  • "漏桶"以固定速率向外"漏"出请求来执行如果"漏桶"空了则停止"漏水";

  • 如果"漏桶"满了则多余的"水滴"会被直接丢弃。

漏桶算法多使用队列实现,服务的请求会存到队列中,服务的提供方则按照固定的速率从队列中取出请求并执行,过多的请求则放在队列中排队或直接拒绝。

漏桶算法的缺陷也很明显,当短时间内有大量的突发请求时,即便此时服务器没有任何负载,每个请求也都得在队列中等待一段时间才能被响应。

4、令牌桶算法

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

令牌桶算法概念如下:

  • 令牌以固定速率生成;

  • 生成的令牌放入令牌桶中存放,如果令牌桶满了则多余的令牌会直接丢弃,当请求到达时,会尝试从令牌桶中取令牌,取到了令牌的请求可以执行;

  • 如果桶空了,那么尝试取令牌的请求会被直接丢弃。

令牌桶算法既能够将所有的请求平均分布到时间区间内,又能接受服务器能够承受范围内的突发请求,因此是目前使用较为广泛的一种限流算法。

四、代码实现

作为如此重要的功能,在Java中自然有很多实现限流的类库,例如Google的开源项目guava提供了RateLimiter类,实现了单点的令牌桶限流。

而分布式限流常用的则有Hystrix、resilience4j、Sentinel等框架,但这些框架都需引入第三方的类库,对于国企等一些保守的企业,引入外部类库都需要经过层层审批,较为麻烦。

分布式限流本质上是一个集群并发问题,而Redis作为一个应用广泛的中间件,又拥有单进程单线程的特性,天然可以解决分布式集群的并发问题。本文简单介绍一个通过Redis实现单次请求判断限流的功能。

1、脚本编写

经过上面的对比,最适合的限流算法就是令牌桶算法。而为实现限流算法,需要反复调用Redis查询与计算,一次限流判断需要多次请求较为耗时。因此我们采用编写Lua脚本运行的方式,将运算过程放在Redis端,使得对Redis进行一次请求就能完成限流的判断。

令牌桶算法需要在Redis中存储桶的大小、当前令牌数量,并且实现每隔一段时间添加新的令牌。最简单的办法当然是每隔一段时间请求一次Redis,将存储的令牌数量递增。

但实际上我们可以通过对限流两次请求之间的时间和令牌添加速度来计算得出上次请求之后到本次请求时,令牌桶应添加的令牌数量。因此我们在Redis中只需要存储上次请求的时间和令牌桶中的令牌数量,而桶的大小和令牌的添加速度可以通过参数传入实现动态修改。

由于第一次运行脚本时默认令牌桶是满的,因此可以将数据的过期时间设置为令牌桶恢复到满所需的时间,及时释放资源。

编写完成的Lua脚本如下:

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

2、执行限流

这里使用Spring Data Redis来进行Redis脚本的调用。

编写Redis脚本类:

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

通过RedisTemplate对象执行脚本:

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

rateLimit方法传入的key为限流接口的ID,max为令牌桶的大大小,rate为每秒钟恢复的令牌数量,返回的boolean即为此次请求是否通过了限流。为了测试Redis脚本限流是否可以正常工作,我们编写一个单元测试进行测试看看。

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

设置令牌桶大小为10,令牌桶每秒恢复10个,启动10个线程在短时间内进行30次请求,并输出每次限流查询的结果。日志输出:

分布式服务限流实战,已经为你排好坑了 | 总结的很全面

可以看到,在0.1秒内请求的30次请求中,除了初始的10个令牌以及随时间恢复的1个令牌外,剩下19个没有取得令牌的请求均返回了false,限流脚本正确的将超过限制的请求给判断出来了,业务中此时就可以直接返回系统繁忙或接口请求太过频繁等提示。

3、开发中遇到的问题

1)Lua变量格式

Lua中的String和Number需要通过tonumber()和tostring()进行转换。

2)Redis入参

Redis的pexpire等命令不支持小数,但Lua的Number类型可以存放小数,因此Number类型传递给 Redis时最好通过math.ceil()等方式转换以避免存在小数导致命令失败。

3)Time命令

由于Redis在集群下是通过复制脚本及参数到所有节点上,因此无法在具有不确定性的命令后面执行写入命令,因此只能请求时传入时间而无法使用Redis的Time命令获取时间。

3.2版本之后的Redis脚本支持redis.replicate_commands(),可以改为使用Time命令获取当前时间。

4)潜在的隐患

由于此Lua脚本是通过请求时传入的时间做计算,因此务必保证分布式节点上获取的时间同步,如果时间不同步会导致限流无法正常运作。

欢迎工作一到五年的Java工程师朋友们加入我的个人粉丝群Java填坑之路:659655594群内提供免费的Java架构学习资料(里面有高可用、高并发、高性能及分布式、Jvm性能调优、Spring源码,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多个知识点的架构资料)

合理利用自己每一分每一秒的时间来学习提升自己,不要再用"没有时间“来掩饰自己思想上的懒惰!趁年轻,使劲拼,给未来的自己一个交代!

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


网站名称:分布式服务限流实战,已经为你排好坑了|总结的很全面-创新互联
网站网址:http://chengdu.cdxwcx.cn/article/cccjhe.html