-
轻量级,限流核心基于Redis Lua脚本实现
-
支持令牌桶、漏桶、滑动窗口限流算法
-
支持Naco配置中心配置限流指标
-
支持properties,yaml/yml,json的配置文件格式
-
支持Spel表达式,能够实现多维度限流
-
自定义SPI机制,相比于Java的标准SPI,其更加灵活,带有自定义注解来加载特定的类,具有缓存功能
-
自定义Spring Boot Starter,可通过可插拔式的依赖完成对自身项目的限流效果
-
支持通过Prometheus + grafana对限流情况进行观察
- 系统以恒定的速率产生令牌,然后将令牌放入令牌桶中。
- 令牌桶有一个容量,当令牌桶满了的时候,再向其中放入的令牌就会被丢弃。
- 每当一个请求过来,会根据自身所需要的令牌数从令牌桶中获取一定量的令牌,如果令牌数足以提供该次请求的话,则提供服务;否则拒绝服务。
优点:
- 提供了一种灵活的方式来控制请求的速率,允许突发流量
- 限流更加平滑
缺点:
- 实现比固定窗口复杂
水(请求)先进入到漏桶里,漏桶以一定的速度出水,当水流入速度过大会直接溢出(拒绝服务)
优点:
- 输出速率恒定,非常适合需要固定处理速率的场景
- 限流效果稳定,突发流量会被平滑处理
缺点:
- 对于允许突发流量的场景不够灵活
- 当桶满时,新进的请求都会被拒绝,可能导致资源浪费
说到计数器滑动窗口算法
,先来介绍一下计数器固定窗口算法
,该算法如下:
通过维护一个单位时间内的计数值,每当一个请求通过时,就将计数值加1,当计数值超过预先设定的阈值时,就拒绝单位时间内的其他请求。如果单位时间已经结束,则将计数器清零,开启下一轮的计数。
计数器固定窗口算法
有一个缺点,就是在窗口切换时可能会产生两倍于阈值流量的请求
计数器滑动窗口算法
是计数器固定窗口算法
的改进,解决了固定窗口切换时可能会产生两倍于阈值流量请求的缺点。但是其需要更多的存储来跟踪请求的时间戳,实现相对复杂
上面就是关于几个限流算法的介绍,得根据实际应用场景选择合适的限流方案
rate-limiter限流组件核心配置介绍,参考的配置格式为properties,yml或yaml格式同理
- algorithmName:支持的限流算法,配置值如下:
1.token_bucket_rate_limiter(令牌桶算法) 2.leaky_bucket_rate_limiter(漏桶算法) 3.sliding_window_rate_limiter(滑动窗口算法)
- spring.ratelimiter:自定义配置的统一前缀(拼接上下面的配置)
- redis-config.url/database/password:redis配置(地址/db编号/密码)
- rate-limiter-configs:限流相关配置(以一个数组形式存在) algorithmName(限流算法) rateLimiterKey(限流器标识,需与接口注解的key保持一致) capacity:容量 rate:速率 expressionType:默认是spel表达式,目前也只支持spel表达式
可参考lightweight-rate-limiter-example/springboot-example工程
未使用分布式配置中心的springboot接入
- pom依赖应用
<dependency>
<groupId>io.llsfish.ratelimiter</groupId>
<artifactId>ratelimiter-spring-boot-starter-common</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
- application.yml
spring:
application:
name: springboot-test
ratelimiter:
enableMonitor: true
redis-config:
url: 127.0.0.1
database: 0
password: 666666
rate-limiter-configs:
- algorithmName: leaky_bucket_rate_limiter
rateLimiterKey : key1
capacity: 100
rate: 10
expressionType: spel
- algorithmName: token_bucket_rate_limiter
rateLimiterKey: "'/Rate/spelTest:' + #args[0].userId"
capacity: 100
rate: 10
expressionType: spel
- 代码中使用
@RestController()
public class TestController {
@GetMapping("/Rate/rateTest")
@RateLimiter(key = "key1", clazz = RateLimiterResponse.class)
public String rateTest() {
return "111";
}
@PostMapping("/Rate/spelTest")
@RateLimiter(key = "'/Rate/spelTest:' + #args[0].userId", clazz = RateLimiterResponse1.class)
public Response<String> spelTest(@RequestBody Request request) {
return new Response<>("0000", "成功", "success");
}
}
可参考lightweight-rate-limiter-example/nacos-example工程
- pom依赖引用
<dependency>
<groupId>io.llsfish.ratelimiter</groupId>
<artifactId>ratelimiter-spring-boot-starter-nacos</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
- application.yml配置
server:
port: 8106
spring:
application:
name: nacos-example
profiles:
active: dev
nacos:
config:
server-addr: 127.0.0.1:8848
type: yaml
data-id: nacos-example-dev.yml
auto-refresh: true
group: DEFAULT_GROUP
bootstrap:
enable: true
log-enable: true
- Nacos配置中心配置文件nacos-example-dev.yml配置内容:
# nacos配置示例
spring:
application:
name: springboot-test
ratelimiter:
enableMonitor: true
redis-config:
url: 127.0.0.1
database: 0
password: 666666
rate-limiter-configs:
- algorithmName: leaky_bucket_rate_limiter
rateLimiterKey : key1
capacity: 100
rate: 10
expressionType: spel
- algorithmName: token_bucket_rate_limiter
rateLimiterKey: "'/Rate/spelTest:' + #args[0].userId"
capacity: 100
rate: 10
expressionType: spel
可参考lightweight-rate-limiter-example/cloud-nacos-example工程
- pom依赖引用
<dependency>
<groupId>io.llsfish.ratelimiter</groupId>
<artifactId>ratelimiter-spring-boot-starter-cloud-nacos</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
- bootstrap.yml配置
server:
port: 8107
spring:
application:
name: cloud-nacos-example
profiles:
active: dev
cloud:
nacos:
config:
server-addr: 127.0.0.1:8848
file-extension: yaml
refresh-enabled: true
extension-configs:
- dataId: cloud-nacos-example-dev.yml
group: DEFAULT_GROUP
refresh: true
- Nacos配置中心配置文件cloud-nacos-example-dev.yml配置内容:
# nacos配置示例
spring:
application:
name: springboot-test
ratelimiter:
enableMonitor: true
redis-config:
url: 127.0.0.1
database: 0
password: 666666
rate-limiter-configs:
- algorithmName: leaky_bucket_rate_limiter
rateLimiterKey : key1
capacity: 100
rate: 10
expressionType: spel
- algorithmName: token_bucket_rate_limiter
rateLimiterKey: "'/Rate/spelTest:' + #args[0].userId"
capacity: 100
rate: 10
expressionType: spel
- pom配置
增加prometheus依赖
<!--提供了创建和管理度量的基本API,想把度量数据发送给哪个监控器就使用micrometer-registry-*(如下图所示)-->
<dependency>
<groupId>io.micrometer</groupId>
<artifactId>micrometer-registry-prometheus</artifactId>
<version>1.11.1</version>
</dependency>
<!--度量数据发送到 Prometheus依赖的库-->
<dependency>
<groupId>io.micrometer</groupId>
<artifactId>micrometer-core</artifactId>
<version>1.11.1</version>
</dependency>
<!--提供了生产级的功能来监视和管理应用程序,可以容易地获取关于应用程序的各种运行时信息,如健康检查、度量、环境属性、线程转储等-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-actuator</artifactId>
</dependency>
- application.yml配置
# 对接prometheus
management:
metrics:
tags:
application: ${spring.application.name} # 附加到所有度量上面
web:
server:
request:
autotime:
enabled: true
endpoints:
web:
exposure:
include: '*' # 暴露Actuator 端点
endpoint:
health:
show-details: always # 无论请求者是谁,健康检查的详细信息将始终显示
- Prometheus端服务发现配置
修改prometheus.yml文件,在scrape_configs
标签下增加指标拉取配置job
ratelimiter--zookeeper-demo-prometheus
# my global config
global:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
# Alertmanager configuration
alerting:
alertmanagers:
- static_configs:
- targets:
# - alertmanager:9093
# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:
# - "first_rules.yml"
# - "second_rules.yml"
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: "prometheus"
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
static_configs:
- targets: ["localhost:9090"]
- job_name: "ratelimiter--zookeeper-demo-prometheus"
# metrics_path defaults to '/metrics'
# scheme defaults to 'http'.
scrape_interval: 5s
metrics_path: '/actuator/prometheus'
static_configs:
- targets: ["localhost:8104"]
- 效果图
- 限流指标:
-
rate:200(每秒生成200个令牌)
-
capacity:200(令牌桶容量200个)
- 压测指标:
-
并发:200
-
循环次数:2
- 压测结果:
令牌生成速率为200/s,令牌桶容量200,并发200,循环两次,总共400个请求,压测会有50%的请求被限流调,与压测结果一致
- 限流指标:
-
rate:200(每秒通过200个请求)
-
capacity:200(桶最大容量200个)
- 压测指标:
-
并发:200
-
循环次数:2
- 压测结果:
每秒通过200个请求,桶的容量为200,压测的指标为200并发循环两次,第一个循环将桶装满,第二个循环全部被限流,与压测结果一致
- 限流指标:
-
rate:200(滑动窗口流量阈值,每秒通过200个请求)
-
capacity:200(限流窗口总请求数200个)
-
滑动窗口数 = capacity / rate
- 压测指标:
-
并发:200
-
循环次数:2
- 压测结果:
滑动窗口阈值200,限流窗口200,可知限流窗口数量为1个,一个限流窗口就能通过200请求,所以会有200个请求被限流,符合压测结果