Redis 的并发竞争问题,主要是发生在并发写竞争。
例如:两个连接同时对 price 进行写操作,同时加 10,最终结果我们知道,应该为 30 才是正确。
假如有某个 key = "price", value 值为 10,现在想把 value 值进行 + 10 操作。正常逻辑下,就是先把数据 key 为 price 的值读回来,加上 10,再把值给设置回去。
如果只有一个连接的情况下,这种方式没有问题,可以工作得很好,但如果有两个连接时,两个连接同时想对还 price 进行 + 10 操作,就可能会出现问题了。
如何解决 redis 的并发竞争 key 问题呢?
# 项目背景
最近,做一个按优先级和时间先后排队的需求。用 Redis 的 sorted set 做排队队列。
主要使用的 Redis 命令有, zadd, zcount, zscore, zrange 等。
测试完毕后,发到线上,发现有大量接口请求返回超时熔断(超时时间为 3s)。
Error 日志打印的异常堆栈为:
redis.clients.jedis.exceptions.JedisConnectionException: Could not get a resource from the pool
Caused by: redis.clients.jedis.exceptions.JedisConnectionException: java.net.ConnectException: Connection timed out (Connection timed out)
Caused by: java.net.ConnectException: Connection timed out (Connection timed out)
且有一个怪异的现象,只有写库的逻辑报错,即 zadd 操作。像 zadd, zcount, zscore 这些操作全部能正常执行。
还有就是报错和正常执行交错持续。即假设每分钟有 1000 个 Redis 操作,其中 900 个正常,100 个报错。而不是报错后,Redis 就不能正常使用了。
# 问题排查
# 1. 连接池泄露?
从上面的现象基本可以排除连接池泄露的可能,如果连接未被释放,那么一旦开始报错,后面的 Redis 请求基本上都会失败。而不是有 90% 都可正常执行。
但 Jedis 客户端据说有高并发下连接池泄露的问题,所以为了排除一切可能,还是升级了 Jedis 版本,发布上线,发现没什么用。
# 2. 硬件原因?
排查 Redis 客户端服务器性能指标,CPU 利用率 10%,内存利用率 75%,磁盘利用率 10%,网络 I/O 上行 1.12M/s,下行 2.07M/s。接口单实例 QPS 均值 300 左右,峰值 600 左右。
Redis 服务端连接总数徘徊在 2000+,CPU 利用率 5.8%,内存使用率 49%,QPS1500-2500。
硬件指标似乎也没什么问题。
# 3.Redis 参数配置问题?
JedisPoolConfig config = new JedisPoolConfig(); | |
config.setMaxTotal (200); // 最大连接数 | |
config.setMinIdle (5); // 最小空闲连接数 | |
config.setMaxIdle (50); // 最大空闲连接数 | |
config.setMaxWaitMillis (1000 * 1); // 最长等待时间 | |
config.setTestOnReturn (false); | |
config.setTestOnBorrow (false); | |
config.setTestWhileIdle (true); | |
config.setTimeBetweenEvictionRunsMillis (30 * 1000); | |
config.setNumTestsPerEvictionRun (50); |
基本上大部分公司的配置包括网上博客提供的配置其实都和上面差不多,看不出有什么问题。
这里我尝试把最大连接数调整到 500,发布到线上,并没什么卵用,报错数反而变多了。
# 4. 连接数统计
在 Redis Master 库上执行命令:client list。打印出当前所有连接到服务器的客户端 IP,并过滤出当前服务的 IP 地址的连接。
发现均未达到最大连接数,确实排除了连接泄露的可能。
# 5. 最大连接数调优和压测
既然连接远未打满,说明不需要设置那么大的连接数。而 Redis 服务端又是单线程读写。客户端创建过多连接,只会耗费资源,反而拖累性能。
使用以上代码,在本机使用 JMeter 压测 300 个线程,连续请求 30 秒。
首先把最大连接数设为 500,成功率:99.61%
请求成功:82004 次,TP90 耗时目测在 50-80ms 左右。
请求失败 322 次,全部为请求服务器超时:socket read timeout,耗时 2s 后,由 Jedis 自行熔断。
(这种情况造成数据不一致,实际上服务端已执行了命令,只是客户端读取返回结果超时)。
** 再把最大连接数设为 20,** 成功率:98.62%(有一定几率 100% 成功)
请求成功:85788 次,TP90 耗时在 10ms 左右。
请求失败:1200 次,全部为等待客户端连接超时:Caused by: java.util.NoSuchElementException: Timeout waiting for idle object,熔断时间为 1 秒。
** 再将最大连接数调整为 50,** 成功率:100%
请求成功:85788 次, TP90 耗时 10ms。
请求失败:0 次。
综上,Redis 服务端单线程读写,连接数太多并没卵用,反而会消耗更多资源。最大连接数配置太小,不能满足并发需求,线程会因为拿不到空闲连接而超时退出。
在满足并发的前提下,maxTotal 连接数越小越好。在 300 线程并发下,最大连接数设为 50,可以稳定运行。
基于以上结论,尝试调整 Redis 参数配置并发布上线,但以上实验只执行了 zadd 命令,仍未解决一个问题:为什么只有写库报错?
果然,发布上线后,接口超时次数有所减少,响应时间有所提升,但仍有报错,没能解决此问题。
# 6. 插曲 - Redis 锁
在优化此服务的同时,把同事使用的另一个 Redis 客户端一起优化了,结果同事的接口过了一天开始大面积报错,接口响应时间达到 8 个小时。
排查发现,同事的接口仅使用 Redis 作为分布式锁。而这个 RedisLock 类是从其他服务拿过来直接用的,自旋时间设置过长,这个接口又是超高并发。
最大连接数设为 50 后,锁资源竞争激烈,直接导致大部分线程自旋把连接池耗尽了。于是又紧急把最大连接池恢复到 200,问题得以解决。
由此可见,在分布式锁的场景下,配置不能完全参考读写 Redis 操作的配置。
# 7. 排查服务端持久化
在把客户端研究了好几遍之后,发现并没有什么可以优化的了,于是开始怀疑是服务端的问题。
持久化是一直没研究过的问题。在查阅了网上的一些博客,发现持久化确实有可能阻塞读写 IO 的。
“1) 对于没有持久化的方式,读写都在数据量达到 800 万的时候,性能下降几倍,此时正好是达到内存 10G,Redis 开始换出到磁盘的时候。并且从那以后再也没办法重新振作起来,性能比 Mongodb 还要差很多。
2) 对于 AOF 持久化的方式,总体性能并不会比不带持久化方式差太多,都是在到了千万数据量,内存占满之后读的性能只有几百。
3) 对于 Dump 持久化方式,读写性能波动都比较大,可能在那段时候正在 Dump 也有关系,并且在达到了 1400 万数据量之后,读写性能贴底了。在 Dump 的时候,不会进行换出,而且所有修改的数据还是创建的新页,内存占用比平时高不少,超过了 15GB。而且 Dump 还会压缩,占用了大量的 CPU。也就是说,在那个时候内存、磁盘和 CPU 的压力都接近极限,性能不差才怪。” ---- 引用自 lovecindywang 的博客园博客
“内存越大,触发持久化的操作阻塞主线程的时间越长
Redis 是单线程的内存数据库,在 redis 需要执行耗时的操作时,会 fork 一个新进程来做,比如 bgsave,bgrewriteaof。Fork 新进程时,虽然可共享的数据内容不需要复制,但会复制之前进程空间的内存页表,这个复制是主线程来做的,会阻塞所有的读写操作,并且随着内存使用量越大耗时越长。例如:内存 20G 的 redis,bgsave 复制内存页表耗时约为 750ms,redis 主线程也会因为它阻塞 750ms。” ---- 引用自 CSDN 博客
而我们的 Redis 实例总内存 20G,内存使用了 50%,keys 数量达 4000w。
主从集群,从库不做持久化,主库使用 RDB 持久化。rdb 的 save 参数是默认值。(这也恰好能解释通为什么写库报错,读库正常)
且此 Redis 已使用了几年,里面可能存在大量的 key 已经不使用了,但未设置过期时间。
然而,像 Redis、MySQL 这种都是由数据中台负责,我们并无权查看服务端日志,这个事情也不好推动,中台会说客户端使用的有问题,建议调整参数。
所以最佳解决方案可能是,重新申请 Redis 实例,逐步把项目中使用的 Redis 迁移到新实例,并注意设置过期时间。迁移完成后,把老的 Redis 实例废弃回收。
# 小结
1)如果简单的在网上搜索,Could not get a resource from the pool , 基本都是些连接未释放的问题。
然而很多原因可能导致 Jedis 报这个错,这条信息并不是异常堆栈的最顶层。
2)Redis 其实只适合作为缓存,而不是数据库或是存储。它的持久化方式适用于救救急啥的,不太适合当作一个普通功能来用。
3)还是建议任何数据都设置过期时间,哪怕设 1 年呢。不然老的项目可能已经都废弃了,残留在 Redis 里的 key,其他人也不敢删。
4)不要存放垃圾数据到 Redis 中,及时清理无用数据。业务下线了,就把相关数据清理掉。
补充
如何解决 redis 的并发竞争 key 问题呢?下面给到 3 个 Redis 并发竞争的解决方案。
第一种方案:分布式锁 + 时间戳
第二种方案:使用乐观锁的方式进行解决(成本较低,非阻塞,性能较高)
第三种方案:利用消息队列
在并发量过大的情况下,可以通过消息中间件进行处理,把并行读写进行串行化。
把 Redis.set 操作放在队列中使其串行化,必须的一个一个执行。
第三种方式在一些高并发的场景中算是一种通用的解决方案。
看了这么多,简单的总结下,其实 redis 本事是不会存在并发问题的,因为他是单进程的,再多的 command 都是 one by one 执行的。我们使用的时候,可能会出现并发问题,比如 get 和 set 这一对。