之前学完狂神讲的Redis,就自我感觉Redis学懂了,看到了尚硅谷发的Redis篇章,才发现自己只不过才学了点基础皮毛,实际高级内容、实战演练、原理都没有了解,果然还得是谦逊前进呀。
setnx mykey 111
先进去的后出来,可看成栈,也可以做队列
值不可重复
key map
zset key score value
-- z1集合添加元素m2,分数为2zadd z1 2 m2--逆序从索引1开始输出2个元素zrevrange z1 1 2 withscores-- 查询z1中最大1000分最小0分,0:偏移量小于等于1000的3个元素zrevrangeByScore z1 1000 0 withscores limit 0 3-- 1:代表小于上次返回最大分数的3个元素(分数相同会存在重复返回)zrevrangeByScore z1 上次返回最大分数 0 withscores limit 1 3
1.jedis
2.SpringDataRedis:提供了redisTemplate
1.内部实现了jdk序列化
2.关于乱码:由于SpringMVC内置了jackson-Binder之类的序列化
之前做过很多了,个人简单看了写原理就跳过了
乐观锁 + 事务:能实现数据一致性,适合并发竞争小的情况(因为避免了数据频繁更新,采用的是CAS capare and swap自旋或版本号机制2种方式)
悲观锁 + 事务:每次读取前加锁
分布式锁:分布式系统或集群模式下多线程之间互相可见并且互斥的锁
基于setnx导致的分布式锁存在4个问题,而Redisson可以解决:
1. 不可重入:setx线程同一个线程可以重复获取同一把锁1. 不可重试:setnt获取锁只尝试一次没有重试1. 超时释放:setnx业务执行过长就会自动被删除了锁。(但是如果你不设置超时时间服务重启了的话那后续key值一直存在)1. 主从一致性:setnx中,主设置了锁,宕机后从库变成主库,然后外部依然能获取锁
获取锁:
// 判断是否存在,能获取则获取if (redis.call('exists', KEYS[1]) == 0) then redis.call('hincrby', KEYS[1], ARGV[2], 1); redis.call('pexpire', KEYS[1], ARGV[1]); return nil; end; //根据threadid判断锁是不是自己的,获取锁次数加一,然后重置有效期if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) then redis.call('hincrby', KEYS[1], ARGV[2], 1); redis.call('pexpire', KEYS[1], ARGV[1]); return nil; end; //否则返回锁获取失败return redis.call('pttl', KEYS[1]);
释放锁:
//如果锁次数=0,则直接释放if (redis.call('hexists', KEYS[1], ARGV[3]) == 0) then return nil;end; //如果锁次数大于0,重置有效期,数减一然后返回。否则说明锁==0,可以直接删除发布订阅local counter = redis.call('hincrby', KEYS[1], ARGV[3], -1); if (counter > 0) then redis.call('pexpire', KEYS[1], ARGV[2]); return 0; else redis.call('del', KEYS[1]); redis.call('publish', KEYS[2], ARGV[1]); //删除锁有订阅,供后续获取锁失败重试机制的线程使用 return 1; end; return nil;
//获取锁和释放锁的源码在这2个函数内容// tryLock的3个参数: 获取锁等待时间(默认不等待) 释放锁时间, 时间单位boolean isLock = rLock.tryLock(1, 10, TimeUnit.SECONDS);rLock.unlock();
1. 加锁 1. 线程a先执行Lua脚本获取锁,获取成功(默认释放锁时间30秒)LUA脚本保证了同样线程id获取锁**可重入** 1. 若设置了锁释放时间,则不执行看门狗的锁刷新机制 2. 若没设置,则默认使用看门口锁释放时间30秒,执行看门狗刷新机制。 1. 递归每看门口时间 / 3 = 10秒刷新该线程id的有效期,保证了不会**超时就删锁**(因为默认30秒比10秒多) 2. 线程b执行Lua脚本失败,进行等待时间的订阅,然后重新获取锁,收到了订阅就按照等待时间是否剩余进行重试,没收到订阅时间到了就退出----保证了等待时间优先级最高,实现了**可重试** 2. 解锁 1. 释放订阅消息 2. 取消看门狗
Redisson分布式锁
1.可重入:利用hash 存储线程id与重入次数
2.可重试:利用发布订阅和循环等待实现锁重试(保证在等待时间内)
3.超时续约:利用watchDog,每隔一段时间(releaseTime / 3)重置
4.主从一致性:利用multiLock获取全部主节点锁才能成功(安置了多个主节点)
1、Redis秒杀资格判断(Lua脚本保证原子性)。保存相关信息到阻塞队列
2、异步处理订单,扣减库存
-- 判断库存、判断用户是否下单,扣减库存-- 获取参数的券id、用户idlocal voucherId = ARGV[1]local userId = ARGV[2]local stockKey = 'seckill:stock:' .. voucherIdlocal orderKey = 'seckill:order:' .. voucherId--if(tonumber(redis.call('get', stockKey)) <= 0) then return 1endif(redis.call("sismember", orderKey, userId) == 1) then return 2endredis.call('incrby', stockKey, -1)redis.call("sadd", orderKey, userId)return 0
0、提前加载阻塞队列读取
1、Redis进行资格判断,将有资格的放入队列
2、线程池异步读取队列数据
(问题:阻塞队列是基于jvm内存来存储数据,服务宕机,高并发都会导致数据有问题)
存放消息的队列,双向链表,采用[LPush, BRPOP],或[Rpush, BLPOP]这些实现阻塞队列。
优点:
1. 基于Redis存储,不受限与JVM内存 2. 基于Redis数据持久化
缺点:
1. 无法避免消息丢失 2. 只能支持单消费者,无法让多个消费者使用
-- 发布publish order.q1.hello--订阅subscribe order.q1--订阅: 支持通配符 *0个或多个 ?一个或多个 []满足内部条件PSUBSCRIBE order.*
支持多生产,多消费
不支持数据持久化,无法避免消息丢失,消息易堆积
--添加stream队列,*表示由redis生成消息id-- 队列一:类似于队列中存所有,但是阻塞读取却读取最新的,会存在覆盖xadd s1 * k1 v1--队列长度xlen s1--读取一条队列消息,从0开始读取xread count 1 streams s1 0--读取一条消息,从最新开始读取,永久等待xread count 1 block 0 streams s1 $
消息分流:消息分给不同的组里面去
消息标识:类似于书签,标记读到了哪个消息,服务宕机重启后继续从标识读取(这样就避免了消息漏读情况)
消息确认:消息发送后会处于pending,发送完成后发送XACK确认,然后队列移除该消息
消息组模式
1、多个消费者争抢读取消息
2、可以阻塞读取,消息可回溯
3、没有消息漏读风险,消息可回溯
-- 0代表第一个消息,$代表最后一个消息-- >表示下一个未消费的消息,"其他"表示已消费但未确认的消息. c1表示消费者名。-- 队列二:发送失败没有被确认的消息进入pengding-list,类似于一个指针标记第一个位置,另一个指针不断往后走--把stream流s1放入到g1中,从第一个开始xgroup create s1 g1 0xreadgroup group g1 c1 count 1 block 2000 streams s1 > -- 根据消息id确认消息xack s1 g1 1655878247936-0--查看pending-list中所有时间段内的10条消息xpending s1 g1 - + 10--读取pending-list中未被确认的第一条消息xreadgroup group g1 c1 count 1 block 2000 streams s1 0
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(
img-WWIDBab1-1656671557221)(…/…/…/…/…
/Roaming/Typora/typora-user-images/image-20220622145459299.png)]
实战
--MKSTREAM: 流不存在则自动创建xgroup create stream.orders g1 0 MKSTREAM--Lua脚本往队列丢数据。另起一个线程循环读取队列数据,并做ack确认
Redis根据文章id—key值增减,然后同步到库表中
在每次关注用户后,利用follows-id作为key,采用set修改redis中关注情况,然后同步到库表中
Feed流:主动给用户推送用户感兴趣的东西
1.TimeLine:简单内容列表筛选
2.智能排序:智能算法过滤
拉模式:用户拉取自己关注人信息,但是关注太多容易耗内存
推模式:博主每次发布都推送给自己关注的人,自己粉丝太多也不现实
推拉模式:人分成大V和普通人,粉丝分成活跃粉丝和僵尸粉,普通人就拉自己关注人的信息,普通人就推送自己信息给粉丝
由于传统id排序逆序时会导致数据不断刷新,所有原始limit offset不可取,采用redis中sortset,利用一个定点score来保证读取固定。redis中就采用时间来作为scoer
采用Geo举例导入计算
由于在库表中存每个用户每日签到数据量太大,所以可以采用bit位来存储,只要把时间作为key值,也极大方便后续查询统计日期
统计PV,UV这些可以使用hyperloglog允许些许误差。
RDB:默认save是主进程保存,bgsave是fork一个子进程进行保存
AOF: 记录指令,然后替换上个aof文件
分布式缓存:访问缓存有网络开销,集群可以共享,缓存数据量大
进程缓存:访问本地内存速度更快,但容量有限
canal就是模拟salve把Redis-master的binlog读取到slave运行。
每当数据库数据修改,canal就监听然后修改数据到数据库中
1.key 的设计 [业务名称]:[数据名]:[id]
2. 删除bigkey:另起一个线程异步删除值2. **建议使用hash存储**,key可以使用数据量 %100这种,field使用key,value(内存占用非常少,因为使用zipList,默认不要超过key值500)2. 批处理入库数据:sadd,mset入库快2. Redis主从能达到上w级别的QPS,尽量不要搭建集群。
1.尽量不要开启持久化功能
2.建议开启AOF持久化
Redis:底层是C写的
Redis中key, value都是采用单个或多个字符串SDS来存储,SDS本质是个结构体,分成字符串头(记录字符串长度)、体(存储真实数据)
int的set:整数唯一数组,内部采用二分查询查询
由3部分组成:dictHashTable哈希表,dictEntry哈希结点,dict字典
哈希表构成就是dicEntry这种key, value值
Dict字典包含2个哈希表,用于扩容和收缩,底层就是数组+链表来解决hash冲突
(总结dict底层就是hash表,是有数组和单向链表来实现,其中保存的就是key, value的Entry键值对,用指针这种来SDS对象)
压缩列表是由连续内存空间的列表,没有使用指针链接,而是记录了上个节点寻址。因为如果采用dict这种指针选择,内存碎片太多,指针字节占用太多。
节点为zipList的双向链表,兼容了zipList申请连续过多的内存空间,与链表指针消耗过多内存空间的优点。
跳表是链表,元素按升序排序,然后不断在元素之间往上建立指针,和MySQL索引建立类似,方便后续查找,CURD效率与红黑树一样log(n)
RedisObject包含了5中数据类型,然后5中下面编码方式就是上面跳表,zipList,quickList这些。(typerloglog,bitmap,bitmap底层也就是string,zset)
利用单线程同时监听多个服务。分为select,poll, epoll。
select每次都要拷贝监听服务的FD从用户到内核耗时
epoll就把就绪的监听服务FD保存下来,然后每次就不用遍历所有FD
目前还是IO多路复用用的比较多
Redis6.0之后引入了多线程,之前都是单线程
Redis中采用dict记录了key的TTL时间
1. 惰性清理:每次查找key,过期就删除1. 定期清理:定期抽取key,过期就删除
4.2.4.2 淘汰策略
8种策略:默认不淘汰任何key,内存满了不允许写入行数据