Redis
键值设计
可读性和客观理性
- 以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表明:id(ugc:video:1)
简洁性
- 保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,例如: - user:{uid}:friends:messages:{mid}简化为u:{uid}:fr:m:{mid}
不要包含特殊字符
- 反例:包含空格、换行、单双引号、以及其他转义字符
- 防止网卡流量、慢查询,String类型控制在10kb以内,hash、list、set、zset元素个数不要超过5000;- 非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞,而且该操作不会不出现在慢查询中(latency可查)),查找方法和删除方法。
命令使用
1.O(N)命令关注n的数量
例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。
2.禁止命令
禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。
3.合理使用select
redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。
4.使用批量操作提高效率
原生命令:例如:mget、mset
非原生命令:可以使用pipeline提高效率
注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)
注意两者不同:原生的原子操作,pipeline是非原子操作pipeline可以打包不同的命令,原生做不到
pipeline需要客户端和服务端同时支持
5.不建议过多使用redis事务功能
redis的事务功能较弱(不支持回滚),而且集群版本(自研和官方)要求一次事务操作的key必须在一个slot上(可以使用hashtag功能解决)
6.redis集群版本在使用lua上有特殊要求
1.所有的key都应该由keys数组来传递,redis.call/pcall里面调用的redis命令,key的位置,必须是keys array,否则直接返回error,’err bab lua script for redis cluster,all the keys that the script uses should be passed using the keys arrayrn’
2.所有key,必须在1个slot上,否则直接返回error,”-err eval/evalsh command keys must in same slotrn”
7.monitor命令
必要情况下使用monitor命令时,要注意不要长时间使用。
切库:select ? ?的值1-16
模糊查询:keys key
清除当前数据:flushdb
清空:flushall
判断是否存在:exists key
移至对应的DB库:move key db
查看还有多久过期:ttl key -1 永不过期,-2已经过期
为指定key设置过期时间:expire key 秒 过期的key不会存在
查看key数据类型:type key
操作 | 命令 |
添加 | set key value |
获取key的值 | get key |
删除 | del key |
追加 | append key value |
长度 | strlen key |
数字加减 加1(key值必须为数字) | incr key |
数字加减 减1(key值必须为数字) | decr key |
加指定数字 | incrby key num |
减指定数字 | decrby key num |
查看索引值 显示全部相当于 between … and | getrange key 0 -1 |
指定位赋值 | setrange key 0 value |
设置过期时间 | setex key 秒 value |
如果key存在,不做操作,不存在则赋值 | setnx key value |
赋值多个key value | mset key1 value key2 value2 |
获取指定的key | mget key1 key2 |
如果只有一个key存在,则添加失败,都不存在则添加完成 | msetnx key1 value1 key2 value2 |
操作 | 命令 | |
添加 | sadd key value value1 value2 | |
查看值 | smembers key | |
查看key中的值是否存在1 | sismember key 1 | |
获取集合中元素个数 | scard key | value |
删除集合中的指定元素 | srem key value | |
随机出几个数 num 代表个数 | srandmember key num | |
移除并随即返回集合中的一个随机元素 | spop key | |
将key1中的值追加给key2 | smove key1 key2 value | |
key1中数据对key2 显示key2没有的数据 | sdiff key1 key2 | |
key1 key2 中一样的数据交集 | sinter key1 key2 | |
key1 key2 所有数据去重 | sunion key1 key2 |
操作 | 命令 |
赋值 | hset key k v |
取值 | hget key k |
多个赋值 | hset key k1 v1 k2 v2 k3 v3 |
取值多个 | hget key k1 k2 k3 |
取key的全部值 | hgetall key |
删除 | hdel key k |
key的长度 | hlen key |
在key里面的某个值是否存在 | hexists key k |
获取key对应的多个k | hkeys key |
获取key对应的多个值 | hvals key |
增值 给k加值 | hincrby key k num |
增加小数值 | hincrbyfloat key k num |
存在不添加,不存在录入 | hsetnx key k v |
操作 | 命令 |
添加 k不支持数字 | zadd key v1 k1 v2 k2 v3 k3 |
查看 | zrange key 0 -1 |
查看key中所有的kv | zrange key 0 -1 withscores |
key中k的值在一定的范围内 | zrangebyscore key start end |
key中k的值不包含end | zrangebyscore key start (end |
key中k的值大于start小于end | zrangebyscore key (start (end |
分页 | zrangebyscore key start end limit 0 0 |
删除key中的k | zrem key k |
key中的个数 | zcard key |
统计范围值个数 | zcount key 1 10 |
key中的k的下标 | zrank key k |
key中k对应的值 | zscore key k |
逆序key中k的下标 | zrevrank key k |
倒序 | zrevrange key 0 -1 |
颠倒顺序 end 和start 属于范围 | zrevrangebyscore key end start |
|
includes(包含)
limits限制
- Maxclients 最大连接 - Maxmemory - Maxmemory-policy 过期策略 默认永不过期noeviction(volatile-lru:使用lru算法移除key,只对设置了过期时间的键 - 、allkeys-lru:使用lru算法移除key、volatile-random:在国企集合中移除随机的key,只对设置了过期时间的键 - 、allkeys-random:移除随机的key、volatile-ttl:移除那些ttl值最小的key,即那些最近要过期的key、) - Maxmemory-samples 样例 默认5个
Redis持久化RDB和AOF
RDB:在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的snapshot快照,它恢复时是将快照文件直接读到内存里
redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程不进行任何IO操作的,这就确保了极高的性能,如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那么RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。
FORK:fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等)数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程。
always: 同步持久化,每次发生数据变更会被立即记录到磁盘 性能较差但数据完整性比较好
everysec: 出厂默认推荐,异步操作,每秒记录 如果一秒内宕机,有数据丢失
no
重写原理:aof文件持续增加而过大,会fork出一条进程来讲文件重写(也是先写临时文件最后再rename),遍历新进程的内存中数据,每条记录有一条的set语句。重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写一个新的aof文件,这点和快照有点类似。
触发机制:redis会记录上次重写时的aof大小,默认配置是当aof文件大小是上次rewrite后大小的一倍且文件大于64M时触发。
每修改同步:appendfsync everysec 异步操作,每秒记录,如果一秒内宕机,有数据丢失
不同步:appendfsync no 从不同步
aof运行效率慢于rdb,每秒同步策略效率较好,不同步效率和rdb相同
1.redis可以在aof文件体积变得过大时,自动地在后台对aof进行重写
2.aof文件有序地保存了对数据库执行的所有写入操作,这些写入操作以redis协议的格式保存,因此aof文件的内容非常容易被人读懂,对文件进行分析也很轻松。
3.对于相同的数据来说,aof文件的体积通常要大于rdb文件的体积
4.根据所使用的fsync策略,aof的速度可能会慢于rdb
- aof持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,aof命令以redis协议追加保存每次写的操作到文件末尾,redis还能对aof文件进行后台重写,使得aof文件的体积不至于过大。
- 同时开启两种持久化方式:在这种情况下,当redis重启的时候会优先载入aof文件来恢复原始的数据,因为在通常情况下aof文件保存的数据集比rdb文件保存的数据集要完整。
- rdb的数据不实时,同时使用两者时服务器重启也只会找aof文件。那要不要只使用aof呢
- 不建议,因为rdb更适合用于备份数据库(aof在不断变化不好备份),快速重启,而且不会有aof可能潜在的bug,留着作为一个万一的手段。
如果Enable aof,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的aof文件就可以了。代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少aof rewrite 的频率,aof重写的基础大小默认值64M太小了,可以设到5G以上。默认超过原大小100%大小时重写可以改到适当的数值。
如果不Enable AOF,仅靠master-slave replication 实现高可用性也可以。能省掉一大笔IO也减少了rewrite时带来的系统波动。代价是如果master\slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较master\slave中的rdb文件,载入较新的那个。
是什么:可以一次执行多个命令,本质是一组命令的集合。一个事务中的所有命令都会序列化,按顺序地串行化执行 执行而不会被其它命令插入,不许加塞。
能干什么:一个队列,一次性、顺序性、排他性的执行一系列
命令常用命令:
discard:取消事务,放弃执行事务块内所有命令。
exec:执行所有事务块内命令。
multi:标记一个事务块的开始。
unwatch:取消watch命令对所有key的监视。
watch key [key …]:监视一个(或多个)key,如果在事务执行之前这个(或这些)key被其他命令所改动,那么事务将被打断。
redis部分执行事务 两种一种在执行时报错,一种是自增时报错
悲观锁:(pessimistic lock)顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直接到它拿到锁。传统的关系数据库里边就用到了很多这种锁机制,比如行锁,表锁,读锁,写锁等,都是在操作之前先上锁。
乐观锁:(OPtimistic lock)顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此之间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。(乐观锁策略:提交版本必须大于记录当前版本才能执行更新)
小结:watch指令,类式乐观锁,事务提交时,如果key的值已被别的客户端改变,比如某个list已被别的客户端push/pop过了,整个事务队列都不会被执行。
通过watch命令在事务执行之前监控了多个keys,倘若在watch之后有任何key的值发生了变化,exec命令执行的事务都将被放弃,同时返回nullmulti-bulk应答已通知调用者事务执行失败。
redis事务三阶段:开启(以multi开始一个事务)
入队(将多个命令入队到事务中,接到这些命令并不会立即执行,而是放到等执行的事务队列里面)
执行(由exec命令触发事务)
三个特性:单独的隔离操作:事务中所有命令都会序列化、按顺序地执行。事务在执行过程中,不会被其他客户端发送来的命令请求所打断。
没有隔离级别的概念:队列中的命令没有提交之前都不会实际地被执行,因为事务提交前任何指令都不会被实际执行,也就不存在“事务内的查询要看到事务里的更新,在事务外查询不能看到“这个让人万分头痛的问题。
不保证原子性:redis同一个事务如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚。
中途变更转向:会清除之前的数据,重新建立拷贝最新的。
Slaveof 新主库IP新主库端口
1.Master接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,以完成一次完全同步。
2.全量复制:而slave服务在接收数据库文件数据后,将其存盘并加载到内存中。
3.增量复制:master继续将新的所有收集到的修改命令依次传给slave,完成同步但是只要是重新连接master,一次完全同步(全量复制)将被自动执行。
欢迎大家提议、分享、交流、共同学习进步