皆非的万事屋

redis知识总结

内容转载自JavaGuide

介绍

简单介绍一下 Redis

分布式缓存方案

分布式缓存的话,使用比较多的主要是 MemcachedRedis

共同点:

区别:

为什么使用redis

保证用户下一次再访问这些数据的时候就可以直接从缓存中获取了。操作缓存就是直接操作内存,所以速度相当快。

一般像 MySQL 这类的数据库的 QPS 大概都在 1w 左右(4 核 8g) ,但是使用 Redis 缓存之后很容易达到 10w+,甚至最高能达到 30w+(就单机 redis 的情况,redis 集群的话会更高)。

redis的其他用途

redis中的数据结构

键key常用命令

keys *  //查看当前库所有key    (匹配:keys *1)
exists key  //判断某个key是否存在
type key //查看你的key是什么类型
del key       //删除指定的key数据
unlink key   //根据value选择非阻塞删除,仅将keys从keyspace元数据中删除,真正的删除会在后续异步操作。
expire key 10   //10秒钟:为给定的key设置过期时间
ttl key //查看还有多少秒过期,-1表示永不过期,-2表示已过期
select //命令切换数据库
dbsize //查看当前数据库的key的数量
flushdb //清空当前库
flushall //通杀全部库

String

介绍:string 数据结构是简单的 key-value 类型。

String类型是二进制安全的。意味着Redis的string可以包含任何数据。比如jpg图片或者序列化的对象。

虽然 Redis 是用 C 语言写的,但是 Redis 并没有使用 C 的字符串表示,而是自己构建了一种 简单动态字符串(Simple Dynamic String,缩写SDS)。

是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配。

当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。一个Redis中字符串value最多可以是512M

常用命令:set,get,strlen,exists,decr,incr,setex 等等

set  <key><value>  //添加键值对
get  <key>  //查询对应键值
append  <key><value>  //将给定的<value> 追加到原值的末尾
strlen  <key>  //获得值的长度
setnx  <key><value>  //只有在 key 不存在时    设置 key 的值
incr  <key> //将 key 中储存的数字值增1,只能对数字值操作,如果为空,新增值为1
decr  <key> //将 key 中储存的数字值减1,只能对数字值操作,如果为空,新增值为-1
incrby / decrby  <key><步长>  //将 key 中储存的数字值增减。自定义步长。
mset  <key1><value1><key2><value2>  .....    //同时设置一个或多个 key-value对  
mget  <key1><key2><key3> .....  //同时获取一个或多个 value  
getrange  <key><起始位置><结束位置>  //获得值的范围,类似java中的substring,前包,后包
setrange  <key><起始位置><value>  //用 <value>  覆写<key>所储存的字符串值,从<起始位置>开始(索引从0开始)。
setex  <key><过期时间><value>    //设置键值的同时,设置过期时间,单位秒。

应用场景: 一般常用在需要计数的场景,比如用户的访问次数、热点文章的点赞转发数量等等。

list

介绍: Redis 的 list 是简单的字符串列表,按照插入顺序排序,实现为一个快速链表 quickList双向链表),首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表

它将所有的元素紧挨着一起存储,分配的是一块连续的内存。当数据量比较多的时候才会改成quicklist。(因为普通的链表需要的附加指针空间太大,会比较浪费空间)

Redis将链表和ziplist结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。

常用命令:rpush,lpop,lpush,rpop,lrange,llen

lpush/rpush  <key><value1><value2><value3> .... //从左边/右边插入一个或多个值。
lpop/rpop  <key> //从左边/右边吐出一个值。值在键在,值光键亡。
rpoplpush  <key1><key2>  //从<key1>列表右边吐出一个值,插到<key2>列表左边。
lrange <key><start><stop>
//按照索引下标获得元素(从左到右)
lrange mylist 0 -1   //0左边第一个,-1右边第一个,(0-1表示获取所有)
lindex <key><index>  //按照索引下标获得元素(从左到右)
llen <key>  //获得列表长度 

linsert <key>  before <value><newvalue> //在<value>的后面插入<newvalue>插入值
lrem <key><n><value>  //从左边删除n个value(从左到右)
lset<key><index><value>   //将列表key下标为index的值替换成value

应用场景:发布与订阅或者说消息队列、慢查询。

hash

介绍:hash 是一个 string 类型的 field 和 value 的映射表,是一个键值对集合。

特别适合用于存储对象,类似Java里面的Map<String,Object>,后续操作的时候,你可以直接仅仅修改这个对象中的某个字段的值。 比如我们可以 hash 数据结构来存储用户信息,商品信息等等。

通过 key(用户ID) + field(属性标签) 就可以操作对应属性数据了,既不需要重复存储数据,也不会带来序列化和并发修改控制的问题

常用命令:hset,hmset,hexists,hget,hgetall,hkeys,hvals

hset <key><field><value>  //给<key>集合中的  <field>键赋值<value>
hget <key1><field>    //从<key1> 集合<field>取出 value 
hmset <key1><field1><value1><field2><value2>... //批量设置hash的值
hexists<key1><field>   //查看哈希表 key 中,给定域 field 是否存在。 
hkeys <key>  //列出该hash集合的所有field
hvals <key>  //列出该hash集合的所有value
hincrby <key><field><increment>  //为哈希表 key 中的域 field 的值加上增量 1   -1
hsetnx <key><field><value>  //将哈希表 key 中的域 field 的值设置为 value ,当且仅当域 field 不存在 .

应用场景:系统中对象数据的存储。

set

介绍:Redis 中的 set 类型是一种无序集合(自动去重),集合中的元素没有先后顺序。它底层数据结构是dict字典,字典是用hash表实现的,是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)。

可以基于 set 轻易实现交集、并集、差集的操作。比如:你可以将一个用户所有的关注人存在一个集合中,将其所有粉丝存在一个集合。Redis 可以非常方便的实现如共同关注、共同粉丝、共同喜好等功能。这个过程也就是求交集的过程。

常用命令:sadd,spop,smembers,sismember,scard,sinterstore,sunion等。

sadd <key><value1><value2> .....   //将一个或多个 member 元素加入到集合 key 中,已经存在的 member 元素将被忽略
smembers <key>  //取出该集合的所有值。
sismember <key><value>  //判断集合<key>是否为含有该<value>值,有1,没有0
scard<key>  //返回该集合的元素个数。
srem <key><value1><value2> .... //删除集合中的某个元素。
spop <key>  //随机从该集合中吐出一个值。
srandmember <key><n>  //随机从该集合中取出n个值。不会从集合中删除 。
smove <source><destination>value  //把集合中一个值从一个集合移动到另一个集合
sinter <key1><key2>  //返回两个集合的交集元素。
sunion <key1><key2>  //返回两个集合的并集元素。
sdiff <key1><key2>  //返回两个集合的差集元素(key1中的,不包含key2中的)

应用场景: 需要存放的数据不能重复以及需要获取多个数据源交集和并集等场景

Zset(sorted set)

介绍: 和 set 相比,sorted set 增加了一个权重参数 score(可重复),使得集合中的元素能够按 score 进行有序排列,还可以通过 score 的范围来获取元素的列表。有点像是 Java 中 HashMap 和 TreeSet 的结合体。

zset底层使用了两个数据结构:

常用命令: zadd,zcard,zscore,zrange,zrevrange,zrem 等。

zadd  <key><score1><value1><score2><value2>… //将一个或多个 member 元素及其 score 值加入到有序集 key 当中。
zrange <key><start><stop>  [WITHSCORES]   //返回有序集 key 中,下标在<start><stop>之间的元素带WITHSCORES,可以让分数一起和值返回到结果集。
zrangebyscore key minmax [withscores] [limit offset count] //返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。 
zrevrangebyscore key maxmin [withscores] [limit offset count]     //同上,改为从大到小排列。 
zincrby <key><increment><value>      //为元素的score加上增量
zrem  <key><value>  //删除该集合下,指定值的元素 
zcount <key><min><max>  //统计该集合,分数区间内的元素个数 
zrank <key><value>   //返回该值在集合中的排名,从0开始。

应用场景: 需要对数据根据某个权重进行排序的场景。比如在直播系统中,实时排行信息包含直播间在线用户列表,各种礼物排行榜,弹幕消息(可以理解为按消息维度的消息排行榜)等信息。

案例:如何利用zset实现一个文章访问量的排行榜?

bitmap

介绍:bitmap 存储的是连续的二进制数字(0 和 1),通过 bitmap, 只需要一个 bit 位来表示某个元素对应的值或者状态,key 就是对应元素本身 。我们知道 8 个 bit 可以组成一个 byte,所以 bitmap 本身会极大的节省储存空间。

Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作

可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量offset。(offset:偏移量从0开始)

常用命令: setbit 、getbit 、bitcount、bitop

setbit<key><offset><value>  //设置Bitmaps中某个偏移量的值(0或1)
getbit<key><offset>  //获取Bitmaps中某个偏移量的值
bitcount<key>[start end]  //统计字符串从start字节到end字节比特值为1的数量
bitop  and(or/not/xor) <destkey> [key…]  //bitop是一个复合操作, 它可以做多个Bitmaps的and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。

应用场景: 适合需要保存状态信息(比如是否签到、是否登录...)并需要进一步对这些信息进行分析的场景。比如用户签到情况活跃用户情况、用户行为统计(比如是否点赞过某个视频)。

实例:

每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id。

设置键的第offset个位的值(从0算起) , 假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问, 那么当前Bitmaps初始化结果如图

Bitmaps与set对比

假设网站有1亿用户, 每天独立访问的用户有5千万, 如果每天用集合类型和Bitmaps分别存储活跃用户可以得到表:

很明显, 这种情况下使用Bitmaps能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的

但Bitmaps并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用Bitmaps就不太合适了, 因为基本上大部分位都是0。

HyperLogLog

[scode type="share"]基数问题:在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。
但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。[/scode]

Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。

pfadd <key>< element> [element ...]   //添加指定元素到 HyperLogLog 中
pfcount<key> [key ...]   //计算HLL的近似基数,可以计算多个HLL,比如用HLL存储每天的UV,计算一周的UV可以使用7天的UV合并计算即可
pfmerge<destkey><sourcekey> [sourcekey ...]  //将一个或多个HLL合并后的结果存储在另一个HLL中,比如每月活跃用户可以使用每天的活跃用户来合并计算可得

6.3. Geospatial

Redis 3.2 中增加了对GEO类型的支持。

GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。

redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。

geopos  <key><member> [member...]  //获得指定地区的坐标值
geodist<key><member1><member2>  [m|km|ft|mi ]  //获取两个位置之间的直线距离
georadius<key>< longitude><latitude>radius  m|km|ft|mi   //以给定的经纬度为中心,找出某一半径内的元素

发布订阅

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

Redis 客户端可以订阅任意数量的频道。

命令

SUBSCRIBE channel1   //客户端订阅channel1
publish channel1 hello   //另一个客户端,给channel1发布消息hello

线程模型

Redis单线程模型详解

Redis 基于 Reactor 模式来设计开发了自己的一套高效的事件处理模型 (Netty 的线程模型也基于 Reactor 模式,Reactor 模式不愧是高性能 IO 的基石),这套事件处理模型对应的是 Redis 中的文件事件处理器(file event handler)。由于文件事件处理器(file event handler)是单线程方式运行的,所以我们一般都说 Redis 是单线程模型。

既然是单线程,那怎么监听大量的客户端连接呢?

Redis 通过IO 多路复用程序 来监听来自客户端的大量连接(或者说是监听多个 socket),它会将感兴趣的事件及类型(读、写)注册到内核中并监听每个事件是否发生。

这样的好处非常明显: I/O 多路复用技术的使用让 Redis 不需要额外创建多余的线程来监听客户端的大量连接,降低了资源的消耗(和 NIO 中的 Selector 组件很像)。

另外, Redis 服务器是一个事件驱动程序,服务器需要处理两类事件:1. 文件事件; 2. 时间事件

时间事件不需要多花时间了解,我们接触最多的还是 文件事件(客户端进行读取写入等操作,涉及一系列网络通信)。

《Redis 设计与实现》有一段话是如是介绍文件事件的,我觉得写得挺不错。

[scode type="green"]Redis 基于 Reactor 模式开发了自己的网络事件处理器:这个处理器被称为文件事件处理器(file event handler)。文件事件处理器使用 I/O 多路复用(multiplexing)程序来同时监听多个套接字,并根据套接字目前执行的任务来为套接字关联不同的事件处理器。[/scode]

[scode type="green"]当被监听的套接字准备好执行连接应答(accept)、读取(read)、写入(write)、关 闭(close)等操作时,与操作相对应的文件事件就会产生,这时文件事件处理器就会调用套接字之前关联好的事件处理器来处理这些事件。[/scode]

[scode type="green"]虽然文件事件处理器以单线程方式运行,但通过使用 I/O 多路复用程序来监听多个套接字,文件事件处理器既实现了高性能的网络通信模型,又可以很好地与 Redis 服务器中其他同样以单线程方式运行的模块进行对接,这保持了 Redis 内部单线程设计的简单性。[/scode]

可以看出,文件事件处理器(file event handler)主要是包含 4 个部分:

多线程

Redis 6.0 之前主要还是单线程处理。Redis6.0 之前 为什么不使用多线程?

Redis6.0 之后为何引入了多线程?

Redis6.0 引入多线程主要是为了提高网络 IO 读写性能,因为这个算是 Redis 中的一个性能瓶颈(Redis 的瓶颈主要受限于内存和网络)。

Redis6.0 的多线程默认是禁用的,只使用主线程。开启多线程后,还需要设置线程数,否则是不生效的。

过期

Redis 中除了字符串类型有自己独有设置过期时间的命令 setex 外,其他方法都需要依靠 expire 命令来设置过期时间 。另外, persist 命令可以移除一个键的过期时间。

如何判断过期

Redis 通过一个叫做过期字典(可以看作是 hash 表)来保存数据过期的时间。过期字典的键指向 Redis 数据库中的某个 key(键),过期字典的值是一个 long long 类型的整数,这个整数保存了 key 所指向的数据库键的过期时间(毫秒精度的 UNIX 时间戳)。

删除策略

定期删除对内存更加友好,惰性删除对 CPU 更加友好。两者各有千秋,所以 Redis 采用的是 定期删除+惰性/懒汉式删除 。

淘汰机制

Redis 提供 6 种数据淘汰策略:

4.0 版本后增加以下两种:

持久化

Redis 的一种持久化方式叫快照(snapshotting,RDB,Redis DataBase),另一种方式是只追加文件(append-only file, AOF)

RDB快照

Redis 可以通过创建快照来获得存储在内存里面的数据在某个时间点上的副本。在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里

Redis 创建快照之后,可以对快照进行备份,可以将快照复制到其他服务器从而创建具有相同数据的服务器副本(Redis 主从结构,主要用来提高 Redis 性能),还可以将快照留在原地以便重启服务器的时候使用。

快照持久化是 Redis 默认采用的持久化方式

过程

Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。

整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能 如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。

RDB的缺点是最后一次持久化后的数据可能丢失。

命令

总结

优势:

缺点:

AOF(append-only file)持久化

以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件

redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

与快照持久化相比,AOF 持久化的实时性更好,因此已成为主流的持久化方案。

AOF默认不开启,AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)

过程

AOF同步频率设置:

Rewrite压缩

AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制, 当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩, 只保留可以恢复数据的最小指令集

总结

优势:

缺点:

总结

官方推荐两个都启用。

如果对数据不敏感,可以选单独用RDB。

不建议单独用 AOF,因为可能会出现Bug。

如果只是做纯内存缓存,可以都不用。

事务

Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

Redis事务的主要作用就是串联多个命令防止别的命令插队

Redis 可以通过 MULTIEXECDISCARDWATCH 等命令来实现事务(transaction)功能。

Multi、Exec、discard

从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。

这个过程是这样的:

你也可以通过 DISCARD 命令取消一个事务,它会清空事务队列中保存的所有命令。

事务的错误处理

组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。

如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

Redis 是不支持 roll back 的,因而不满足原子性的(而且不满足持久性)。

WATCH key

在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key

如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。

unwatch

取消 WATCH 命令对所有 key 的监视。

如果在执行 WATCH 命令之后,EXEC 命令或DISCARD 命令先被执行了的话,那么就不需要再执行UNWATCH 了。

事务三特性

redis乐观锁解决超卖

//增加乐观锁
jedis.watch(qtkey);
//判断库存
String qtkeystr = jedis.get(qtkey);
if(qtkeystr==null || "".equals(qtkeystr.trim())) {
    System.out.println("未初始化库存");
    jedis.close();
    return false ;
}
int qt = Integer.parseInt(qtkeystr);
if(qt<=0) {
    System.err.println("已经秒光");
    jedis.close();
    return false;
}
//增加事务
Transaction multi = jedis.multi(); 
//减少库存
//jedis.decr(qtkey);
multi.decr(qtkey); 
//加入
//jedis.sadd(usrkey, uid);
multi.sadd(usrkey, uid); 
//执行事务
List<Object> list = multi.exec();
//判断事务提交是否失败
if(list==null || list.size()==0) {
    System.out.println("秒杀失败");
    jedis.close();
    return false;
}
System.err.println("秒杀成功");
jedis.close();

LUA

Lua 是一个小巧的脚本语言,Lua脚本可以很容易的被C/C++ 代码调用,也可以反过来调用C/C++的函数,Lua并没有提供强大的库,一个完整的Lua解释器不过200k,所以Lua不适合作为开发独立应用程序的语言,而是作为嵌入式脚本语言。

在redis中的应用

将复杂的或者多步的redis操作,写为一个脚本,一次提交给redis执行,减少反复连接redis的次数。提升性能。

LUA脚本是类似redis事务,有一定的原子性,不会被其他命令插队,可以完成一些redis事务性的操作。

利用lua脚本淘汰用户,解决超卖问题。

redis 2.6版本以后,通过lua脚本解决争抢问题,实际上是redis 利用其单线程的特性,用任务队列的方式解决多任务并发问题。

解决库存遗留问题

local userid=KEYS[1]; 
local prodid=KEYS[2];
local qtkey="sk:"..prodid..":qt";
local usersKey="sk:"..prodid.":usr'; 
local userExists=redis.call("sismember",usersKey,userid);
if tonumber(userExists)==1 then 
  return 2;
end
local num= redis.call("get" ,qtkey);
if tonumber(num)<=0 then 
  return 0; 
else 
  redis.call("decr",qtkey);
  redis.call("sadd",usersKey,userid);
end
return 1;

缓存穿透

缓存穿透说简单点就是大量请求的 key 根本不存在于缓存中,导致请求直接到了数据库上,根本没有经过缓存这一层。

举个例子:某个黑客故意制造我们缓存中不存在的 key 发起大量请求,导致大量请求落到数据库。

解决方法

最基本的就是首先做好参数校验,一些不合法的参数请求直接抛出异常信息返回给客户端。比如查询的数据库 id 不能小于 0、传入的邮箱格式不对的时候直接返回错误消息给客户端等等。

缓存无效key

尽量将无效的 key 的过期时间设置短一点比如 1 分钟。

布隆过滤器

是一种基于概率的数据结构,判断当前某个元素是否在该集合中,运行速度快。

每个布隆过滤器对应到 Redis 的数据结构里面就是一个大型的位数组和几个不一样的无偏 hash 函数。

所谓无偏就是能够把元素的 hash 值算得比较均匀。

向布隆过滤器中添加 key 时,会使用多个 hash 函数对 key 进行 hash 算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个 hash 函数都会算得一个不同的位置。

再把位数组的这几个位置都置为 1 就完成了 add 操作。

( 每一个 key 都通过若干的hash函数映射到一个巨大位数组上,映射成功后,会在把位数组上对应的位置改为1。)

缓存击穿

原因:

导致大并发请求直接请求数据库,瞬间对数据库的访问压力增大。

解决:

我们常用的解决方案是加锁。

对于key过期的时候,当key要查询数据库的时候加上一把锁,这时只能让第一个请求进行查询数据库,然后把从数据库中查询到的值存储到缓存中,对于剩下的相同的key,可以直接从缓存中获取即可。

如果我们是在单机环境下:直接使用常用的锁即可(如:Lock、Synchronized等)

在分布式环境下我们可以使用分布式锁,如:基于数据库、基于Redis或者zookeeper 的分布式锁。

还有就是:对于访问特别频繁的热点数据,不设置过期时间

缓存雪崩

Redis 服务不可用: 缓存在同一时间大面积的失效,后面的请求都直接落到了数据库上,造成数据库短时间内承受大量请求。

Redis 大面积过期:有一些被大量访问数据(热点缓存)在某一时刻大面积失效,导致对应的请求直接落到了数据库上。

解决

针对 Redis 服务不可用的情况:

针对热点缓存失效的情况:

另外还有三个建议:

保证缓存和数据库数据的一致性

读写策略 Cache Aside Pattern(旁路缓存模式) :更新 DB,然后直接删除 cache 。

如果更新数据库成功,而删除缓存这一步失败的情况的话,简单说两个解决方案:

读写策略

Cache Aside Pattern

Cache Aside Pattern (旁路缓存模式) 是我们平时使用比较多的一个缓存读写模式,比较适合读请求比较多的场景。

Cache Aside Pattern 中服务端需要同时维系 DB 和 cache,并且是以 DB 的结果为准。

写:

读:

问题

在写数据的过程中,可以先删除 cache ,后更新 DB 么?

不行:请求1先把cache中的A数据删除 -> 请求2从DB中读取数据->请求1再把DB中的A数据更新。

在写数据的过程中,先更新DB,后删除cache就没有问题了么?

不一定: 请求1从DB读数据A->请求2写更新数据 A 到数据库并把删除cache中的A数据->请求1将数据A写入cache。

缺陷

首次请求数据一定不在 cache 的问题:可以将热点数据可以提前放入cache 中。

写操作比较频繁的话导致cache中的数据会被频繁被删除,这样会影响缓存命中率 :

Read/Write Through Pattern

Read/Write Through Pattern (读写穿透)中服务端把 cache 视为主要数据存储,从中读取数据并将数据写入其中。

cache 服务负责将此数据读取和写入 DB,从而减轻了应用程序的职责。

写:

读(Read Through):

Write Behind Pattern

Write Behind Pattern (异步缓存写入)和 Read/Write Through Pattern 很相似,两者都是由 cache 服务来负责 cache 和 DB 的读写。

但是,两个又有很大的不同:Read/Write Through 是同步更新 cache 和 DB,而 Write Behind Caching 则是只更新缓存,不直接更新 DB,而是改为异步批量的方式来更新 DB。

很明显,这种方式对数据一致性带来了更大的挑战,比如cache数据可能还没异步更新DB的话,cache服务可能就就挂掉了。

Write Behind Pattern 下 DB 的写性能非常高,非常适合一些数据经常变化又对数据一致性要求没那么高的场景,比如浏览量点赞量

缓存异常

缓存和数据库的数据一致性包含两种情况:

数据不一致是如何发生的

读写缓存:有两种写回策略,同步直写异步写回。如果要保证数据一致,就要采用同步直写策略。但需要保证缓存和数据库的更新具有原子性,即要么都成功,要么都失败。

只读缓存:分新增数据和删改数据两种情况说明。

新增数据:数据直接写到数据库中,不对缓存做任何操作,符合一致性的第2种情况。

删改数据:发生删改操作时,既要更新数据库,也要在缓存里删除数据。因为缓存和数据库是不同的系统,这里分两种情况:

如何解决数据不一致

使用重试机制,指把删除的缓存值或者是要更新的数据库值暂存到消息队列中(例如使用Kafka消息队列)。

当应用没有能够成功地删除缓存值或者是更新数据库值时,从消息队列中重新读取这些值,然后再次进行删除或更新。

如果成功删除,就从消息队列中删除,以免重复操作。否则就要进行重试,如果重试超过一定次数,就要向业务层发送报错信息。

对于只读缓存来说,建议优先使用先更新数据库,再删除缓存。

主从

读写分离,性能扩展,容灾快速恢复

当前页面是本站的「Google AMP」版。查看和发表评论请点击:完整版 »