Rides再次学习3

rides的学习与使用

1.Redis 持久化

1-1.持久化简介

  • 什么是持久化

    • 利用永久性存储介质将数据进行保存,在特定的时间将保存的数据进行恢复的工作机制称为持久化。
  • 为什么要进行持久化

    • 防止数据的意外丢失,确保数据安全性
  • 持久化过程保存什么

    • 将当前数据状态进行保存,快照形式,存储数据结果,存储格式简单,关注点在数据
    • 将数据的操作过程进行保存,日志形式,存储操作过程,存储格式复杂,关注点在数据的操作过程

3-4

1-2.RDB

1.RDB启动方式 —— save指令

作用:手动执行一次保存操作

1
2
3
4
5
6
7
8
9
10
11
save
在data中可以看到,多了dump.rdb
[root@localhost data]# ll
总用量 16
-rw-r--r--. 1 root root 6231 411 20:43 6379.log
-rw-r--r--. 1 root root 6730 411 16:54 6380.log
[root@localhost data]# ll
总用量 20
-rw-r--r--. 1 root root 6282 411 20:44 6379.log
-rw-r--r--. 1 root root 6730 411 16:54 6380.log
-rw-r--r--. 1 root root 106 411 20:44 dump.rdb

2.save指令相关配置

  • dbfilename dump.rdb
    • 说明:设置本地数据库文件名,默认值为 dump.rdb
    • 经验:通常设置为dump-端口号.rdb
  • dir
    • 说明:设置存储.rdb文件的路径
    • 经验:通常设置成存储空间较大的目录中,目录名称data
  • rdbcompression yes
    • 说明:设置存储至本地数据库时是否压缩数据,默认为 yes,采用 LZF 压缩
    • 经验:通常默认为开启状态,如果设置为no,可以节省 CPU 运行时间,但会使存储的文件变大(巨大)
  • rdbchecksum yes
    • 说明:设置是否进行RDB文件格式校验,该校验过程在写文件和读文件过程均进行
    • 经验:通常默认为开启状态,如果设置为no,可以节约读写性过程约10%时间消耗,但是存储一定的数据损坏风险
  • stop-writes-on-bgsave-error yes
    • 说明:后台存储过程中如果出现错误现象,是否停止保存操作
    • 经验:通常默认为开启状态
1
2
3
4
5
6
7
8
9
10
11
12
13
14
在conf里改
cd conf
vim redis-6379.conf

port 6379
daemonize yes
logfile "6379.log"
dir /root/redis-5.0.8/data
dbfilename dump-6379.rdb
rdbcompression yes
rdbchecksum yes
当使用了save后
cd data
rm -rf dump.rdb

3.save指令工作原理

3-5

3-6

注意:

  • save指令的执行会阻塞当前Redis服务器,直到当前RDB过程完成为止,有可能会造成长时间阻塞,线上环境不建议使用。

数据量过大,单线程执行方式造成效率过低如何处理?

  • 后台执行

    • redis操作者(用户)发起指令;redis服务器控制指令执行
    • 即时(发起);合理的时间(执行)
    • 保存数据
  • bgsave指令:手动启动后台保存操作,但不是立即执行

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
bgsave

127.0.0.1:6379> save
OK
127.0.0.1:6379> set name name
OK
127.0.0.1:6379> bgsave
Background saving started

[root@localhost redis-5.0.8]# cd data
[root@localhost data]# ll
总用量 24
-rw-r--r--. 1 root root 9416 411 21:06 6379.log
-rw-r--r--. 1 root root 6730 411 16:54 6380.log
-rw-r--r--. 1 root root 117 411 21:06 dump-6379.rdb
[root@localhost data]# ll
总用量 24
-rw-r--r--. 1 root root 9691 411 21:06 6379.log
-rw-r--r--. 1 root root 6730 411 16:54 6380.log
-rw-r--r--. 1 root root 130 411 21:06 dump-6379.rdb

4.bgsave指令工作原理

3-7

注意:

  • bgsave命令是针对save阻塞问题做的优化。
  • Redis内部所有涉及到RDB操作都采用bgsave的方式,save命令可以放弃使用。

5.反复执行保存指令,忘记了怎么办?不知道数据产生了多少变化,何时保存?

  • 自动执行

    • 谁:redis服务器发起指令(基于条件)
    • 什么时间:满足条件
    • 干什么事情:保存数据
  • save配置

  • 作用:

    • 满足限定时间范围内key的变化数量达到指定数量即进行持久化
  • 参数

    • second:监控时间范围
    • changes:监控key的变化量
  • 位置

    • 在conf文件中进行配置
1
2
3
save 900 1
save 300 10
save 60 10000

3-8

  • 原理

3-9

注意:

  • save配置要根据实际业务情况进行设置,频度过高或过低都会出现性能问题,结果可能是灾难性的
  • save配置中对于second与changes设置通常具有互补对应关系,尽量不要设置成包含性关系
  • save配置启动后执行的是bgsave操作

6.RDB两种启动方式对比

3-10

7.rdb特殊启动形式

  • 全量复制
    • 在主从复制中详细讲解
  • 服务器运行过程中重启
1
debug reload
  • 关闭服务器时指定保存数据
1
shutdown save
  • 默认情况下执行shutdown命令时,自动执行bgsave(如果没有开启AOF持久化功能)

8.优点和缺点

  • RDB优点
    • RDB是一个紧凑压缩的二进制文件,存储效率较高
    • RDB内部存储的是redis在某个时间点的数据快照,非常适合用于数据备份,全量复制等场景
    • RDB恢复数据的速度要比AOF快很多
    • 应用:服务器中每X小时执行bgsave备份,并将RDB文件拷贝到远程机器中,用于灾难恢复。
  • Rdb缺点
    • RDB方式无论是执行指令还是利用配置,无法做到实时持久化,具有较大的可能性丢失数据
    • bgsave指令每次运行要执行fork操作创建子进程,要牺牲掉一些性能
    • Redis的众多版本中未进行RDB文件格式的版本统一,有可能出现各版本服务之间数据格式无法兼容现象

2.AOF

2-1.RDB存储的弊端

  • 存储数据量较大,效率较低
  • 基于快照思想,每次读写都是全部数据,当数据量巨大时,效率非常低
  • 大数据量下的IO性能较低
  • 基于fork创建子进程,内存产生额外消耗
  • 宕机带来的数据丢失风险

解决思路

  • 不写全数据,仅记录部分数据
  • 降低区分数据是否改变的难度,改记录数据为记录操作过程
  • 对所有操作均进行记录,排除丢失数据的风险

2-2.AOF概念

  • AOF(append only file)持久化:以独立日志的方式记录每次写命令,重启时再重新执行AOF文件中命令达到恢复数据的目的。与RDB相比可以简单描述为改记录数据为记录数据产生的过程
  • AOF的主要作用是解决了数据持久化的实时性,目前已经是Redis持久化的主流方式

2.3.AOF写数据过程

3-11

2.4.AOF写数据三种策略(appendfsync)

  • always(每次)
    • 每次写入操作均同步到AOF文件中,数据零误差,性能较低,不建议使用。
  • everysec(每秒)
    • 每秒将缓冲区中的指令同步到AOF文件中,数据准确性较高,性能较高,建议使用,也是默认配置
    • 在系统突然宕机的情况下丢失1秒内的数据
  • no(系统控制)
    • 由操作系统控制每次同步到AOF文件的周期,整体过程不可控

2.5.AOF功能开启

  • 配置:appendonly yes|no
  • 作用:是否开启AOF持久化功能,默认为不开启状态
  • 配置:appendfsync always|everysec|no
  • 作用:AOF写数据策略
  • 配置:appendfilename filename
  • 作用:AOF持久化文件名,默认文件名未appendonly.aof,建议配置为appendonly-端口号.aof
  • 配置:dir
  • 作用:AOF持久化文件保存路径,与RDB持久化文件保持一致即可
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
cd redis-5.0.8
cd conf
vim redis-6379.conf

最后加
appendonly yes
appendfsync always

启动
redis-server redis-6379.conf
cd ..
cd data
[root@localhost data]# ll
总用量 28
-rw-r--r--. 1 root root 13023 421 16:09 6379.log
-rw-r--r--. 1 root root 6730 411 16:54 6380.log
-rw-r--r--. 1 root root 0 421 16:09 appendonly.aof
-rw-r--r--. 1 root root 130 411 21:06 dump-6379.rdb

2.6.AOF写数据遇到的问题

如果连续执行如下指令该如何处理?

3-12

AOF重写

  • 随着命令不断写入AOF,文件会越来越大,为了解决这个问题,Redis引入了AOF重写机制压缩文件体积。
  • AOF文件重写是将Redis进程内的数据转化为写命令同步到新AOF文件的过程。
  • 简单说就是将对同一个数据的若干个条命令执行结果转化成最终结果数据对应的指令进行记录。
  • 作用:
    • 降低磁盘占用量,提高磁盘利用率
    • 提高持久化效率,降低持久化写时间,提高IO性能
    • 降低数据恢复用时,提高数据恢复效率

AOF重写规则

  • 进程内已超时的数据不再写入文件
  • 忽略无效指令,重写时使用进程内数据直接生成,这样新的AOF文件只保留最终数据的写入命令
    • 如del key1、 hdel key2、srem key3、set key4 111、set key4 222等
  • 对同一数据的多条写命令合并为一条命令
    • 如lpush list1 a、lpush list1 b、 lpush list1 c 可以转化为:lpush list1 a b c。
    • 为防止数据量过大造成客户端缓冲区溢出,对list、set、hash、zset等类型,每条指令最多写入64个元素

AOF重写方式

1.手动重写:bgrewriteaof

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
vim redis-6379.conf

最后加
appendonly yes
appendfsync always
appendfilename appendonly-6379.aof

启动
redis-server redis-6379.conf
ps -ef | grep redis-
cd data
ll

客户端2
redis-cli
set naem 123
set naem 234
set naem 345
客户端1:appendonly-6379.aof 有三个的记录
bgrewriteaof
客户端1:appendonly-6379.aof 只剩1个的记录
  • RDB启动方式 —— bgsave指令工作原理
  • AOF手动重写 —— bgrewriteaof指令工作原理

3-13

2.自动重写

  • 自动重写触发条件设置
1
2
auto-aof-rewrite-min-size size
auto-aof-rewrite-percentage percent
  • 自动重写触发比对参数( 运行指令info Persistence获取具体信息 )
1
2
aof_current_size
aof_base_size
  • 自动重写触发条件

3-14

2.7.AOF工作流程

3-15

2.8.AOF重写流程

3-16

AOF缓冲区同步文件策略,由参数appendfsync控制

  • 系统调用write和fsync说明:
  • write操作会触发延迟写(delayed write)机制,Linux在内核提供页缓冲区用来提高硬盘IO性能。write操作在写入系统缓冲区后直接返回。同步硬盘操作依赖于系统调度机制,列如:缓冲区页空间写满或达到特定时间周期。同步文件之前,如果此时系统故障宕机,缓冲区内数据将丢失。
  • fsync针对单个文件操作(比如AOF文件),做强制硬盘同步,fsync将阻塞知道写入硬盘完成后返回,保证了数据持久化。
  • 除了write、fsync、Linx还提供了sync、fdatasync操作,具体API说明

3.RDB与AOF区别

3-17

  • 对数据非常敏感,建议使用默认的AOF持久化方案
    • AOF持久化策略使用everysecond,每秒钟fsync一次。该策略redis仍可以保持很好的处理性能,当出现问题时,最多丢失0-1秒内的数据。
    • 注意:由于AOF文件存储体积较大,且恢复速度较慢
  • 数据呈现阶段有效性,建议使用RDB持久化方案
    • 数据可以良好的做到阶段内无丢失(该阶段是开发者或运维人员手工维护的),且恢复速度较快,阶段点数据恢复通常采用RDB方案
    • 注意:利用RDB实现紧凑的数据持久化会使Redis降的很低,慎重总结:
  • 综合比对
    • RDB与AOF的选择实际上是在做一种权衡,每种都有利有弊
    • 如不能承受数分钟以内的数据丢失,对业务数据非常敏感,选用AOF
    • 如能承受数分钟以内的数据丢失,且追求大数据集的恢复速度,选用RDB
    • 灾难恢复选用RDB
    • 双保险策略,同时开启 RDB 和 AOF,重启后,Redis优先使用 AOF 来恢复数据,降低丢失数据的量

4.持久化应用场景

  • redis 应用于抢购,限购类、限量发放优惠卷、激活码等业务的数据存储设计
  • redis 应用于具有操作先后顺序的数据控制
  • redis 应用于最新消息展示
  • redis 应用于基于黑名单与白名单设定的服务控制
  • redis 应用于计数器组合排序功能对应的排名

5.事务

  • Redis执行指令过程中,多条连续执行的指令被干扰,打断,插队
  • redis事务就是一个命令执行的队列,将一系列预定义命令包装成一个整体(一个队列)。当执行时,一次性按照添加顺序依次执行,中间不会被打断或者干扰。
  • 一个队列中,一次性、顺序性、排他性的执行一系列命令

3-18

3-19

5.1.事务的基本操作

  • 开启事务:multi
  • 作用:设定事务的开启位置,此指令执行后,后续的所有指令均加入到事务中
  • 执行事务:exec
  • 作用:设定事务的结束位置,同时执行事务。与multi成对出现,成对使用
  • 注意:加入事务的命令暂时进入到任务队列中,并没有立即执行,只有执行exec命令才开始执行
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
客户端1
redis-server conf/redis-6379.conf
客户端2
[root@localhost redis-5.0.8]# redis-cli
127.0.0.1:6379> set name 123
OK
客户端3
[root@localhost ~]# redis-cli
127.0.0.1:6379> set name 456
OK
客户端2
127.0.0.1:6379> get name
"456"

127.0.0.1:6379> multi
OK
127.0.0.1:6379> set age 1
QUEUED
127.0.0.1:6379> get age
QUEUED
127.0.0.1:6379> set age 10
QUEUED
127.0.0.1:6379> get age
QUEUED
127.0.0.1:6379> exec
1) OK
2) "1"
3) OK
4) "10"

事务定义过程中发现出了问题,怎么办?

  • 取消事务:discard
  • 作用:终止当前事务的定义,发生在multi之后,exec之前
1
2
3
4
5
6
7
8
9
10
11
12
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set age 10
QUEUED
127.0.0.1:6379> get age
QUEUED
127.0.0.1:6379> set age 110
QUEUED
127.0.0.1:6379> discard
OK
127.0.0.1:6379> exec
(error) ERR EXEC without MULTI

5.2.事务的工作流程

正常set

3-20

开启事务

3-21

set

3-22

del

3-23

执行

3-24

取消

3-25

5.3.事务的注意事项

定义事务的过程中,命令格式输入错误怎么办?

  • 语法错误
    • 指命令书写格式有误
  • 处理结果
    • 如果定义的事务中所包含的命令存在语法错误,整体事务中所有命令均不会执行。包括那些语法正确的命令。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
清除数据
127.0.0.1:6379> flushdb
OK
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set name 123
QUEUED
127.0.0.1:6379> get name
QUEUED
127.0.0.1:6379> tes name 456
(error) ERR unknown command `tes`, with args beginning with: `name`, `456`,
127.0.0.1:6379> exec
(error) EXECABORT Transaction discarded because of previous errors.
语法错误,全部不执行

定义事务的过程中,命令执行出现错误怎么办?

  • 运行错误

    • 指命令格式正确,但是无法正确的执行。例如对list进行incr操作
  • 处理结果

    • 能够正确运行的命令会执行,运行错误的命令不会被执行

    • 注意:已经执行完毕的命令对应的数据不会自动回滚,需要程序员自己在代码中实现回滚。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set name 123
QUEUED
127.0.0.1:6379> get name
QUEUED
127.0.0.1:6379> set name 456
QUEUED
127.0.0.1:6379> get name
QUEUED
127.0.0.1:6379> lpush name a b c
QUEUED
127.0.0.1:6379> get name
QUEUED
127.0.0.1:6379> exec
1) OK
2) "123"
3) OK
4) "456"
5) (error) WRONGTYPE Operation against a key holding the wrong kind of value
6) "456"

5.4.手动进行事务回滚

  • 记录操作过程中被影响的数据之前的状态
    • 单数据:string
    • 多数据:hash、list、set、zset
  • 设置指令恢复所有的被修改的项
    • 单数据:直接set(注意周边属性,例如时效)
    • 多数据:修改对应值或整体克隆复制

6.锁

6.1.基于特定条件的事务执行

  • 业务场景
    • 天猫双11热卖过程中,对已经售罄的货物追加补货,4个业务员都有权限进行补货。补货的操作可能是一系列的操作,牵扯到多个连续操作,如何保障不会重复操作?
  • 业务分析
    • 多个客户端有可能同时操作同一组数据,并且该数据一旦被操作修改后,将不适用于继续操作
    • 在操作之前锁定要操作的数据,一旦发生变化,终止当前操作

6.2.基于特定条件的事务执行——锁

  • 对 key 添加监视锁,在执行exec前如果key发生了变化,终止事务执行
1
watch key1 [key2……]
  • 取消对所有 key 的监视
1
unwatch
  • redis 应用基于状态控制的批量任务执行
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
清除数据
127.0.0.1:6379> flushdb
OK
127.0.0.1:6379> keys *
127.0.0.1:6379> set name 123
OK
127.0.0.1:6379> set age 321
OK
127.0.0.1:6379> watch name
OK
127.0.0.1:6379> get name
"123"
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set aa bb
QUEUED
127.0.0.1:6379> get aa
QUEUED
127.0.0.1:6379> exec
1) OK
2) "bb"

监控到有别的客户端使用name

1
2
3
4
5
6
7
8
9
10
11
12
13
14
127.0.0.1:6379> watch name age
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set aa cc
QUEUED
127.0.0.1:6379> get aa
QUEUED

客户端2set name 321

客户端1
127.0.0.1:6379> exec
(nil)

不能开启事务,监控

1
2
3
4
5
6
7
8
9
10
11
12
127.0.0.1:6379> multi
OK
127.0.0.1:6379> watch name
(error) ERR WATCH inside MULTI is not allowed

释放锁
127.0.0.1:6379> watch name
OK
127.0.0.1:6379> get name
"321"
127.0.0.1:6379> unwatch
OK

6.3.基于特定条件的事务执行——分布式锁

  • 业务场景
    • 天猫双11热卖过程中,对已经售罄的货物追加补货,且补货完成。客户购买热情高涨,3秒内将所有商品购买完毕。本次补货已经将库存全部清空,如何避免最后一件商品不被多人同时购买?【超卖问题】
  • 业务分析
    • 使用watch监控一个key有没有改变已经不能解决问题,此处要监控的是具体数据
    • 虽然redis是单线程的,但是多个客户端对同一数据同时进行操作时,如何避免不被同时修改?
  • 使用 setnx 设置一个公共锁:setnx lock-key value

  • 利用setnx命令的返回值特征,有值则返回设置失败,无值则返回设置成功

    • 对于返回设置成功的,拥有控制权,进行下一步的具体业务操作
    • 对于返回设置失败的,不具有控制权,排队或等待
  • 操作完毕通过del操作释放锁

  • 注意:上述解决方案是一种设计概念,依赖规范保障,具有风险性

  • redis 应用基于分布式锁对应的场景控制

1
2
3
4
set num 10
setnx lock-num 1
incrby num -1
del lock-num

6.4.基于特定条件的事务执行——分布式锁改良

  • 业务场景
    • 依赖分布式锁的机制,某个用户操作时对应客户端宕机,且此时已经获取到锁。如何解决?
  • 业务分析
    • 由于锁操作由用户控制加锁解锁,必定会存在加锁后未解锁的风险
    • 需要解锁操作不能仅依赖用户控制,系统级别要给出对应的保底处理方案
  • 使用 expire 为锁key添加时间限定,到时不释放,放弃锁
1
2
expire lock-key second
pexpire lock-key milliseconds
  • 由于操作通常都是微秒或毫秒级,因此该锁定时间不宜设置过大。具体时间需要业务测试后确认。
    • 例如:持有锁的操作最长执行时间127ms,最短执行时间7ms。
    • 测试百万次最长执行时间对应命令的最大耗时,测试百万次网络延迟平均耗时
    • 锁时间设定推荐:最大耗时120%+平均网络延迟110%
    • 如果业务最大耗时<<网络平均延迟,通常为2个数量级,取其中单个耗时较长即可
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
清除数据
127.0.0.1:6379> flushdb
OK
127.0.0.1:6379> keys *
set name 123
setnx lock-name 1
expire lock-name 20
get name
del lock-name
setnx lock-name 1
expire lock-name 20

客户端2
127.0.0.1:6379> setnx lock-name 1
(integer) 0
127.0.0.1:6379> setnx lock-name 1
(integer) 0
.......20秒后
127.0.0.1:6379> setnx lock-name 1
(integer) 1
-------------本文结束感谢您的阅读-------------

本文标题:Rides再次学习3

文章作者:Linhuide

发布时间:2020年04月11日 - 16:04

最后更新:2020年04月21日 - 19:04

原始链接:https://linhuide.github.io/post/b9ffcd34.html

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。

坚持原创技术分享,您的支持将鼓励我继续创作!