Rides再次学习4

rides的学习与使用

1.Redis 删除策略

1-1.过期数据

Redis中的数据特征

  • Redis是一种内存级数据库,所有数据均存放在内存中,内存中的数据可以通过TTL指令获取其状态
    • XX :具有时效性的数据
    • -1 :永久有效的数据
    • -2 :已经过期的数据 或 被删除的数据 或 未定义的数据

4-1

4-2

数据删除策略

  1. 定时删除
  2. 惰性删除
  3. 定期删除

1-2.数据删除策略

1.时效性数据的存储结构

4-3

2.数据删除策略的目标

在内存占用与CPU占用之间寻找一种平衡,顾此失彼都会造成整体redis性能的下降,甚至引发服务器宕机或内存泄露

2-1.定时删除

  • 创建一个定时器,当key设置有过期时间,且过期时间到达时,由定时器任务立即执行对键的删除操作
  • 优点:节约内存,到时就删除,快速释放掉不必要的内存占用
  • 缺点:CPU压力很大,无论CPU此时负载量多高,均占用CPU,会影响redis服务器响应时间和指令吞吐量
  • 总结:用处理器性能换取存储空间 (拿时间换空间)

4-4

2-2.惰性删除

  • 数据到达过期时间,不做处理。等下次访问该数据时
    • 如果未过期,返回数据
    • 发现已过期,删除,返回不存在
  • 优点:节约CPU性能,发现必须删除的时候才删除
  • 缺点:内存压力很大,出现长期占用内存的数据
  • 总结:用存储空间换取处理器性能(拿时间换空间)

4-5

2-3.定期删除

两种方案都走极端,有没有折中方案?
  • Redis启动服务器初始化时,读取配置server.hz的值,默认为10
  • 每秒钟执行server.hz次serverCron()–>databasesCron()–>activeExpireCycle()
  • activeExpireCycle()对每个expires[ * ] 逐一进行检测,每次执行250ms/server.hz
  • 对某个expires[ * ] 检测时,随机挑选W个key检测
    • 如果key超时,删除key
    • 如果一轮中删除的key的数量>W*25%,循环该过程
    • 如果一轮中删除的key的数量≤W25%,检查下一个expires[],0-15循环
    • W取值=ACTIVE_EXPIRE_CYCLE_LOOKUPS_PER_LOOP属性值
  • 参数current_db用于记录activeExpireCycle() 进入哪个expires[*] 执行
  • 如果activeExpireCycle()执行时间到期,下次从current_db继续向下执行

4-6

  • 周期性轮询redis库中的时效性数据,采用随机抽取的策略,利用过期数据占比的方式控制删除频度
  • 特点1:CPU性能占用设置有峰值,检测频度可自定义设置
  • 特点2:内存压力不是很大,长期占用内存的冷数据会被持续清理
  • 总结:周期性抽查存储空间(随机抽查,重点抽查)
1
2
3
4
info server
...
hz:10
...

2.4.删除策略比对

  1. 定时删除

    1. 节约内存,无占用
    2. 不分时段占用CPU资源,频度高
    3. 拿时间换空间
  2. 惰性删除

    1. 内存占用严重
    2. 延时执行,CPU利用率高
    3. 拿空间换时间
  3. 定期删除

    1. 内存定期随机清理
    2. 每秒花费固定的CPU资源维护内存
    3. 随机抽查,重点抽查

1-3.逐出算法

1.当新数据进入redis时,如果内存不足怎么办?

  • Redis使用内存存储数据,在执行每一个命令前,会调用freeMemoryIfNeeded()检测内存是否充足。
  • 如果内存不满足新加入数据的最低存储要求,redis要临时删除一些数据为当前指令清理存储空间。清理数据的策略称为逐出算法。
  • 注意:逐出数据的过程不是100%能够清理出足够的可使用的内存空间,如果不成功则反复执行。当对所有数据尝试完毕后,如果不能达到内存清理的要求,将出现错误信息。
1
(error) OOM command not allowed when used memory >'maxmemory'

2.影响数据逐出的相关配置

  • 最大可使用内存:占用物理内存的比例,默认值为0,表示不限制。生产环境中根据需求设定,通常设置在50%以上。
1
maxmemory
  • 每次选取待删除数据的个数:选取数据时并不会全库扫描,导致严重的性能消耗,降低读写性能。因此采用随机获取数据的方式作为待检测删除数据
1
maxmemory-samples
  • 删除策略:达到最大内存后的,对被挑选出来的数据进行删除的策略
1
maxmemory-policy

3.影响数据逐出的相关配置

  • 检测易失数据(可能会过期的数据集server.db[i].expires )
    • volatile-lru:挑选最近最少使用的数据淘汰
    • volatile-lfu:挑选最近使用次数最少的数据淘汰
    • volatile-ttl:挑选将要过期的数据淘汰
    • volatile-random:任意选择数据淘汰
  • 检测全库数据(所有数据集server.db[i].dict )
    • allkeys-lru:挑选最近最少使用的数据淘汰
    • allkeys-lfu:挑选最近使用次数最少的数据淘汰
    • allkeys-random:任意选择数据淘汰
  • 放弃数据驱逐
    • no-enviction(驱逐):禁止驱逐数据(redis4.0中默认策略),会引发错误OOM(Out Of Memory)
1
maxmemory-policy volatile-lru

4.数据逐出策略配置依据

使用INFO命令输出监控信息,查询缓存 hit 和 miss 的次数,根据业务需求调优Redis配置

2.高级数据结构

2-1.bitmaps

4-8

2.Bitmaps类型的基础操作

  • 获取指定key对应偏移量上的bit值
1
getbit key offset
  • 设置指定key对应偏移量上的bit值,value只能是1或0
1
setbit key offset value

例子:

1
2
3
4
5
setbit bits 0 1
getbit bits 0
getbit bits 10
默认不存在,为0
setbit bits 100000000 1

3.Bitmaps类型的扩展操作

业务场景:电影网站

  • 统计每天某一部电影是否被点播
  • 统计每天有多少部电影被点播
  • 统计每周/月/年有多少部电影被点播
  • 统计年度哪部电影没有被点播

4-9

  • 对指定key按位进行交、并、非、异或操作,并将结果保存到destKey中
    • and:交
    • or:并
    • not:非
    • xor:异或
1
bitop op destKey key1 [key2...]
  • 统计指定key中1的数量
1
bitcount key [start end]

例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
flushdb
setbit 20880808 0 1
setbit 20880808 4 1
setbit 20880808 8 1
setbit 20880809 0 1
setbit 20880808 5 1
setbit 20880808 8 1
bitcount 20880808

bitcount 20880809

setbit 20880808 6 1
bitcount 20880808

bitop or 08-09 20880808 20880809
bitcount 08-09
7个,但有两个重合,减2

4.redis 应用于信息状态统计

2-2.HyperLogLog

1.统计独立UV

  • 原始方案:set
    • 存储每个用户的id(字符串)
  • 改进方案:Bitmaps
    • 存储每个用户状态(bit)
  • 全新的方案:Hyperloglog

2.基数

  • 基数是数据集去重后元素个数
  • HyperLogLog 是用来做基数统计的,运用了LogLog的算法

4-10

3.LogLog算法

4-11

4-12

4.HyperLogLog类型的基本操作

  • 添加数据
1
pfadd key element [element ...]
  • 统计数据
1
pfcount key [key ...]
  • 合并数据
1
pfmerge destkey sourcekey [sourcekey...]

例子:

1
2
3
4
5
6
7
8
9
10
flushdb
pfadd hll 001
pfadd hll 001
pfadd hll 001
pfadd hll 001
pfadd hll 001
pfadd hll 002
pfadd hll 002
pfcount h11
2

5.redis 应用于独立信息统计

6.相关说明

  • 用于进行基数统计,不是集合,不保存数据,只记录数量而不是具体数据
  • 核心是基数估算算法,最终数值存在一定误差
  • 误差范围:基数估计的结果是一个带有 0.81% 标准错误的近似值
  • 耗空间极小,每个hyperloglog key占用了12K的内存用于标记基数
  • pfadd命令不是一次性分配12K内存使用,会随着基数的增加内存逐渐增大
  • Pfmerge命令合并后占用的存储空间为12K,无论合并之前数据量多少

2-3.GEO

1.应用场景

火热的生活服务类软件

  • 微信 / 陌陌
  • 美团 / 饿了么
  • 携程 / 马蜂窝
  • 高德 / 百度

2.GEO类型的基本操作

  • 添加坐标点
1
geoadd key longitude latitude member [longitude latitude member ...]
  • 获取坐标点
1
geopos key member [member ...]
  • 计算坐标点距离
1
geodist key member1 member2 [unit]

例子:

1
2
3
4
5
6
7
flushdb
geoadd geos 1 1 a
geoadd geos 2 2 b
geopos geos a
geodist geos a b
geodist geos a b m
geodist geos a b km

3.基本操作2

  • 添加坐标点
1
georadius key longitude latitude radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
  • 获取坐标点
1
georadiusbymember key member radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
  • 计算经纬度
1
geohash key member [member ...]

例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
flushdb
geoadd geos 1 1 1,1
geoadd geos 1 2 1,2
geoadd geos 1 3 1,3
geoadd geos 2 1 2,1
geoadd geos 2 2 2,2
geoadd geos 2 3 2,3
geoadd geos 3 1 3,1
geoadd geos 3 2 3,2
geoadd geos 3 3 3,3
geoadd geos 5 5 5,5
求范围
georadiusbymember geos 2,2 180 km

georadiusbymember geos 2,2 120 km

georadius geos 1.5,1.5 90 km

geohash geos 2,2

4.redis 应用于地理位置计算

3.主从复制

3-1.主从复制简介

互联网“三高”架构:

  • 高并发
  • 高性能
  • 高可用

4-13

4-14

1.你的“Redis”是否高可用?

单机redis的风险与问题

  • 问题1.机器故障
    • 现象:硬盘故障、系统崩溃
    • 本质:数据丢失,很可能对业务造成灾难性打击
    • 结论:基本上会放弃使用redis.
  • 问题2.容量瓶颈
    • 现象:内存不足,从16G升级到64G,从64G升级到128G,无限升级内存
    • 本质:穷,硬件条件跟不上
    • 结论:放弃使用redis
  • 结论:
    • 为了避免单点Redis服务器故障,准备多台服务器,互相连通。将数据复制多个副本保存在不同的服务器上,连接在一起,并保证数据是同步的。
    • 即使有其中一台服务器宕机,其他服务器依然可以继续提供服务,实现Redis的高可用,同时实现数据冗余备份。

2.多台服务器连接方案

  • 提供数据方:master
    • 主服务器,主节点,主库
    • 主客户端
  • 接收数据方:slave
    • 从服务器,从节点,从库
    • 从客户端
  • 需要解决的问题:
    • 数据同步
  • 核心工作:
    • master的数据复制到slave中

4-15

3.主从复制

  • 主从复制即将master中的数据即时、有效的复制到slave中
  • 特征:一个master可以拥有多个slave,一个slave只对应一个master
  • 职责:
  • master:
    • 写数据
    • 执行写操作时,将出现变化的数据自动同步到slave
    • 读数据(可忽略)
  • slave:
    • 读数据
    • 写数据(禁止)

4.高可用集群

4-15

4-16

4-17

4-18

5.主从复制的作用

  • 读写分离:master写、slave读,提高服务器的读写负载能力
  • 负载均衡:基于主从结构,配合读写分离,由slave分担master负载,并根据需求的变化,改变slave的数量,通过多个从节点分担数据读取负载,大大提高Redis服务器并发量与数据吞吐量
  • 故障恢复:当master出现问题时,由slave提供服务,实现快速的故障恢复
  • 数据冗余:实现数据热备份,是持久化之外的一种数据冗余方式
  • 高可用基石:基于主从复制,构建哨兵模式与集群,实现Redis的高可用方案

3-2.主从复制工作流程

1.主从复制过程大体可以分为3个阶段

  • 建立连接阶段(即准备阶段)
  • 数据同步阶段
  • 命令传播阶段

4-19

2.阶段一:建立连接阶段

建立slave到master的连接,使master能够识别slave,并保存slave端口号

建立连接阶段工作流程:

  • 步骤1:设置master的地址和端口,保存master信息
  • 步骤2:建立socket连接
  • 步骤3:发送ping命令(定时器任务)
  • 步骤4:身份验证
  • 步骤5:发送slave端口信息
  • 至此,主从连接成功!

状态:

  • slave:

    • 保存master的地址与端口
  • master:

    • 保存slave的端口
  • 总体:之间创建了连接的socket

4-20

3.主从连接(slave连接master)

  • 方式一:客户端发送命令
1
slaveof <masterip> <masterport>
  • 方式二:启动服务器参数
1
redis-server -slaveof <masterip> <masterport>
  • 方式三:服务器配置
1
slaveof <masterip> <masterport>

4-21

配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
vim redis-6379.conf
daemonize no
#logfile "6379.conf"

vim redis-6379.conf
daemonize no
#logfile "6379.conf"

客户端1:redis-server /conf/redis-6379.conf
客户端2:redis-server /conf/redis-6380.conf

客户端4
redis-cli -p 6380
slaveof 127.0.0.1 6379
客户端3
redis-cli
set name name
客户端4
get name


方式二:
客户端1:redis-server /conf/redis-6379.conf
客户端2:redis-server /conf/redis-6380.conf --slaveof 127.0.0.1 6379
客户端4
redis-cli -p 6380
客户端3
redis-cli
set name name
客户端4
get name

方式三:
客户端2
vim redis-6379.conf
slaveof 127.0.0.1 6379

redis-server /conf/redis-6380.conf
...一样测试步骤
客户端3:看配置
info
connected_slaves:..
客户端4:看配置
info

主从断开连接

  • 客户端发送命令:slaveof no one
  • 说明:
    • slave断开连接后,不会删除已有数据,只是不再接受master发送的数据
1
客户端4:slaveof no one

4.授权访问

  • master客户端发送命令设置密码
1
requirepass <password>
  • master配置文件设置密码
1
2
config set requirepass <password>
config get requirepass
  • slave客户端发送命令设置密码
1
auth <password>
  • slave配置文件设置密码
1
masterauth <password>
  • slave启动服务器设置密码
1
redis-server –a <password>

5.阶段二:数据同步阶段工作流程

  • 在slave初次连接master后,复制master中的所有数据到slave
  • 将slave的数据库状态更新成master当前的数据库状态

数据同步阶段工作流程:

  • 步骤1:请求同步数据
  • 步骤2:创建RDB同步数据
  • 步骤3:恢复RDB同步数据
  • 步骤4:请求部分同步数据
  • 步骤5:恢复部分同步数据
  • 至此,数据同步工作完成!

状态:

  • slave:
    • 具有master端全部数据,包含RDB过程接收的数据
  • master:
    • 保存slave当前数据同步的位置
  • 总体:之间完成了数据克隆

4-22

数据同步

1
2
3
4
5
6
7
客户端1:redis-server /conf/redis-6379.conf
客户端2:redis-server /conf/redis-6380.conf
客户端4:
redis-cli -p 6380
slaveof 127.0.0.1 6379
客户端3:
redis-cli

6.数据同步阶段master说明

  1. 如果master数据量巨大,数据同步阶段应避开流量高峰期,避免造成master阻塞,影响业务正常执行
  2. 复制缓冲区大小设定不合理,会导致数据溢出。如进行全量复制周期太长,进行部分复制时发现数据已经存在丢失的情况,必须进行第二次全量复制,致使slave陷入死循环状态。
  3. master单机内存占用主机内存的比例不应过大,建议使用50%-70%的内存,留下30%-50%的内存用于执行bgsave命令和创建复制缓冲区
1
repl-backlog-size 1mb

4-23

7.数据同步阶段slave说明

  1. 为避免slave进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务
  2. 数据同步阶段,master发送给slave信息可以理解master是slave的一个客户端,主动向slave发送命令
  3. 多个slave同时对master请求数据同步,master发送的RDB文件增多,会对带宽造成巨大冲击,如果master带宽不足,因此数据同步需要根据业务需求,适量错峰
  4. slave过多时,建议调整拓扑结构,由一主多从结构变为树状结构,中间的节点既是master,也是slave。注意使用树状结构时,由于层级深度,导致深度越高的slave与最顶层master间数据同步延迟较大,数据一致性变差,应谨慎选择
1
slave-serve-stale-data yes|no

8.阶段三:命令传播阶段

  • 当master数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致的状态,同步的动作称为命令传播
  • master将接收到的数据变更命令发送给slave,slave接收命令后执行命令

9.命令传播阶段的部分复制

  • 命令传播阶段出现了断网现象
    • 网络闪断闪连 忽略
    • 短时间网络中断 部分复制
    • 长时间网络中断 全量复制
  • 部分复制的三个核心要素
    • 服务器的运行 id(run id)
    • 主服务器的复制积压缓冲区
    • 主从服务器的复制偏移量

10.服务器运行ID(runid)

  • 概念:服务器运行ID是每一台服务器每次运行的身份识别码,一台服务器多次运行可以生成多个运行id
  • 组成:运行id由40位字符组成,是一个随机的十六进制字符
    • 例如:fdc9ff13b9bbaab28db42b3d50f852bb5e3fcdce
  • 作用:运行id被用于在服务器间进行传输,识别身份
    • 如果想两次操作均对同一台服务器进行,必须每次操作携带对应的运行id,用于对方识别
  • 实现方式:运行id在每台服务器启动时自动生成的,master在首次连接slave时,会将自己的运行ID发送给slave,slave保存此ID,通过info Server命令,可以查看节点的runid

11.复制缓冲区

  • 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区

4-24

4-25

12.复制缓冲区内部工作原理

  • 组成
    • 偏移量
    • 字节值
  • 工作原理
    • 通过offset区分不同的slave当前数据传播的差异
    • master记录已发送的信息对应的offset
    • slave记录已接收的信息对应的offset

4-26

13.复制缓冲区

  • 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区
  • 复制缓冲区默认数据存储空间大小是1M,由于存储空间大小是固定的,当入队元素的数量大于队列长度时,最先入队的元素会被弹出,而新元素会被放入队列
  • 由来:每台服务器启动时,如果开启有AOF或被连接成为master节点,即创建复制缓冲区
  • 作用:用于保存master收到的所有指令(仅影响数据变更的指令,例如set,select)
  • 数据来源:当master接收到主客户端的指令时,除了将指令执行,会将该指令存储到缓冲区中

14.主从服务器复制偏移量(offset)

  • 概念:一个数字,描述复制缓冲区中的指令字节位置
  • 分类:
    • master复制偏移量:记录发送给所有slave的指令字节对应的位置(多个)
    • slave复制偏移量:记录slave接收master发送过来的指令字节对应的位置(一个)
  • 数据来源:
    • master端:发送一次记录一次
    • slave端:接收一次记录一次
  • 作用:同步信息,比对master与slave的差异,当slave断线后,恢复数据使用

15.数据同步+命令传播阶段工作流程

4-27

16.心跳机制

  • 进入命令传播阶段候,master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线
  • master心跳:
    • 指令:PING
    • 周期:由repl-ping-slave-period决定,默认10秒
    • 作用:判断slave是否在线
    • 查询:INFO replication 获取slave最后一次连接时间间隔,lag项维持在0或1视为正常
  • slave心跳任务
    • 指令:REPLCONF ACK {offset}
    • 周期:1秒
    • 作用1:汇报slave自己的复制偏移量,获取最新的数据变更指令
    • 作用2:判断master是否在线

17.心跳阶段注意事项

  • 当slave多数掉线,或延迟过高时,master为保障数据稳定性,将拒绝所有信息同步操作
  • slave数量少于2个,或者所有slave的延迟都大于等于10秒时,强制关闭master写功能,停止数据同步
  • slave数量由slave发送REPLCONF ACK命令做确认
  • slave延迟由slave发送REPLCONF ACK命令做确认
1
2
min-slaves-to-write 2
min-slaves-max-lag 8

18.主从复制工作流程(完整)

4-28

3-3.主从复制常见问题

1.频繁的全量复制

  • 伴随着系统的运行,master的数据量会越来越大,一旦master重启,runid将发生变化,会导致全部slave的全量复制操作
  • 内部优化调整方案:
  1. master内部创建master_replid变量,使用runid相同的策略生成,长度41位,并发送给所有slave
  2. 在master关闭时执行命令 shutdown save,进行RDB持久化,将runid与offset保存到RDB文件中
    1. repl-id repl-offset
    2. 通过redis-check-rdb命令可以查看该信息
  3. master重启后加载RDB文件,恢复数据
    1. 重启后,将RDB文件中保存的repl-id与repl-offset加载到内存中
    2. master_repl_id = repl master_repl_offset = repl-offset
    3. 通过info命令可以查看该信息
  4. 作用:
    1. 本机保存上次runid,重启后恢复该值,使所有slave认为还是之前的master
  • 问题现象
    • 网络环境不佳,出现网络中断,slave不提供服务
  • 问题原因
    • 复制缓冲区过小,断网后slave的offset越界,触发全量复制
  • 最终结果
    • slave反复进行全量复制
  • 解决方案
    • 修改复制缓冲区大小
1
repl-backlog-size
  • 设置如下:
    1. 测算从master到slave的重连平均时长second
    2. 获取master平均每秒产生写命令数据总量write_size_per_second
    3. 最优复制缓冲区空间 = 2 * second * write_size_per_second

2.频繁的网络中断1

  • 问题现象
    • master的CPU占用过高 或 slave频繁断开连接
  • 问题原因
    • slave每1秒发送REPLCONF ACK命令到master
    • 当slave接到了慢查询时(keys * ,hgetall等),会大量占用CPU性能
    • master每1秒调用复制定时函数replicationCron(),比对slave发现长时间没有进行响应
  • 最终结果
    • master各种资源(输出缓冲区、带宽、连接等)被严重占用
  • 解决方案
    • 通过设置合理的超时时间,确认是否释放slave
    • 该参数定义了超时时间的阈值(默认60秒),超过该值,释放slave
1
repl-timeout

3.频繁的网络中断2

  • 问题现象
    • slave与master连接断开
  • 问题原因
    • master发送ping指令频度较低
    • master设定超时时间较短
    • ping指令在网络中存在丢包
  • 解决方案
    • 提高ping指令发送的频度
    • 超时时间repl-time的时间至少是ping指令频度的5到10倍,否则slave很容易判定超时
1
repl-ping-slave-period

4.数据不一致

  • 问题现象
    • 多个slave获取相同数据不同步
  • 问题原因
    • 网络信息不同步,数据发送有延迟
  • 解决方案
    • 优化主从间的网络环境,通常放置在同一个机房部署,如使用阿里云等云服务器时要注意此现象
    • 监控主从节点延迟(通过offset)判断,如果slave延迟过大,暂时屏蔽程序对该slave的数据访问
    • 开启后仅响应info、slaveof等少数命令(慎用,除非对数据一致性要求很高)
1
slave-serve-stale-data yes|no
-------------本文结束感谢您的阅读-------------

本文标题:Rides再次学习4

文章作者:Linhuide

发布时间:2020年04月21日 - 19:04

最后更新:2020年04月27日 - 19:04

原始链接:https://linhuide.github.io/post/279b5897.html

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。

坚持原创技术分享,您的支持将鼓励我继续创作!