对Redis持久化的探讨与理解

首先,我们应该明确持久化的数据有什么用,答案是:

Redis是一个内存数据库,无论是RDB还是AOF,都是其保证数据恢复的措施。

所以Redis在利用RDB和AOF进行恢复的时候,都会读取RDB或AOF文件,重新加载到内存中。

RDB就是Snapshot快照存储,是默认的持久化方式。可理解为半持久化模式,

即按照一定的策略周期性的将数据保存到磁盘。对应产生的数据文件为dump.rdb,快照的周期通过配置文件中的save参数来定义。

下面是默认的快照设置:

Redis的RDB文件不会坏掉,因为其写操作是在一个新进程中进行的。当生成一个新的RDB文件时,Redis生成的子进程会先将数据写到一个临时文件中,然后通过原子性rename系统调用将临时文件重命名为RDB文件。

这样在任何时候出现故障,Redis的RDB文件都总是可用的。

同时,Redis的RDB文件也是Redis主从同步内部实现中的一环。

第一次Slave向Master同步的实现是:Slave向Master发出同步请求,Master先dump出rdb文件,然后将rdb文件全量传输给slave,然后Master把缓存的命令转发给Slave,初次同步完成。第二次以及以后的同步实现是:Master将变量的快照直接实时依次发送给各个Slave。但不管什么原因导致Slave和Master断开重连都会重复以上两个步骤的过程。

Redis的主从复制是建立在内存快照的持久化基础上的,只要有Slave就一定会有内存快照发生。可以很明显的看到,RDB有它的不足,就是一旦数据库出现问题,那么我们的RDB文件中保存的数据并不是全新的。

从上次RDB文件生成到Redis停机这段时间的数据全部丢掉了。

AOF(Append-Only File)比RDB方式有更好的持久化性。

  • 在使用AOF持久化方式时,Redis会将每一个收到的写命令都通过Write函数追加到文件中,类似于MySQL的binlog。

  • 当Redis重启是会通过重新执行文件中保存的写命令来在内存中重建整个数据库的内容。

在Redis重启时会逐个执行AOF文件中的命令来将硬盘中的数据载入到内存中,所以说,载入的速度相较RDB会慢一些

  • 默认情况下,Redis没有开启AOF方式的持久化,可以在redis.conf中通过appendonly参数开启:

    appendonly yes #启用aof持久化方式

    appendfsync always #每次收到写命令就立即强制写入磁盘,最慢的,但是保证完全的持久化,不推荐使用

    appendfsync everysec #每秒钟强制写入磁盘一次,在性能和持久化方面做了很好的折中,推荐

    appendfsync no #完全依赖OS的写入,一般为30秒左右一次,性能最好但是持久化最没有保证,不被推荐。

  • AOF文件和RDB文件的保存文件夹位置相同,都是通过dir参数设置的,默认的文件名是appendonly.aof,可以通过appendfilename参数修改

    appendfilename appendonly.aof

  • AOF的完全持久化方式同时也带来了另一个问题,持久化文件会变得越来越大。

为了压缩AOF的持久化文件,Redis提供了bgrewriteaof命令。收到此命令后Redis将使用与快照类似的方式将内存中的数据以命令的方式保存到临时文件中,最后替换原来的文件,以此来实现控制AOF文件的增长。

配置redis自动重写AOF文件的参数

no-appendfsync-on-rewrite yes #在AOF重写时,不进行命令追加操作,而只是将其放在缓冲区里,避免与命令的追加造成上的冲突。
auto-aof-rewrite-percentage 100 #当前AOF文件大小是上次日志重写得到AOF文件大小的二倍时,自动启动新的日志重写过程。
auto-aof-rewrite-min-size 64mb #当前AOF文件启动新的日志重写过程的最小值,避免刚刚启动Reids时由于文件尺寸较小导致频繁的重写。

下面是来自官方的建议:

通常,如果你要想提供很高的数据保障性,那么建议你同时使用两种持久化方式。

因此,我们希望可以在未来(长远计划)统一AOF和RDB成一种持久化模式。

在数据恢复方面:RDB的启动时间会更短,原因有两个:

一是RDB文件中每一条数据只有一条记录,不会像AOF日志那样可能有一条数据的多次操作记录。所以每条数据只需要写一次就行了。另一个原因是RDB文件的存储格式和Redis数据在内存中的编码格式是一致的,不需要再进行数据编码工作,所以在CPU消耗上要远小于AOF日志的加载。

二、灾难恢复模拟

既然持久化的数据的作用是用于重启后的数据恢复,那么我们有必要进行一次这样的灾难恢复模拟了。

如果数据要做持久化又想保证稳定性,则建议留空一半的物理内存。因为在进行快照的时候,fork出来进行dump操作的子进程会占用与父进程一样的内存,真正的copy-on-write,对性能的影响和内存的耗用都是比较大的。

目前,通常的设计思路是利用Replication机制来弥补aof、snapshot性能上的不足,达到了数据可持久化。

首先,修改Master上的如下配置:

  1. $ sudo vim /redis/etc/redis.conf
  2. #save 900 1 #禁用Snapshot
  3. #save 300 10
  4. #save 60 10000
  5. appendonly no #禁用(注释)AOF

接着,修改Slave上的如下配置:

  1. $ sudo vim /redis/etc/redis.conf
  2. save 900 1 #启用Snapshot
  3. save 300 10
  4. save 60 10000
  5. appendonly yes #启用AOF
  6. appendfilename appendonly.aof #AOF文件的名称
  7. # appendfsync always
  8. appendfsync everysec #每秒钟强制写入磁盘一次
  9. # appendfsync no
  10. no-appendfsync-on-rewrite yes #在日志重写时,不进行命令追加操作
  11. auto-aof-rewrite-percentage 100 #自动启动新的日志重写过程
  12. auto-aof-rewrite-min-size 64mb #启动新的日志重写过程的最小值

分别启动Master与Slave

  1. $ redis-server /etc/redis/redis.conf

启动完成后在Master中确认未启动Snapshot参数

  1. redis 127.0.0.1:6379> CONFIG GET save
  2. 1) "save"
  3. 2) ""

然后通过以下脚本在Master中生成25万条数据:

  1. python@redis:$ cat redis-cli-generate.temp.sh
  1. #!/bin/bash
  2. REDISCLI="redis-cli -a slavepass -n 1 SET"
  3. ID=1
  4. while(($ID<50001))
  5. do
  6. INSTANCE_NAME="i-2-$ID-VM"
  7. UUID=`cat /proc/sys/kernel/random/uuid`
  8. PRIVATE_IP_ADDRESS=10.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`\
  9. CREATED=`date "+%Y-%m-%d %H:%M:%S"`
  10. $REDISCLI vm_instance:$ID:instance_name "$INSTANCE_NAME"
  11. $REDISCLI vm_instance:$ID:uuid "$UUID"
  12. $REDISCLI vm_instance:$ID:private_ip_address "$PRIVATE_IP_ADDRESS"
  13. $REDISCLI vm_instance:$ID:created "$CREATED"
  14. $REDISCLI vm_instance:$INSTANCE_NAME:id "$ID"
  15. ID=$(($ID+1))
  16. done

在数据的生成过程中,可以很清楚的看到Master上仅在第一次做Slave同步时创建了dump.rdb文件,之后就通过增量传输命令的方式给Slave了。dump.rdb文件没有再增大。

  1. python@redis:/opt/redis/data/6379$ ls -lh
  2. total 4.0K
  3. -rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb

而Slave上则可以看到dump.rdb文件和AOF文件在不断的增大,并且AOF文件的增长速度明显大于dump.rdb文件。

  1. python@redis-slave:$ ls -lh
  2. total 24M
  3. -rw-r--r-- 1 root root 15M Sep 27 12:06 appendonly.aof
  4. -rw-r--r-- 1 root root 9.2M Sep 27 12:06 dump.rdb

等待数据插入完成以后,首先确认当前的数据量。

  1. redis 127.0.0.1:6379> info
  2. ...
  3. ...
  4. used_memory:33055824
  5. used_memory_human:31.52M
  6. used_memory_rss:34717696
  7. used_memory_peak:33055800
  8. used_memory_peak_human:31.52M
  9. ...
  10. # Keyspace
  11. db0:keys=1,expires=0,avg_ttl=0
  12. db1:keys=250000,expires=0

当前的数据量为db0:keys=1 db1:keys=250000条,占用内存31.52M。

  1. python@redis:$ sudo killall -9 redis-server

我们到Slave中查看状态:

  1. redis 127.0.0.1:6379> info
  2. ...
  3. ...
  4. used_memory:33047696
  5. used_memory_rss:34775040
  6. used_memory_peak:33064400
  7. used_memory_peak_human:31.53M
  8. ...
  9. master_host:10.6.1.143
  10. master_port:6379
  11. master_link_status:down
  12. master_last_io_seconds_ago:-1
  13. master_sync_in_progress:0
  14. ...
  15. # Keyspace
  16. db0:keys=1,expires=0,avg_ttl=0
  17. db1:keys=250000,expires=0

可以看到master_link_status的状态已经是down了,Master已经不可访问了。而此时,Slave依然运行良好,并且保留有AOF与RDB文件。

下面我们将通过Slave上保存好的AOF与RDB文件来恢复Master上的数据。

首先,将Slave上的同步状态取消,避免主库在未完成数据恢复前就重启,进而直接覆盖掉从库上的数据,导致所有的数据丢失。

如果Redis服务器已经充当从站命令SLAVEOF NO ONE 会关掉复制,转Redis服务器为主

  1. redis 127.0.0.1:6379> SLAVEOF NO ONE
  2. OK

确认一下已经没有了master相关的配置信息:

在Slave上复制数据文件:

  1. python@redis-slave:$ tar cvf data.tar *
  2. appendonly.aof
  3. dump.rdb

将data.tar上传到Master上,尝试恢复数据:可以看到Master目录下有一个初始化Slave的数据文件,很小,将其删除。

  1. python@redis:$ ls -l
  2. total 4
  3. -rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb
  4. python@redis:/opt/redis/data/6379$ sudo rm -f dump.rdb

然后解压缩数据文件:

  1. python@redis:$ sudo tar xf data.tar
  2. python@redis:$ ls -lh
  3. total 29M
  4. -rw-r--r-- 1 root root 18M Sep 27 01:22 appendonly.aof
  5. -rw-r--r-- 1 root root 12M Sep 27 01:22 dump.rdb

启动Master上的Redis;

  1. python@redis:$ redis-server /etc/redis/redis.conf
  2. Starting Redis server...

查看数据是否恢复:

  1. redis 127.0.0.1:6379> INFO
  2. ...
  3. db0:...
  4. db1:keys=250000,expires=0

可以看到25万条数据已经完整恢复到了Master上。此时,可以放心的恢复Slave的同步设置了

  1. OK

查看同步状态:

Redis允许同时开启AOF和RDB,既保证了数据安全又使得进行备份等操作十分容易, 那么到底是哪一个文件完成了数据的恢复呢?

实际上,当Redis服务器挂掉时,重启时将按照以下优先级恢复数据到内存:

  • 如果只配置AOF,重启时加载AOF文件恢复数据;
  • 如果同时 配置了RDB和AOF,启动是只加载AOF文件恢复数据;

总结

目前的线上环境中,由于数据都设置有过期时间,采用AOF的方式会不太实用,因为过于频繁的写操作会使AOF文件增长到异常的庞大,大大超过了我们实际的数据量,这也会导致在进行数据恢复时耗用大量的时间。

因此,可以在Slave上仅开启Snapshot来进行本地化,同时可以考虑将save中的频率调高一些或者调用一个计划任务来进行定期bgsave的快照存储,来尽可能的保障本地化数据的完整性。

在这样的架构下,如果仅仅是Master挂掉,Slave完整,数据恢复可达到100%。

如果Master与Slave同时挂掉的话,数据的恢复也可以达到一个可接受的程度。

原文: