Redis 持久化之AOF(三)

来源:互联网 发布:淘宝双十一购物节方案 编辑:程序博客网 时间:2024/06/08 01:28

AOF(AppendOfFile)介绍:

以日志的形式来记录每个写操作,将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作


也就是说AOF会将所有的写操作以日的形式志记录到文件中,而且这个保存的时间间隔是1秒钟,那么这个时候所有的记录是不是就绝对的正确了,而不会像RDB那样丢失最后一次保存的数据,那么问题来了,如果操作的次数越多,那么所记录下来的也就也多,日志文件也就越大,比如

set k1 1incr k1incr k1incr k1incr k1incr k1incr k1incr k1incr k1incr k1incr k1incr k1incr k1……

这里呢k1每次增长,但是回复的是会如果我们执行

set k1 100

100表示我们增长的次数,这样是不是会比incr的命令效率更高,而却也可以防止出错,这个也就是AOF的缺点


AOF配置介绍:



默认是不开启AOF的,因为redis认为RDB已经足够满足持久化的需求了,那么在这里我们就需要修改配置,启动AOF




OK,启动之后,那么这个时候就有两个持久化的策略了,那么这个时候会出问题吗?


这个是不会有冲突的,因为RDB干RDB的事,AOF干AOF的事,所以大家可以放心的使用,是不会有冲突的



首先把之前生成dump.rdb删除


执行上述命令之后我们可以发现在redis的安装目录下会有appendonlyfile.aof文件,那么我们可以打开看看



我们可以看到这里记录了我们所有的写操作,那么接下来就是重新启动redis服务,查看刚才的那些操作是否会恢复



连接之后我们发现之前的操作并没有恢复,这个是怎么回事呢?还记得刚刚我执行了flushall命令吗,没错就是这个命令搞得鬼,其实是已经恢复了,只不过在恢复之后又执行了flushall操作,然后就把数据给清空了。OK那么接下来我们就手动删除flushall的命令,使数据正常的恢复


这个时候呢我们再次启动redis就会发现之前的全部都已经恢复了(注:如果没有恢复稍等片刻后再查看,有可能redis还没有读AOF



红框的部分是为了模拟在记录写操作日志的过程中出错的情况,那么这个时候我们再次启动redis服务并且连接



这个时候发现无法连接redis服务,因为是之前的.aof在读的过程中出现了异常,所以导致连接失败。那么这个时候说明事先读取.aof文件的。那么该怎么修复呢。是不是我们通过vim或者vi手动去删除刚才那些未知的内容呢?那肯定不是的了




大家可以看到在redis的安装目录下有个redis-ckeck-aof,这个就是用来修复AOF文件的,执行命令


redis-check-aof --fix appendonlyfile.aof 

这个时候再次打开AOF文件


这个时候发现之前那些未知的字符串已经没有了

那么这个时候再次启动redis服务并且连接



这个时候呢我们发现就可以正常的使用redis了




AOF其他配置介绍:



always:每修改同步,同步持久化 每次发生数据变更会被立即记录到磁盘  性能较差但数据完整性比较好

everysec:每秒同步,出厂默认推荐,异步操作,每秒记录   如果一秒内宕机,有数据丢失

appendfsync no:从不同步




no-appendfsync-on-rewrite:重写时是否可以运用Appendfsync,用默认no即可,保证数据安全性。


rewrite:

AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof

AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似



auto-aof-rewrite-min-size:设置重写的基准值

Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发

auto-aof-rewrite-percentage:设置重写的基准值的百分比



优势:

1):每修改同步:appendfsync always   同步持久化 每次发生数据变更会被立即记录到磁盘  性能较差但数据完整性比较好

2):每秒同步:appendfsync everysec    异步操作,每秒记录   如果一秒内宕机,有数据丢失

3):不同步:appendfsync no   从不同步

劣势:

1):相同数据集的数据而言aof文件要远大于rdb文件,恢复速度慢于rdb

2):aof运行效率要慢于rdb,每秒同步策略效率较好,不同步效率和rdb相同


与RDB的比较:

1):RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储

2):AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾.Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大

3):只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式.


官网建议:如果要做数据的持久化同时开启两种持久化方式

1):在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整.

2):RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),
快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段。


性能建议:

1):因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。

2):如果Enalbe AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了。代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上。默认超过原大小100%大小时重写可以改到适当的数值。

3):如果不Enable AOF ,仅靠Master-Slave Replication 实现高可用性也可以。能省掉一大笔IO也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个。