Redis之-AOF
AOF是基于日志的,类似于Oracle的redo,MySQL的binlog日志。
创新互联公司主营清河门网站建设的网络公司,主营网站建设方案,成都app开发,清河门h5微信小程序搭建,清河门网站营销推广欢迎清河门等地区企业咨询
Aof 的配置
appendonly no # 是否打开 aof日志功能
appendfsync always # 每1个命令,都立即同步到aof. 安全,速度慢
appendfsync everysec # 折衷方案,每秒写1次
appendfsync no # 写入工作交给操作系统,由操作系统判断缓冲区大小,统一写入到aof. 同步频率低,速度快,
no-appendfsync-on-rewrite yes: # 正在导出rdb快照的过程中,要不要停止同步aof
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重写时的大小,增长率100%时,重写
auto-aof-rewrite-min-size 64mb #aof文件,至少超过64M时,重写
appendfilename /var/dir/appendonly.aof #文件的路径
做个试验:
1,编辑redis.conf文件
开启aof功能,并命名aof filename
2,pkill -9 redis
3,重新启动redis
[root@test-laoyangtest redis]# pkill -9 redis
[root@test-laoyangtest redis]# ./bin/redis-server ./redis.conf
4,查看aof目录下aof文件
[root@test-laoyangtest dir]# more laoyang-appendonly.aof --为空
5,设定几个键值,然后在查看aof文件
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> set site www.woda.com
OK
127.0.0.1:6379> set www baidu.com
OK
aof文件有内容产生了
[root@test-laoyangtest dir]# more laoyang-appendonly.aof
2
$6
SELECT
$1
0
3
$3
set
$4
site
$12
www.woda.com
*3
$3
set
$3
www
$9
baidu.com
这样有个问题,如果是自动增长的值,同一个key,操作100次,aof来回要走100条记录。如何解决?
所有的key在内存中,有1个具体的状态,把key的值,逆化成命令
比如,set age 1 然后incr age了100次。那么最后aof 可以直接set age 101(这个操作叫aof重写)解决aof越来越大的问题。
【这两个参数控制】
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重写时的大小,增长率100%时,重写
auto-aof-rewrite-min-size 64mb #aof文件,至少超过64M时,重写
使用工具来进行写入2w个命令
[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 20000
====== MSET (10 keys) ======
20000 requests completed in 0.32 seconds
50 parallel clients
3 bytes payload
keep alive: 1
95.03% <= 1 milliseconds
99.75% <= 7 milliseconds
100.00% <= 7 milliseconds
62695.92 requests per second ---持久化的时间增长
[root@test-laoyangtest redis]# cd /var/dir/
[root@test-laoyangtest dir]# ll
总用量 8
-rw-r--r-- 1 root root 116 6月 18 15:14 dump.rdb
-rw-r--r-- 1 root root 102 6月 18 15:02 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
总用量 13M
-rw-r--r-- 1 root root 1.7K 6月 18 15:32 dump.rdb
-rw-r--r-- 1 root root 13M 6月 18 15:32 laoyang-appendonly.aof
因为现在设定的重写是64M重写,我们插入20w数据试试
[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 200000
46.13% <= 1 milliseconds
87.99% <= 2 milliseconds
98.80% <= 3 milliseconds
99.72% <= 4 milliseconds
99.84% <= 5 milliseconds
99.89% <= 6 milliseconds
99.90% <= 8 milliseconds
99.91% <= 9 milliseconds
99.92% <= 10 milliseconds
99.93% <= 13 milliseconds
99.94% <= 14 milliseconds
99.95% <= 47 milliseconds
99.96% <= 48 milliseconds
99.97% <= 49 milliseconds
99.98% <= 55 milliseconds
100.00% <= 56 milliseconds
100.00% <= 56 milliseconds
36596.52 requests per second
[root@test-laoyangtest dir]# ll -h
总用量 59M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 59M 6月 18 15:41 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
总用量 2.5M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 2.5M 6月 18 15:42 laoyang-appendonly.aof #重写了
这会儿也可能还有冗余命令,我们可以让在内存中的,重写一下。再次减少冗余
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> bgrewriteaof
Background append only file rewriting started
127.0.0.1:6379>
[root@test-laoyangtest dir]# ll -h
总用量 5.2M
-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb
-rw-r--r-- 1 root root 5.2M 6月 18 15:44 laoyang-appendonly.aof #重写以前是5.2MB
[root@test-laoyangtest dir]# ll -h
总用量 2.0M
-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb
-rw-r--r-- 1 root root 2.0M 6月 18 16:19 laoyang-appendonly.aof #重写以后是2MB,取消了一些冗余数据。
文章题目:Redis之-AOF
链接分享:http://cdiso.cn/article/pghogp.html