设为首页 收藏本站
查看: 999|回复: 0

[经验分享] redis 安装配置及持久化详解

[复制链接]

尚未签到

发表于 2018-11-5 09:59:14 | 显示全部楼层 |阅读模式
daemonize yes  
#redis 以独立守护模式进程
  

  
pidfile /var/run/redis.pid
  
#指定pid文件路径
  

  
port 6379
  
#指定redis运行的端口
  

  
tcp-backlog 511
  
#TCP 监听的最大容纳数量,在高并发的环境下,你需要把这个值调高以避免客户端连接缓慢的问题。Linux 内核会一声不响的把这个值缩小成 /proc/sys/net/core/somaxconn对应的值,所以你要修改这两个值才能达到你的预期。
  

  
# bind 127.0.0.1
  
#指定redis监听的地址,默认监听所有
  

  
# unixsocket /tmp/redis.sock
  
#指定redis在Linux下socket文件路径
  

  
timeout 0
  
#客户端空闲多少秒后断开连接;默认是 0 表示不断开。
  

  
tcp-keepalive 0
  
#如果设置为非零,则在与客户端缺乏通讯的时候使用 SO_KEEPALIVE 发送 tcp acks 给客户端。推荐一个合理的值就是60秒。
  

  
loglevel notice
  
#日志文件级别,提供debug,verbose,notice,warning四种日志级别。
  

  
logfile "/data/log/redis/redis.log"
  
#指定日志文件路径
  

  
databases 16
  
#指定数据库实例的数量,默认为16个,默认使用的数据库是DB 0。
  

  
#RDB持久化的相关规则
  
#-------------------------------
  
save 900 1
  
#900秒有一个key变化则写磁盘
  
save 300 10
  
#300秒有10个key变化,则写磁盘
  
save 60 10000
  
#60秒有10000个key变化,则写磁盘
  
#-------------------------------
  

  
stop-writes-on-bgsave-error yes
  
默认情况下,如果 redis 最后一次的后台保存失败,redis 将停止接受写操作,这样以一种强硬的方式让用户知道数据不能正确的持久化到磁盘,否则就会没人注意到灾难的发生。如果后台保存进程重新启动工作了,redis 也将自动的允许写操作。然而你要是安装了靠谱的监控,你可能不希望 redis 这样做,那你就改成 no 好了。
  

  
rdbcompression yes
  
# 是否在 dump .rdb 数据库的时候使用 LZF 压缩字符串,默认都设为 yes如果你希望保存子进程节省点 cpu ,你就设置它为 no ,不过这个数据集可能就会比较大。
  

  
rdbchecksum yes
  
#是否校验RDB文件
  

  
dbfilename dump.rdb
  
#RDB文件保存文件名
  

  
dir /data/redis/db
  
#DB文件保存路径RDB和AOF文件
  

  
# slaveof  
  
#开启redis主从复制设置
  

  
# masterauth
  
#连接主服务器需要的认证密码
  

  
slave-serve-stale-data yes
  
# 当一个 slave 与 master 失去联系,或者复制正在进行的时候,slave 可能会有两种表现:
  
#1) 如果为 yes ,slave 仍然会应答客户端请求,但返回的数据可能是过时,或者数据可能是空的在第一次同步的时候
  
#2) 如果为 no ,在你执行除了 info he salveof 之外的其他命令时,slave 都将返回一个 "SYNC with master in progress" 的错误。
  

  
slave-read-only yes
  
#设置salve是否为只读模式, 2.6之后,redis默认slave都是read-only的。
  

  
repl-diskless-sync no
  
# 复制集同步策略:磁盘或者socket
  
# 新slave连接或者老slave重新连接时候不能只接收不同,得做一个全同步。需要一个新的RDB文件dump出来,然后从master传到slave。可以有两种情况:
  
# 1)基于硬盘(disk-backed):master创建一个新进程dump RDB,完事儿之后由父进程(即主进程)增量传给slaves。
  
# 2)基于socket(diskless):master创建一个新进程直接dump RDB到slave的socket,不经过主进程,不经过硬盘。
  
# 基于硬盘的话,RDB文件创建后,一旦创建完毕,可以同时服务更多的slave。基于socket的话, 新slave来了后,得排队(如果超出了repl-diskless-sync-delay还没来),完事儿一个再进行下一个。
  
# 当用diskless的时候,master等待一个repl-diskless-sync-delay的秒数,如果没slave来的话,就直接传,后来的得排队等了。否则就可以一起传。
  
# disk较慢,并且网络较快的时候,可以用diskless。(默认用disk-based)
  

  
repl-diskless-sync-delay 5
  
#当启用无硬盘备份,服务器等待一段时间后才会通过套接字向从站传送RDB文件,这个等待时间是可配置的。这一点很重要,因为一旦传送开始,就不可能再为一个新到达的从站服务从站则要排队等待下一次RDB传送。因此服务器等待一段时间以期更多的从站到达。 延迟时间以秒为单位,默认为5秒。要关掉这一功能,只需将它设置为0秒,传送会立即启动。
  

  
# repl-ping-slave-period 10
  
#默认值10,指定slave定期ping master的周期;
  

  
# repl-timeout 60
  
#以下内容设置备份的超时时间:
  
#1)从从站的角度,同步期间的批量传输的I/O
  
#2)从站角度认为的主站超时(数据,ping)
  
#3)主站角度认为的从站超时(REPLCONF ACK pings)
  
#确认这些值比定义的repl-ping-slave-period要大,否则每次主站和从站之间通信低速时都会被检测为超时。
  

  
repl-disable-tcp-nodelay no
  
#同步之后是否禁用从站上的TCP_NODELAY?
  
#如果你选择yes,redis会使用较少量的TCP包和带宽向从站发送数据。但这会导致在从站增加一点数据的延时。linux内核默认配置情况下最多40毫秒的延时。
  
#如果选择no,从站的数据延时不会那么多,但备份需要的带宽相对较多。
  
#默认情况下我们将潜在因素优化,但在高负载情况下或者在主从站都跳的情况下,把它切换为yes是个好主意。
  

  

  
# repl-backlog-size 1mb
  
#设置备份的工作储备大小。工作储备是一个缓冲区,当从站断开一段时间的情况时,它替从站接收存储数据,因此当从站重连时,通常不需要完全备份,只需要一个部分同步就可以,#即把从站断开时错过的一部分数据接收。
  
#工作储备越大,从站可以断开并稍后执行部分同步的断开时间就越长。
  
#只要有一个从站连接,就会立刻分配一个工作储备。
  

  
# repl-backlog-ttl 3600
  
#主站有一段时间没有与从站连接,对应的工作储备就会自动释放。接下来这个选项用于配置释放前等待的秒数,秒数从断开的那一刻开始计算。 值为0表示不释放。
  

  
slave-priority 100
  
#从站优先级是可以从redis的INFO命令输出中查到的一个整数。当主站不能正常工作时,redis sentinel使用它来选择一个从站并将它提升为主站。
  
#低优先级的从站被认为更适合于提升,因此如果有三个从站优先级分别是10, 100, 25,sentinel会选择优先级为10的从站,因为它的优先级最低。
  
#然而优先级值为0的从站不能执行主站的角色,因此优先级为0的从站永远不会被redis sentinel提升。
  
#默认优先级是100
  

  
# min-slaves-to-write 3
  
# min-slaves-max-lag 10
  
#主站可以停止接受写请求,当与它连接的从站少于N个,滞后少于M秒。
  
#N个从站必须是在线状态。
  
#延迟的秒数必须用LRU删除设置了ttl的key
  
# allkeys-lru ->用LRU删除任何key
  
# volatile-random ->随机删除有ttl的key
  
# allkeys-random ->随机删除任何key
  
# volatile-ttl ->删除即将ttl到期的key
  
# noeviction ->不删,有write的时候报错
  

  
# maxmemory-policy noeviction
  
#默认值volatile-lru,指定清除策略,有上面几种
  

  
# maxmemory-samples 5
  
默认值3,LRU和最小TTL策略并非严谨的策略,而是大约估算的方式,因此可以选择取样值以便检查。
  

  
appendonly no
  
#是否开启AOF模式
  

  
appendfilename "appendonly.aof"
  
#指定AOF文件名
  

  
# appendfsync always
  
appendfsync everysec
  
# appendfsync no
  
#调用fsync()方式让操作系统写数据到磁盘上,数据同步方式,以上几种
  
#always 总是写,一旦key发生变化就写磁盘,会消耗大量的系统资源。
  
#appendfsync everysec 每秒写一次磁盘,比较安全。
  
# appendfsync no不调用fsync,由操作系统决定何时同步,比较高效。
  

  
no-appendfsync-on-rewrite no
  
#默认值no。当AOF fsync策略设置为always或everysec,后台保存进程会执行大量的I/O操作。某些linux配置下redis可能会阻塞过多的fsync()调用。
  

  
auto-aof-rewrite-percentage 100
  
auto-aof-rewrite-min-size 64mb
  
# 自动重写AOF
  
# 当AOF文件大小到一定比例,就自动隐式调用BGREWRITEAOF
  
#过程:redis记住最后一次rewrite时aof文件大小(重启后没rewrite的话,就是启动时AOF文件的大小),如果现在AOF大小和上次的比例达到特定值就重写。也要指定最小AOF大小,防止到2倍:1M的时候也重写。
  
# 把percentage改成0,就是禁用重写。
  

  
aof-load-truncated yes
  
# AOF文件可能在尾部是不完整的(上次system关闭有问题,尤其是mount ext4文件系统时没有加上data=ordered选项。只会发生在os死时,redis自己死不会不完整)。那redis重启时load进内存的时候就有问题了。
  
# 发生的时候,可以选择redis启动报错,或者load尽量多正常的数据。
  
# 如果aof-load-truncated是yes,会自动发布一个log给客户端然后load(默认)。如果是no,用户必须手动redis-check-aof修复AOF文件才可以。
  

  
lua-time-limit 5000
  
# 如果达到最大时间限制(毫秒),redis会记个log,然后返回error。
  
# 当一个脚本超过了最大时限。只有SCRIPT KILL和SHUTDOWN NOSAVE可以用。第一个可以杀没有调write命令的东西。要是已经调用了write,只能用第二个命令杀。
  
# 设置成0或者负值,时限就无限。
  

  
# cluster-enabled yes
  
#是否打开集群功能在3.0以后的版本支持集群。
  

  
# cluster-config-file nodes-6379.conf
  
#指定集群配置文件
  

  
# cluster-node-timeout 15000
  
#RedisCluster采用quorum+心跳的机制。从节点的角度看,节点会定期给其他所有的节点发送Ping,cluster-node-timeout(可配置,秒级)时间内没有收到对方的回复,则单方面认为对端节点宕机,将该节点标为PFAIL状态。
  

  

  
# cluster-slave-validity-factor 10
  
#如果将该项设置为0,不管slave节点和master节点间失联多久都会一直尝试failover(设为正数,失联大于一定时间(factor*节点TimeOut),不再进行FailOver)。比如,如果节点的timeout设置为5秒,该项设置为10,如果master跟slave之间失联超过50秒,slave不会去failover它的master(意思是不会去把master设置为挂起状态,并取代它)。注意:任意非0数值都有可能导致当master挂掉又没有slave去failover它,这样redis集群不可用。在这种情况下只有原来那个master重新回到集群中才能让集群恢复工作。
  

  
# cluster-migration-barrier 1
  
#一个master可以拥有的最小slave数量。该项的作用是,当一个master没有任何slave的时候,某些有富余slave的master节点,可以自动的分一个slave给它。
  

  
# cluster-require-full-coverage yes
  
#如果该项设置为yes(默认就是yes)当一定比例的键空间没有被覆盖到(就是某一部分的哈希槽没了,有可能是暂时挂了)集群就停止处理任何查询炒作。如果该项设置为no,那么就算请求中只有一部分的键可以被查到,一样可以查询(但是有可能会查不全)
  

  
slowlog-log-slower-than 10000
  
#线程阻塞不能服务其他请求的时间长度。两个参数:第一个是时长(以微秒为单位!,是毫秒的千分之一。)。第二个是log的size,超过了,就会删除之前的log。
  
# 1000000是一秒。负值是所有请求都记log!下边是0.10S。100毫秒。
  

  
slowlog-max-len 128
  
# log长度的设置值是没限制。但是需要内存。
  

  
latency-monitor-threshold 0
  
# 用LATENCY打印redis实例在跑命令时的耗时图表。
  
# 只记录大于等于下边设置的值的操作。0的话,就是关闭监视。可以动态开启。直接运行CONFIG SET latency-monitor-threshold
  

  
notify-keyspace-events ""
  
# 可以通知pub/sub客户端关于key空间的变化。http://redis.io/topics/notifications
  
# 比如如果开着开关。一个client进行了DEL操作在“foo”key上在database0上。两个消息将会发布通过 pub/sub
  
# PUBLISH __keyspace@0__:foo del
  
# PUBLISH __keyevent@0__:del foo
  
# 大部分人不需要这个功能,并且还需要一定开销,所以默认关闭。
  

  
hash-max-ziplist-entries 512
  
hash-max-ziplist-value 64
  
# hash结构存储,小数据量的用数组,大数据量用map(encoding保存结构信息)
  

  
list-max-ziplist-entries 512
  
list-max-ziplist-value 64
  
# 与hash类似,满足条件的list数组也会采用特殊的方式以节省空间。
  

  
set-max-intset-entries 512
  
# 默认值512,当set类型中的数据都是数值类型,并且set中整型元素的数量不超过指定值时,使用特殊的编码方式。
  

  
zset-max-ziplist-entries 128
  
zset-max-ziplist-value 64
  
#与hash和list类似。
  

  
hll-sparse-max-bytes 3000
  
#HyperLogLog 不懂。大于16000完全不可接受!当CPU很顶得住的话,给10000可以。默认给3000.
  

  
activerehashing yes
  
# Active rehashing 越多次的操作进入了正在进行rehash的table,越多的rehash步骤需要执行。如果redis是空闲的,那么rehash操作是永远没法停止的,越多的内存也被消耗了。
  
# 默认就用yes就行 了如果你想释放内存ASAP。
  

  
client-output-buffer-limit normal 0 0 0
  
client-output-buffer-limit slave 256mb 64mb 60
  
client-output-buffer-limit pubsub 32mb 8mb 60
  
# client output buffer限制,可以用来强制关闭传输缓慢的客户端(比如redis pub的东西有比较慢的client无法及时sub)
  
# client-output-buffer-limit   
  
# class可以为以下:
  
#
  
# normal -> normal clients including MONITOR clients
  
# slave  -> slave clients
  
# pubsub -> clients subscribed to at least one pubsub channel or pattern
  
# 当hard限制到了会立即被关闭客户端。如果soft限制到了,会等soft秒。
  
# 比如硬限制是32m,soft是16m,10secs。到32m就立即断,或者在16m以上停止了10secs。
  
# 设置成0就是关闭。
  

  
hz 10
  
# redis内部调度(进行关闭timeout的客户端,删除过期key等等)频率,越大则调度频率越高。设置成100以上会对CPU造成大压力除非你对线上实时性要求很高。可以在1~500之间。
  

  
aof-rewrite-incremental-fsync yes
  
# 当child进程在rewrite AOF文件,如果这个选项是yes,那么这个file每32MB会写fsync()。这个是保证增量写硬盘而防止写硬盘时I/O突增。



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-630953-1-1.html 上篇帖子: Redis实现关注关系 下篇帖子: Redis配置文件redis.conf参数详解
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表