ybaidukuai 发表于 2018-11-4 11:50:15

redis3.0集群安装部署

  wget http://download.redis.io/releases/redis-3.0.0.tar.gz && tar zxvf redis-3.0.0.tar.gz && cd redis-3.0.0 && make PREFIX=/usr/local/redis MALLOC=libc install
  mkdir -p /usr/local/redis/run
  mkdir -p /usr/local/redis/logs
  mkdir -p /usr/local/redis/rdb
  mkdir -p /usr/local/redis/etc
  mkdir -p /usr/local/redis/nodes
  1、###redis集群配置文件,根据实例端口区分
  #Redis默认不是以守护进程的方式运行,可以通过该配置项修改,使用yes启用守护进程
  daemonize yes
  #当 Redis 以守护进程的方式运行的时候,Redis 默认会把 pid 文件放在/var/run/redis.pid,当运行多个 redis 服务时,需要指定不同的 pid 文件和端口
  pidfile /usr/local/redis/run/redis_6381.pid
  #配置redis端口
  port 6381
  tcp-backlog 511
  #客户端连接的超时时间,单位为秒,超时后会关闭连接
  timeout 300
  tcp-keepalive 0
  #日志记录等级,4个可选值debug、verbose、notice、warning
  loglevel notice
  #配置 log 文件地址,默认打印在命令行终端的窗口上,也可设为/dev/null屏蔽日志
  logfile "/usr/local/redis/logs/6381.log"
  #设置数据库的个数,可以使用 SELECT 命令来切换数据库
  databases 16
  #设置 Redis 进行数据库镜像的频率。保存数据到disk的策略 900秒之内有1个keys发生变化时
  save 900 1
  #设置 Redis 进行数据库镜像的频率。保存数据到disk的策略 30秒之内有10个keys发生变化时
  save 300 10
  #设置 Redis 进行数据库镜像的频率。保存数据到disk的策略 60秒之内有10000个keys发生变化时
  save 60 10000
  stop-writes-on-bgsave-error yes
  #在进行镜像备份时,是否进行压缩
  rdbcompression yes
  rdbchecksum yes
  #镜像备份文件的文件名
  dbfilename dump6381.rdb
  #数据库镜像备份的文件放置的路径,默认值为 ./
  dir /usr/local/redis/rdb
  slave-serve-stale-data yes
  slave-read-only yes
  repl-diskless-sync no
  repl-diskless-sync-delay 5
  repl-disable-tcp-nodelay no
  slave-priority 100
  #限制同时连接的客户数量,当连接数超过这个值时,redis 将不再接收其他连接请求,客户端尝试连接时将收到 error 信息
  maxclients 10000
  #最大可使用内存。如果超过,Redis会试图删除EXPIRE集合中的keys
  maxmemory 1G
  #volatile-lru使用LRU算法来删除过期的set,allkeys-lru删除任何遵循LRU算法的key,volatile-ttl删除最近即将过期的key,volatile-random ->随机地删除过期set中的key
  maxmemory-policy volatile-ttl
  #对于处理redis内存来说,LRU和minor TTL算法不是精确的,而是近似的(估计的)算法。所以我们会检查某些样本#来达到内存检查的目的。默认的样本数是3,你可以修改它。
  maxmemory-samples 3
  #默认情况下,Redis会异步的把数据保存到硬盘。如果你的应用场景允许因为系统崩溃等极端情况而导致最新数据丢失#的话,那这种做法已经很ok了。否则你应该打开‘append only’模式,开启这种模式后,Redis会在#appendonly.aof文件中添加每一个写操作,这个文件会在Redis启动时被读取来在内存中重新构建数据集。
  appendonly no
  appendfilename "appendonly6381.aof"
  #no:不fsync,只是通知OS可以flush数据了具体是否flush取决于OS性能更好; always: 每次写入append only 日志文件后都会fsync性能差,但很安全;everysec: 没间隔1秒进行一次fsync折中.
  appendfsync everysec
  no-appendfsync-on-rewrite no
  auto-aof-rewrite-percentage 100
  auto-aof-rewrite-min-size 64mb
  aof-load-truncated yes
  lua-time-limit 5000
  cluster-enabled yes
  cluster-config-file /usr/local/redis/nodes/6381.conf
  cluster-node-timeout 5000
  slowlog-log-slower-than 10000
  slowlog-max-len 1024
  latency-monitor-threshold 0
  notify-keyspace-events ""
  hash-max-ziplist-entries 512
  hash-max-ziplist-value 64
  list-max-ziplist-entries 512
  list-max-ziplist-value 64
  set-max-intset-entries 512
  zset-max-ziplist-entries 128
  zset-max-ziplist-value 64
  hll-sparse-max-bytes 3000
  activerehashing yes
  client-output-buffer-limit normal 0 0 0
  client-output-buffer-limit slave 256mb 64mb 60
  client-output-buffer-limit pubsub 32mb 8mb 60
  hz 10
  aof-rewrite-incremental-fsync yes
  2、启动redis实例
  /usr/local/redis/bin/redis-server /usr/local/redis/etc/6380.conf &
  3、复制redis-trib.rb
  cp /root/redis-3.0.0/src/redis-trib.rb /usr/local/redis/bin
  4、启动集群
  /usr/local/redis/bin/redis-trib.rb create 10.144.8.86:7000 10.144.8.86:7001 10.144.8.86:7002
  如果是6个实例,create 后加参数--replicas 1会产生3个主节点,3个slave节点
  执行上面的命令的时候会报错,因为是执行的ruby的脚本,需要ruby的环境
  错误内容:/usr/bin/env: ruby: No such file or directory
  所以需要安装ruby的环境,这里推荐使用yum install ruby安装
  yum install ruby
  然后再执行第6步的创建集群命令,还会报错,提示缺少rubygems组件,使用yum安装
  错误内容:
  ./redis-trib.rb:24:in `require': no such file to load -- rubygems (LoadError)
  from ./redis-trib.rb:24
  yum install rubygems
  6.3再次执行第6步的命令,还会报错,提示不能加载redis,是因为缺少redis和ruby的接口,使用gem 安装
  错误内容:
  /usr/lib/ruby/site_ruby/1.8/rubygems/custom_require.rb:31:in `gem_original_require': no such file to load -- redis (LoadError)
  from /usr/lib/ruby/site_ruby/1.8/rubygems/custom_require.rb:31:in `require'
  from ./redis-trib.rb:25
  使用gem 安装 :gem install redis
  5、通过redis-trib.rb工具的check子命令来查看集群信息
  /usr/local/redis/bin/redis-trib.rb check 127.0.0.1:6379
  6、通过redis客户端实现对Redis Cluster的读写。当前,redis客户端同样实现了对集群的支持,但使用方法略有不同,即在启动的时候需要添加一个-c参数。
  /usr/local/redis/bin/redis-cli -c -h 127.0.0.1 -p 6379
  http://blog.csdn.net/xu470438000/article/details/42972123
  http://blog.csdn.net/myrainblues/article/details/25881535
  Redis集群添加节点
  1:首先把需要添加的节点启动
  2:执行以下命令,将这个新节点添加到集群中
  cd /usr/local/redis3.0/src/
  ./redis-trib.rb add-node 127.0.0.1:7006 127.0.0.1:7000
  3:执行命令redis-cli -c -p 7000 cluster nodes,查看刚才新增的节点
  4:增加了新的节点之后,这个新的节点可以成为主节点或者是从节点
  4.1 把这个节点变成主节点,使用redis-trib程序,将集群中的某些哈希槽移动到新节点里面, 这个新节点就成为真正的主节点了。
  执行下面的命令对集群中的哈希槽进行移动
  cd /usr/local/redis3.0/src
  ./redis-trib.rb reshard 127.0.0.1:7000
  系统会提示我们要移动多少哈希槽,这里移动1000个
  然后还需要指定把这些哈希槽转移到哪个节点上,
  输入我们刚才新增的节点的ID
  f32dc088c881a6b930474fc5b52832ba2ff71899
  然后需要我们指定转移哪几个几点的哈希槽
  输入all 表示从所有的主节点中随机转移,凑够1000个哈希槽
  然后再输入yes,redis集群就开始分配哈希槽了。
  至此,一个新的主节点就添加完成了,执行命令查看现在的集群中节点的状态
  redis-cli -c -p 7000 cluster nodes
  4.2:把这个节点变成从节点
  前面我们已经把这个新节点添加到集群中了,现在我们要让新节点成为127.0.0.1:7001的从节点,只需要执行下面的命令就可以了,命令后面的节点ID就是127.0.0.1:7001的节点ID
  redis-cli -c -p 7006 cluster replicate 0b00721a509444db793d28448d8f02168b94bd38
  使用下面命令来确认一下127.0.0.1:7006是否已经成为127.0.0.1:7001的从节点
  redis-cli -p 7000 cluster nodes | grep slave | grep 0b00721a509444db793d28448d8f02168b94bd38
  看到下面图片中的情况就表示添加成功
  Redis集群删除节点
  1:如果删除的节点是主节点,这里我们删除127.0.0.1:7006节点,这个节点有1000个哈希槽
  首先要把节点中的哈希槽转移到其他节点中,执行下面的命令
  cd /usr/local/redis3.0/src
  ./redis-trib.rb reshard 127.0.0.1:7000
  系统会提示我们要移动多少哈希槽,这里移动1000个,因为127.0.0.1:7006节点有1000个哈希槽
  然后系统提示我们输入要接收这些哈希槽的节点的ID,这里使用127.0.0.1:7001的节点ID
  然后要我们选择从那些节点中转出哈希槽,这里一定要输入127.0.0.1:7006这个节点的ID,最后输入 done表示输入完毕
  最后一步,使用下面的命令把这个节点删除
  cd /usr/local/redis3.0/src/
  ./redis-trib.rb del-node 127.0.0.1:7006 127.0.0.1:7006
  2:如果节点是从节点的,直接使用下面的命令删除即可。
  cd /usr/local/redis3.0/src/
  ./redis-trib.rb del-node 127.0.0.1:7006 127.0.0.1:7006

页: [1]
查看完整版本: redis3.0集群安装部署