bobbai 发表于 2018-11-5 06:07:56

redis缓存mysql数据

  redis (Remote Dictionary Server)是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。Redis支持主从同步。数据可以从主服务器向任意数量的从服务器上同步,从服务器可以是关联其他从服务器的主服务器。这使得Redis可执行单层树复制。
  MySQL和Redis,自身都带有数据同步的机制,像比较常用的MySQL的Master/Slave模式,就是由Slave端分析Master的binlog来实现的,这样的数据复制其实还是一个异步过程,只不过当服务器都在同一内网时,异步的延迟几乎可以忽略。那么理论上我们也可以用同样方式,分析MySQL的binlog文件并将数据插入Redis。但是这需要对binlog文件以及MySQL有非常深入的理解,同时由于binlog存在Statement/Row/Mixedlevel多种形式,分析binlog实现同步的工作量是非常大的。因此这里选择了一种开发成本更加低廉的方式,借用已经比较成熟的MySQL
UDF,将MySQL数据首先放入Gearman中,然后通过一个自己编写的PHP Gearman
Worker,将数据同步到Redis。比分析binlog的方式增加了不少流程,但是实现成本更低,更容易操作。
  Gearman是一个支持分布式的任务分发框架:
  Gearman Job Server:Gearman核心程序,需要编译安装并以守护进程形式运行在后台。
  Gearman Client:可以理解为任务的请求者。
  Gearman Worker:任务的真正执行者,一般需要自己编写具体逻辑并通过守护进程方式运行,Gearman Worker接收到Gearman Client传递的任务内容后,会按顺序处理.
  大致流程:
  mysql触发器,就相当于Gearman的客户端。修改表,插入表就相当于直接下发任务。然后通过lib_mysqludf_json UDF库函数将关系数据映射为JSON格式,然后在通过gearman-mysql-udf插件将任务加入到Gearman的任务队列中,最后通过redis_worker.php,也就是Gearman的worker端来完成redis数据库的更新。
  使用lib_mysqludf_json的原因是因为Gearman只接受字符串作为入口参数,可以通过lib_mysqludf_json将MySQL中的数据编码为JSON字符串.
  lib_mysqludf_json UDF库函数将关系数据映射为JSON格式。通常,数据库中的数据映射为JSON格式,是通过程序来转换的。
  1. server2:
  配置redis:
  yum install -y mysql-server
  /etc/init.d/mysqld start
  netstat -antlpe      ##mysql端口3306已开

  tar zxf redis-3.0.2.tar.gz
  cd redis-3.0.2
  yum install -y gcc
  make
  make install
  cd /root/redis-3.0.2/utils
  ./install_server.sh          ##安装服务器启动程序

  /etc/init.d/redis_6379 start
  redis-cli monitor    ##监控数据,okshi表示监控正常
  redis-cli            ##临时设定redis的一些数据

  redis作为mysql缓存服务器:
  cd /root
  yum install nginx-1.8.0-1.el6.ngx.x86_64.rpm   php-5.3.3-38.el6.x86_64.rpm
  php-cli-5.3.3-38.el6.x86_64.rpm    php-common-5.3.3-38.el6.x86_64.rpm         php-devel-5.3.3-38.el6.x86_64.rpm    php-fpm-5.3.3-38.el6.x86_64.rpm
  php-gd-5.3.3-38.el6.x86_64.rpm   php-mbstring-5.3.3-38.el6.x86_64.rpm
  php-mysql-5.3.3-38.el6.x86_64.rpm    php-pdo-5.3.3-38.el6.x86_64.rpm
  php -m      ##看到支持的软件
  vim /etc/php.ini
date.timezone = Asia/Shanghai  cat /etc/passwd
  vim /etc/php-fpm.d/www.conf
user = nginx  
group = nginx
  /etc/init.d/php-fpm restart
  配置nginx:
  vim /etc/nginx/conf.d/default.conf
location / {  
      root   /usr/share/nginx/html;
  
      index    index.html index.htmindex.php;
  
}
  
location ~ \.php$ {
  
      root         html;
  
      fastcgi_pass   127.0.0.1:9000;   ##fastcgi通信
  
      fastcgi_indexindex.php;      ##fastcgi主文件
  
      fastcgi_paramSCRIPT_FILENAME/usr/share/nginx/html$fastcgi_script_name;
  
      include      fastcgi_params;
  
    }
  cd /usr/share/nginx/html/
  vim index.php

  /etc/init.d/nginx start
  网页访问http://172.25.85.2
  nginx上运行php:
  yum install -y unzip
  unzip phpredis-master.zip
  cd phpredis-master
  phpize
  ./configure
  make
  make install
  cd /usr/lib64/php/modules/
  ls
  cd /etc/php.d
  cp mysql.ini redis.ini
  vim redis.ini
  将内容修改为以下:
extension=redis.so
  /etc/init.d/php-fpm>  php -m | grep redis
  mysql
  mysql> show databases;      ##查看有无test数据库,没有则创建一个。
  mysql> quit
  cd /root/redis
  mysql< test.sql
  cat test.sql
use test;  
CREATE TABLE `test` (`id` int(7) NOT NULL AUTO_INCREMENT, `name` char(8)
  
DEFAULT NULL, PRIMARY KEY (`id`)) ENGINE=InnoDB DEFAULT CHARSET=utf8;
  
INSERT INTO `test` VALUES (1,'test1'),(2,'test2'),(3,'test3'),(4,'test4')
  
,(5,'test5'),(6,'test6'),(7,'test7'),(8,'test8'),(9,'test9');
  
#DELIMITER $$
  
#CREATE TRIGGER datatoredis AFTER UPDATE ON test FOR EACH ROW BEGINmysql
  
< test.sql
  
    SET @RECV=gman_do_background('syncToRedis',
  
    json_object(NEW.id as `id`, NEW.name as `name`));
  
END$$
  
#DELIMITER ;
  mysql
  mysql> use test;
  mysql> select * from test;

  mysql> grant all on *.* to redis@localhost>  mysql> quit
  mysql -uredis -pwestos
  mysql> use test;
  mysql> select * from test;

  mysql> quit
  cp /root/test.php /usr/share/nginx/html/
  cd /usr/share/nginx/html/
  rm -rf index.php
  mv test.php index.php
  检测:
  网页访问http://172.25.85.2   ##已经完成redis对mysql的缓存

  redis-cli
  127.0.0.1:6379> get 1
  "test1"
  127.0.0.1:6379> get 2
  "test2"
  127.0.0.1:6379> quit
  mysql
  mysql> use test;

  mysql> update test set name='westos' where>  mysql> quit
  网页访问http://172.25.85.2   ##更新了mysql中的数据,但是redis中的数据不会自动更新
redis-cli  
127.0.0.1:6379> get 1
  
"test1"
  
redis-cli
  
127.0.0.1:6379> del 1
  
网页访问http://172.25.85.2
  

  
redis-cli
  
127.0.0.1:6379> set 1 westos
  
网页访问http://172.25.85。2
  Gearman是一个支持分布式的任务分发框架:
  Gearman Job Server:Gearman核心程序,需要编译安装并以守护进程形式运行在后台。
  Gearman Client:可以理解为任务的请求者。
  Gearman Worker:任务的真正执行者,一般需要自己编写具体逻辑并通过守护进程方式运行,Gearman Worker接收到Gearman Client传递的任务内容后,会按顺序处理
  大致流程:
  下面要编写的mysql触发器,就相当于Gearman的客户端。修改表,插入表就相当于直接下发任务。然后通过lib_mysqludf_json UDF库函数将关系数据映射为JSON格式,然后在通过gearman-mysql-udf插件将任务加入到Gearman的任务队列中,最后通过redis_worker.php,也就是Gearman的worker端来完成redis数据库的更新。
  2.配置gearman自动更新redis中的数据:
  cd /root/redis
  yum install -y gearmand-1.1.8-2.el6.x86_64.rpm libgearman-1.1.8-2.el6.x86_64.rpm
  /etc/init.d/gearmand start
  netstat -antlpe
  tar zxf gearman-1.1.2.tgz
  cd gearman-1.1.2
  phpize
  ./configure
  cd ..
  yum install -y libgearman-devel-1.1.8-2.el6.x86_64.rpm
  libevent-devel-1.4.13-4.el6.x86_64.rpm
  libevent-doc-1.4.13-4.el6.noarch.rpm
  libevent-headers-1.4.13-4.el6.noarch.rpm
  cd gearman-1.1.2
  ./configure

  make
  make install
  cd /etc/php.d
  cp redis.ini gearman.ini
  vim gearman.ini
  将内容修改为以下:
extension=gearman.so
  /etc/init.d/php-fpm>  php -m |grep gearman
  yum install -y mysql-devel
  cd /root/redis
  lib_mysqludf_json UDF库函数将关系数据映射为JSON格式。通常,数据库中的数据映射为JSON格式,是通过程序来转换的。
  unzip lib_mysqludf_json-master.zip
  cd lib_mysqludf_json-master
  gcc $(mysql_config --cflags) -shared -fPIC -o lib_mysqludf_json.so lib_mysqludf_json.c
  ls
  mysql
  mysql> show global variables like 'plugin_dir';

  mysql> quit
  cd /root/lib_mysqludf_json-master
  cp lib_mysqludf_json.so /usr/lib64/mysql/plugin
  #注册UDF函数
  mysql
  mysql> create function json_object returns string soname 'lib_mysqludf_json.so';
  mysql> select * from mysql.func;

  mysql> quit
  #安装gearman-mysql-udf
  这个插件是用来管理调用 Gearman 的分布式的队列。
  cd /root/redis
  tar zxf gearman-mysql-udf-0.6.tar.gz
  cd gearman-mysql-udf-0.6
  yum install -y gcc-c++
  ./configure --libdir=/usr/lib64/mysql/plugin/
  make
  make install
  cd /usr/lib64/mysql/plugin/
  mysql -p
  #注册UDF函数
  mysql> create function gman_do_background returns string soname 'libgearman_mysql_udf.so';
  mysql> create function gman_servers_set returns string soname 'libgearman_mysql_udf.so';
  #查看函数
  mysql> select * from mysql.func;

  mysql> quit
  netstat -antlpe
  #指定gearman的服务信息
  mysql
  mysql> select gman_servers_set('127.0.0.1:4730');
  mysql> quit
  #编写mysql触发器(根据实际情况编写)
  cd /root/redis
  vim test.sql
  将触发器的注释取消,在建表和插入数据语句前加上注释
DELIMITER $$  
CREATE TRIGGER datatoredis AFTER UPDATE ON test FOR EACH ROW BEGIN
  
   SET @RECV=gman_do_background('syncToRedis', json_object(NEW.id as `id`, NEW.name as `name`));
  
   END$$
  
DELIMITER ;
  mysql< test.sql
  mysql
  mysql> show triggers from test;
  mysql> quit
  cp worker.php /usr/local/bin/
  cd /usr/local/bin/
  vim worker.php
  nohup php worker.php&
  ps ax
  mysql
  mysql> use test;

  mysql> update test set name='redhat' where>  mysql> quit
  网页访问http://172.25.19.1(刷新)    ##更新   (待验证)
  redis-cli
  127.0.0.1:6379> get 1
  "redhat"
  3.redis的主从复制
  如果设置了一个slave,不管是在第一次链接还是重新链接master的时候,slave会发送一个同步命令 然后master开始后台保存,收集所有对修改数据的命令。当后台保存完成,master会将这个数据文件传送到slave,然后保存在磁盘,加载到内存中;master接着发送收集到的所有的修改数据的命令,这好比一个流命令,是redis协议本身来实现的。
  在server3和server4上:
  vim /etc/redis/6379.conf
  slaveof 172.25.85.2 6379
  /etc/init.d/redis_6379 restart
  server2:
  vim /root/redis-3.0.2/sentinel.conf    ##配置sentinel
sentinel monitor mymaster 172.25.85.26379 2  ##Sentinel 去监视一个名为 mymaster 的主服务器, 这个主服务器的 IP 地址为 127.0.0.1 , 端口号为 6379 , 而将这个主服务器判断为失效至少需要 2 个 Sentinel 同意 (只要同意 Sentinel 的数量不达标,自动故障迁移就不会执行)。
sentinel down-after-milliseconds mymaster 10000  ##Sentinel 认为服务器已经断线所需的毫秒数。
sentinel failover-timeout mymaster 60000  grep -v ^#sentinel.conf >/etc/sentinel.conf
  redis-sentinel /etc/sentinel.conf
  tu
  scp /etc/sentinel.conf root@172.25.45.4:/etc/
  scp /etc/sentinel.conf root@172.25.45.3:/etc/
  redis-cli-h 172.25.45.7 -p 26379 info
  tu
  server4:
  vim /etc/sentinel.conf
  port 26379
  dir "/tmp"
  .
  sentinel monitor mymaster 172.25. 6379 2
  sentinel down-after-milliseconds mymaster 10000
  sentinel failover-timeout mymaster 60000
  sentinel parallel-syncs mymaster 1         ##选项指定了在执行故障转移时, 最多可以有多少个从服务器同时对新的主服务器进行同步, 这个数字越小, 完成故障转移所需的时间就越长。
  scp /etc/sentinel.conf root@172.25.85.4:/etc/
  然后再server7查看:redis-cli-h 172.25.85.2 -p 26379 info
  tu


页: [1]
查看完整版本: redis缓存mysql数据