设为首页 收藏本站
查看: 577|回复: 0

[经验分享] Corosync+Pacemaker+DRBD+MySQL 实现MySQL高可用

[复制链接]

尚未签到

发表于 2018-9-30 13:31:11 | 显示全部楼层 |阅读模式
  一:Corosync+Pacemaker
  Pacemaker是最流行的CRM(集群资源管理器),是从heartbeat v3中独立出来的资源管理器,同时Corosync+Pacemaker是最流行的高可用集群的套件.
  二:DRBD
  DRBD (Distributed Replicated Block Device,分布式复制块设备)是由内核模块和相关脚本而构成,用以构建高可用性的集群。其实现方式是通过网络来镜像整个设备。你可以把它看作是一种网络RAID1。
  三:试验拓扑图
DSC0000.jpg

  四:试验环境准备(centos6.5.x86_64)
  drbd-8.4.3-33.el6.x86_64.rpm
  drbd-kmdl-2.6.32-431.el6-8.4.3-33.el6.x86_64.rpm
  crmsh-1.2.6-4.el6.x86_64.rpm
  mariadb-5.5.36-linux-x86_64.tar.gz
  corosync.x86_64-1.4.1-17.el6
  五:实验配置
  1)配置各节点互相解析
  配置node1
[root@node3 ~]# uname -n  
node3
  
[root@node3 ~]# cat /etc/hosts
  
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
  
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
  
172.16.0.1  server.magelinux.com server
  
172.16.16.1 node1
  
172.16.16.2 node2
  
172.16.16.3 node3
  
172.16.16.4 node4
  
172.16.16.5 node5
  配置node2
[root@node4 ~]# uname -n  
node4
  
[root@node4 ~]# cat /etc/hosts
  
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
  
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
  
172.16.0.1  server.magelinux.com server
  
172.16.16.1 node1
  
172.16.16.2 node2
  
172.16.16.3 node3
  
172.16.16.4 node4
  
172.16.16.5 node5
  配置各节点时间同步
[root@node3 ~]# ntpdate 172.16.0.1  
[root@node4 ~]# ntpdate 172.16.0.1   #172.16.0.1为时间服务器
  配置各节点ssh互信
  node4上的操作
[root@node4 ~]# ssh-keygen -t rsa -f /root/.ssh/id_rsa -P ''  
[root@node4 ~]# ssh-copy-id -i .ssh/id_rsa.pub root@node3 #发给node3
  node3上的操作
[root@node3 ~]# ssh-keygen -t rsa -f /root/.ssh/id_rsa -P ''  
[root@node3 ~]# ssh-copy-id -i .ssh/id_rsa.pub root@node4 #发给node4
  2)安装配置corosync
  node3
[root@node3 ~]# yum install corosync  node4
[root@node4 ~]# yum install corosync  配置node3上的corosync
[root@node3 ~]# cd /etc/corosync/  
[root@node3 corosync]# cp corosync.conf.example corosync.conf
  
[root@node3 corosync]# vim corosync.conf
# Please read the corosync.conf.5 manual page  
compatibility: whitetank
  
totem {
  
        version: 2
  
        secauth: on  #启动认证
  
        threads: 0
  
        interface {
  
                ringnumber: 0
  
                bindnetaddr: 172.16.0.0 #心跳主机网段
  
                mcastaddr: 226.94.16.1  #组播传递心跳信息
  
                mcastport: 5405
  
                ttl: 1
  
        }
  
}
  
logging {
  
        fileline: off
  
        to_stderr: no
  
        to_logfile: yes
  
        to_syslog: yes
  
        logfile: /var/log/cluster/corosync.log #日志位置
  
        debug: off
  
        timestamp: on
  
        logger_subsys {
  
                subsys: AMF
  
                debug: off
  
        }
  
}
  
amf {
  

  
        mode: disabled
  
}
  
service {
  
     ver: 0
  
     name: pacemaker
  
}
  
aisexec {
  
      user: root
  
      group: root
  
}
  生成密钥文件
  前面的几部操作为了节约生成密钥的时间.random是根据敲击键盘的频率来生成密钥,如果之前没有足够的生成密钥所需要的信息那么需要你不停的敲击键盘.
[root@node3 corosync]# mv /dev/{random,random.bak}  
[root@node3 corosync]# ln -s /dev/urandom /dev/random
  
[root@node3 corosync]# corosync-keygen
  
Corosync Cluster Engine Authentication key generator.
  
Gathering 1024 bits for key from /dev/random.
  
Press keys on your keyboard to generate entropy.
  
Writing corosync key to /etc/corosync/authkey.
  查看是否已经生成密钥文件
  [root@node3 corosync]# ll
  total 24
  -r-------- 1 root root  128 Oct 11 19:52 authkey  #此为密钥文件
  -rw-r--r-- 1 root root  537 Oct 11 19:49 corosync.conf
  -rw-r--r-- 1 root root  445 Nov 22  2013 corosync.conf.example
  -rw-r--r-- 1 root root 1084 Nov 22  2013 corosync.conf.example.udpu
  drwxr-xr-x 2 root root 4096 Nov 22  2013 service.d
  drwxr-xr-x 2 root root 4096 Nov 22  2013 uidgid.d
  将配置文件和密钥复制到node4节点上
[root@node3 corosync]# scp authkey corosync.conf node4:/etc/corosync/  
authkey                                         100%  128     0.1KB/s   00:00
  
corosync.conf                                   100%  537     0.5KB/s   00:00
  3)安装配置pacemaker和crm
[root@node3 ~]# yum install pacemaker  先获得crmsh-1.2.6-4.el6.x86_64.rpm 包
[root@node3 ~]# rpm -ivh crmsh-1.2.6-4.el6.x86_64.rpm  
error: Failed dependencies:
  
pssh is needed by crmsh-1.2.6-4.el6.x86_64
  
python-dateutil is needed by crmsh-1.2.6-4.el6.x86_64
  
python-lxml is needed by crmsh-1.2.6-4.el6.x86_64
  需要解决依赖关系
[root@node3 ~]# yum install python-dateutil python-lxml  
[root@node3 ~]# rpm -ivh crmsh-1.2.6-4.el6.x86_64.rpm  --nodeps
  
Preparing...                ########################################### [100%]
  
   1:crmsh                  ########################################### [100%]
  4)node4安装pacemaker和crm方法同node3
  启动node3和node4的pacemaker
[root@node3 ~]# service corosync start  
[root@node4 ~]# service corosync start
  查看corosync引擎是否成功启动
[root@node3 ~]#  grep -e "Corosync Cluster Engine" -e "configuration file" /var/log/cluster/corosync.log  
Oct 11 20:19:35 corosync [MAIN  ] Corosync Cluster Engine ('1.4.1'): started and ready to provide service. #说明已经启动准备好了
  
Oct 11 20:19:35 corosync [MAIN  ] Successfully read main configuration file '/etc/corosync/corosync.conf'
  查看初始化成员节点通知是否正常发出
[root@node3 ~]# grep  TOTEM /var/log/cluster/corosync.log  
Oct 11 20:19:35 corosync [TOTEM ] Initializing transport (UDP/IP Multicast).
  
Oct 11 20:19:35 corosync [TOTEM ] Initializing transmit/receive security: libtomcrypt SOBER128/SHA1HMAC (mode 0).
  
Oct 11 20:19:35 corosync [TOTEM ] The network interface [172.16.16.3] is now up.
  查看pacemaker是否正常启动
[root@node3 ~]# grep pcmk_startup /var/log/cluster/corosync.log  
Oct 11 20:19:35 corosync [pcmk  ] info: pcmk_startup: CRM: Initialized
  
Oct 11 20:19:35 corosync [pcmk  ] Logging: Initialized pcmk_startup
  
Oct 11 20:19:35 corosync [pcmk  ] info: pcmk_startup: Maximum core file size is: 18446744073709551615
  
Oct 11 20:19:35 corosync [pcmk  ] info: pcmk_startup: Service: 9
  
Oct 11 20:19:35 corosync [pcmk  ] info: pcmk_startup: Local hostname: node3
  查看集群状态
[root@node3 ~]# crm status  
Last updated: Sat Oct 11 20:29:24 2014
  
Last change: Sat Oct 11 20:19:35 2014 via crmd on node4
  
Stack: classic openais (with plugin)
  
Current DC: node4 - partition with quorum
  
Version: 1.1.10-14.el6-368c726
  
2 Nodes configured, 2 expected votes
  
0 Resources configured
  
Online: [ node3 node4 ] #在线
  5)安装DRBD
  先获得drbd安装包drbd-kmdl-2.6.32-431.el6-8.4.3-33.el6.x86_64.rpm ; drbd-8.4.3-33.el6.x86_64.rpm
[root@node3 ~]#  rpm -ivh drbd-kmdl-2.6.32-431.el6-8.4.3-33.el6.x86_64.rpm #先安装kmdl包  
[root@node3 ~]# rpm -ivh drbd-8.4.3-33.el6.x86_64.rpm
  6)node4安装方法同node3
  
  7)配置DRBD
[root@node3 ~]# cat /etc/drbd.d/global_common.conf  
global {
  
           usage-count yes; #让linbit公司收集目前drbd的使用情况,yes为参加,我们这里不参加设置为no
  
           # minor-count dialog-refresh disable-ip-verification
  
       }
  
common {
  
handlers {
  
           gency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
  
           gency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
  
           wn.sh; echo o > /proc/sysrq-trigger ; halt -f";
  

  
         }
  
startup {
  
                # wfc-timeout degr-wfc-timeout outdated-wfc-timeout wait-after-sb
  
         }
  
options {
  
                # cpu-mask on-no-data-accessible
  
        }
  
disk {
  

  
                on-io-error detach; #添加这一项,同步出错分离
  
      }
  
net {
  

  
                cram-hmac-alg "sha1";
  
                shared-secret "mydrbdlab"; #添加认证算法和认证密钥
  
     }
  
}
  增加资源
  node3
resource web {  
  device /dev/drbd0;
  
  disk /dev/sda3;                   #sda3为事先创建好的分区和node4保持一致
  
  on node3 {                        #节点为主机名
  
    address 172.16.16.3:7788;
  
    meta-disk internal;
  
  }
  
  on node4 {
  
    address 172.16.16.4:7788;
  
    meta-disk internal;
  
  }
  
}
  同步DRBD配置文件到node4
[root@node3 drbd.d]# scp global_common.conf web.res node4:/etc/drbd.d/  node3与node4初始化资源
[root@node3 drbd.d]# drbdadm create-md web  
[root@node4 drbd.d]# drbdadm create-md web
  启动DRBD
[root@node3 drbd.d]# service drbd start  #两边需要同时启动  
[root@node3 drbd.d]# service drbd start
  查看两边的状
  开始时两边都为secondary状态
[root@node3 drbd.d]# drbd-overview  
  0:web/0  Connected Secondary/Secondary Inconsistent/Inconsistent C r-----
  
[root@node4 drbd.d]# drbd-overview
  
  0:web/0  Connected Secondary/Secondary Inconsistent/Inconsistent C r-----
  选取node3为主节点
[root@node3 drbd.d]# drbdadm -- --overwrite-data-of-peer primary web  
[root@node3 drbd.d]# drbd-overview
  
  0:web/0  Connected Primary/Secondary UpToDate/UpToDate C r-----
  
[root@node4 drbd.d]# drbd-overview
  
  0:web/0  Connected Secondary/Secondary Inconsistent/Inconsistent C r-----
  
[root@node4 drbd.d]# drbd-overview
  
  0:web/0  Connected Secondary/Primary UpToDate/UpToDate C r-----
  看 node3有之前的secondary变成了primary,说明node3已经变成了主节点
  进行格式化并挂载
[root@node3 ~]# mke2fs -t ext4 /dev/drbd0  #这主节点上进行格式化并挂载  
[root@node3 ~]# mount /dev/drbd0 /mnt
  设置node4为主节点
  node3上面的操作
[root@node3 ~]# umount /mnt  
[root@node3 ~]# drbdadm secondary web
  
[root@node3 ~]# drbd-overview
  
  0:web/0  Connected Secondary/Secondary UpToDate/UpToDate C r-----
  看:node3已经有primary变成了secondary
  node4上面的操作
[root@node4 ~]# drbdadm primary web  
[root@node4 ~]# drbd-overview
  
  0:web/0  Connected Primary/Secondary UpToDate/UpToDate C r-----
  
[root@node4 ~]# mount /dev/drbd0 /mnt
  
[root@node4 ~]# cd /mnt
  
[root@node4 mnt]# ls
  lost+found
  看:node4 变成了secondary 而且可以在node4上面进行挂载.
  说明:我们的drbd工作一切正常
  8)安装mysql
  node3上创建mysql用户与组
[root@node3 ~]# groupadd -g 3306 mysql  
[root@node3 ~]# useradd -u 3306 -g mysql -s /sbin/nologin -M mysql
  
[root@node3 ~]# id mysql
  
uid=3306(mysql) gid=3306(mysql) groups=3306(mysql)
  node4上创建用户与组同node3
  node3安装mysql
  先获得mysql安装包 mariadb-5.5.36-linux-x86_64.tar.gz
[root@node3 ~]# tar xf mariadb-5.5.36-linux-x86_64.tar.gz -C /usr/local/  
[root@node3 ~]# cd /usr/local/
  
[root@node3 local]# ln -sv mariadb-5.5.36-linux-x86_64 mysql
  
`mysql' -> `mariadb-5.5.36-linux-x86_64'
  
[root@node3 local]# cd mysql
  
[root@node3 mysql]# chown root.mysql ./*
  
[root@node3 mysql]# ll
  
total 212
  
drwxr-xr-x  2 root mysql   4096 Oct 11 21:54 bin
  
-rw-r--r--  1 root mysql  17987 Feb 24  2014 COPYING
  
-rw-r--r--  1 root mysql  26545 Feb 24  2014 COPYING.LESSER
  
drwxr-xr-x  3 root mysql   4096 Oct 11 21:54 data
  
drwxr-xr-x  2 root mysql   4096 Oct 11 21:55 docs
  
drwxr-xr-x  3 root mysql   4096 Oct 11 21:55 include
  
-rw-r--r--  1 root mysql   8694 Feb 24  2014 INSTALL-BINARY
  
drwxr-xr-x  3 root mysql   4096 Oct 11 21:55 lib
  
drwxr-xr-x  4 root mysql   4096 Oct 11 21:54 man
  
drwxr-xr-x 11 root mysql   4096 Oct 11 21:55 mysql-test
  
-rw-r--r--  1 root mysql 108813 Feb 24  2014 README
  
drwxr-xr-x  2 root mysql   4096 Oct 11 21:55 scripts
  
drwxr-xr-x 27 root mysql   4096 Oct 11 21:55 share
  
drwxr-xr-x  4 root mysql   4096 Oct 11 21:55 sql-bench
  
drwxr-xr-x  4 root mysql   4096 Oct 11 21:54 support-files
  提供配置文件
[root@node3 mysql]# cp support-files/my-large.cnf /etc/my.cnf  
cp: overwrite `/etc/my.cnf'? y
  
[root@node3 mysql]# vim /etc/my.cnf
  
增加一行
  
datadir = /mydata/data
  挂载DRBD到/mydata/data
[root@node3 mysql]# mkdir -pv /mydata/data  
[root@node3 mysql]# mount /dev/drbd0 /mydata/data
  
[root@node3 mysql]# chown -R mysql.mysql /mydata
  初始化mysql
[root@node3 mysql]# scripts/mysql_install_db --datadir=/mydata/data/ --basedir=/usr/local/mysql --user=mysql  给mysql提供启动脚本
[root@node3 mysql]# cp /usr/local/mysql/support-files/mysql.server /etc/init.d/mysqld  
[root@node3 mysql]# chmod +x /etc/init.d/mysqld
  
[root@node3 mysql]# service mysqld start
  
Starting MySQL....                                         [  OK  ]
  给mysql提供客户端
  node4安装mysql同node3
  
  将node4作为主节点
[root@node3 ~]# umount /mnt  
[root@node3 ~]# drbdadm secondary web
  
[root@node3 ~]# drbd-overview
  
  0:web/0  Connected Secondary/Secondary UpToDate/UpToDate C r-----
  
[root@node4 ~]# drbdadm primary web
  
[root@node4 ~]# drbd-overview
  
  0:web/0  Connected Primary/Secondary UpToDate/UpToDate C r-----
  挂载DRBD
[root@node4 mysql]# mkdir -pv /mydata/data  
[root@node4 mysql]# mount /dev/drbd0 /mydata/data
  
[root@node4 mysql]# chown -R mysql.mysql /mydata
  把node3上的mysql配置文件发送到node4相应的目录中.
[root@node3 mysql]# scp /etc/my.cnf node4:/etc/  
my.cnf                                            100% 4924     4.8KB/s   00:00
  
[root@node3 mysql]# scp /etc/init.d/mysqld node4:/etc/init.d/
  
mysqld                                            100%   12KB  11.6KB/s   00:00
  测试能否启动
  [root@node4 ~]# service mysqld start
  Starting MySQL...                                          [  OK  ]
  OK 说明成功启动
  好了,到这里mysql配置全部完成
  9)配置crmsh 资源管理
  在配置crmsh之前要先把drbd停掉
  关闭drbd并设置开机不启动
  关闭node3
[root@node3 ~]# service drbd stop  
Stopping all DRBD resources: .
  
[root@node3 ~]# chkconfig drbd off
  
[root@node3 ~]# chkconfig drbd --list
  
drbd               0:关闭    1:关闭    2:关闭    3:关闭    4:关闭    5:关闭    6:关闭
  关闭node4
[root@node4 ~]# service drbd stop  
Stopping all DRBD resources: .
  
[root@node4 ~]# chkconfig drbd off
  
[root@node4 ~]# chkconfig drbd --list
  
drbd               0:关闭    1:关闭    2:关闭    3:关闭    4:关闭    5:关闭    6:关闭
  禁用STONISH、忽略法定票数
[root@node3 ~]# crm  
crm(live)# configure
  
crm(live)configure# property stonith-enabled=false
  
crm(live)configure# property no-quorum-policy=ignore
  
crm(live)configure# verify
  
crm(live)configure# commit
  增加DRBD资源
[root@node3 ~]# crm  
crm(live)configure# primitive mysqldrbd ocf:linbit:drbd params drbd_resource=web op start timeout=240 op stop timeout=100 op monitor role=Master interval=20 timeout=30 op monitor role=Slave interval=30 timeout=30
  
crm(live)configure# ms ms_mysqldrbd mysqldrbd meta master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true
  增加文件系统资源
crm(live)configure# primitive mystore ocf:heartbeat:Filesystem params device=/dev/drbd0 directory=/mydata/data fstype=ext4 op start timeout=60 op stop timeout=60  
crm(live)configure# verify
  
crm(live)configure# colocation mystore_with_ms_mysqldrbd inf: mystore ms_mysqldrbd:Master  #mystor和mysqldrbd在一起
  
crm(live)configure# order mystore_after_ms_mysqldrbd mandatory: ms_mysqldrbd:promote mystore:start   #mystore要晚于mysqldrbd启动
  
crm(live)configure# verify
  增加mysql资源
crm(live)configure# primitive mysqld lsb:mysqld  
crm(live)configure# colocation mysqld_with_mystore inf: mysqld mystore #定义mysql和mysqlstore 在一起
  
crm(live)configure# verify
  增加VIP资源
crm(live)configure# primitive myip ocf:heartbeat:IPaddr params ip=172.16.16.8 op monitor interval=30s timeout=20s  
crm(live)configure# colocation myip_with_ms_mysqldrbd_master inf: myip ms_mysqldrbd:Master  #第一VIP和mysqldrbd在一起
  查看一下配置
crm(live)configure# show  
node node3 \
  
        attributes standby="on"
  
node node4
  
primitive myip ocf:heartbeat:IPaddr \
  
        params ip="172.16.16.8" \
  
        op monitor interval="30s" timeout="20s"
  
primitive mysqld lsb:mysqld
  
primitive mysqldrbd ocf:linbit:drbd \
  
        params drbd_resource="web" \
  
        op start timeout="240" interval="0" \
  
        op stop timeout="100" interval="0" \
  
        op monitor role="Master" interval="20" timeout="30" \
  
        op monitor role="Slave" interval="30" timeout="30"
  
primitive mystore ocf:heartbeat:Filesystem \
  
        params device="/dev/drbd0" directory="/mydata/data" fstype="ext4" \
  
        op start timeout="60" interval="0" \
  
        op stop timeout="60" interval="0"
  
ms ms_mysqldrbd mysqldrbd \
  
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true" target-role="Started"
  
colocation myip_with_ms_mysqldrbd inf: ms_mysqldrbd:Master myip
  
colocation mysqld_with_mystore inf: mysqld mystore
  
colocation mystore_with_ms_mysqldrbd inf: mystore ms_mysqldrbd:Master
  
order mysqld_after_mystore inf: mystore mysqld
  
order mystore_after_ms_mysqldrbd inf: ms_mysqldrbd:promote mystore:start
  
property $id="cib-bootstrap-options" \
  
        stonith-enabled="false" \
  
        no-quorum-policy="ignore" \
  
        dc-version="1.1.10-14.el6-368c726" \
  
        cluster-infrastructure="classic openais (with plugin)" \
  
        expected-quorum-votes="2" \
  
        last-lrm-refresh="1413090998"
  
rsc_defaults $id="rsc-options" \
  
        resource-stickiness="100"
  
  10)测试一下高可用mysql能否使用
  首先查看一下高可用集群的状态
crm(live)# status  
Last updated: Sun Oct 12 14:27:51 2014
  
Last change: Sun Oct 12 14:27:47 2014 via crm_attribute on node3
  
Stack: classic openais (with plugin)
  
Current DC: node3 - partition with quorum
  
Version: 1.1.10-14.el6-368c726
  
2 Nodes configured, 2 expected votes
  
5 Resources configured
  

  

  
Online: [ node3 node4 ]
  

  
Master/Slave Set: ms_mysqldrbd [mysqldrbd]
  
     Masters: [ node3 ]
  
     Slaves: [ node4 ]
  
mystore(ocf::heartbeat:Filesystem):Started node3
  
myip(ocf::heartbeat:IPaddr):Started node3
  看 现在node3和node4都在线 ,此时node3为主节点,资源都在node3节点上.看下node3是否已经启动了mysql
DSC0001.jpg

  可以看到mysql在node3节点上
  现在我们来模拟node3节点下线
[root@node3 ~]# crm  
crm(live)# node
  
crm(live)node# standby
  
crm(live)node#
  现在来查看下mysql高可用集群的状态
[root@node4 ~]# crm status  
Last updated: Sun Oct 12 14:39:38 2014
  
Last change: Sun Oct 12 14:39:22 2014 via crm_attribute on node3
  
Stack: classic openais (with plugin)
  
Current DC: node3 - partition with quorum
  
Version: 1.1.10-14.el6-368c726
  
2 Nodes configured, 2 expected votes
  
5 Resources configured
  
Node node3: standby
  
Online: [ node4 ]
  
Master/Slave Set: ms_mysqldrbd [mysqldrbd]
  
     Masters: [ node4 ]
  
     Stopped: [ node3 ]
  
mystore(ocf::heartbeat:Filesystem):Started node4
  
myip(ocf::heartbeat:IPaddr):Started node4
  可以看到node4成为了主节点,node3处于standby状态,资源都转移到了node4上面.
DSC0002.jpg

  可以看到mysql在node4节点上依然工作起来..
  11)测试一下能否写入数据
  给连接的IP地址授权
[root@node4 ~]# /usr/local/mysql/bin/mysql  
Welcome to the MariaDB monitor.  Commands end with ; or \g.
  
Your MariaDB connection id is 2
  
Server version: 5.5.36-MariaDB-log MariaDB Server
  
Copyright (c) 2000, 2014, Oracle, Monty Program Ab and others.
  
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
  
MariaDB [(none)]> grant all on *.* to root@"172.16.16.%" identified by "123456";
  
Query OK, 0 rows affected (0.12 sec)
  器其他主机上连接数据库测试
DSC0003.jpg

  可以看到在stu16(IP:172.16.16.1)主机上连接测试可以,查询数据,创建数据.
  status下面出现提示错误时可以先进入resource模式cleanup下相应的服务.如果想要在configure模式下edit.需要先停掉相应的服务,同样进入resource模式stop相应的服务,在进行cleanup.接着就可以编辑保存了.
  注意:
  KILL掉服务后,服务是不会自动重启的。因为节点没有故障,所以资源不会转移,默认情况下,pacemaker不会对任何资源进行监控。所以,即便是资源关掉了,只要节点没有故障,资源依然不会转移。要想达到资源转移的目的,得定义监控(monitor)。
  OK 我们的mysql高可以集群就写到这里.



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-606793-1-1.html 上篇帖子: RHEL6.9_Mysql5.6 for MHA 0.56 With VIP实现教程 下篇帖子: Mysql双向复制+KeepAlived:配置mysql的高可用
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表