jmton 发表于 2019-1-7 10:39:28

基于heartbeat v2 crm实现基于nfs的mysql高可用集群

  前言

  因heartbeat v1内置的资源管理器haresource功能比较简单,且不支持图形化管理,所以heartbeat v2不再支持haresource,转而使用更加强大的资源管理器crm进行集群管理。本文将讲解如何基于heartbeat v2 crm实现基于nfs的mysql高可用集群。
  高可用实现

  实验拓扑
  http://s3.运维网.com/wyfs02/M02/6E/24/wKioL1V1L_aDqkZNAADsDHkrZ1c800.jpg
  实验环境

  node1:172.16.10.123 mariadb-5.5.36 CentOS6.6
  node2:172.16.10.124 mariadb-5.5.36 CentOS6.6
  NFS:172.16.10.125 CentOS6.6
  Windows环境需安装Xmanager Enterprise 5
  配置过程
  NFS服务器配置
  http://s3.运维网.com/wyfs02/M00/6E/2A/wKiom1V1O-WADF1NAAFAEZxNxcA723.jpg
# vim /etc/exports
/mydata         172.16.0.0/16(rw,no_root_squash)
# service nfs start  安装mysql

#在node1和node2上分别进行如下操作  http://s3.运维网.com/wyfs02/M01/6E/2A/wKioL1V1kKWiN2E2AAHs31J5aCo256.jpg
# vim /etc/mysql/my.cnf
datadir = /mydata/data
log-bin=/mydata/binlogs/master-binhttp://s3.运维网.com/wyfs02/M00/6E/2B/wKiom1V1SHnyR6k0AAB_wYSMdOE833.jpg
# scripts/mysql_install_db --user=mysql --datadir=/mydata/data/
#注意:初始化操作只在一个节点执行即可  启动服务测试一下

  http://s3.运维网.com/wyfs02/M01/6E/2B/wKiom1V1Sw-TBsOGAAJzEUSDFo0522.jpg
  同样node2上执行以上操作后也启动测试

  http://s3.运维网.com/wyfs02/M01/6E/2B/wKiom1V1TnLAC5YYAAIuOGN_QCs515.jpg
  测试完成即可卸载共享目录
# umount /mydata/
#在两个节点分别执行  安全起见,此时可将nfs的no_root_squash选项去掉
# vim /etc/exports
/mydata         172.16.0.0/16(rw)
# exportfs -arv
exporting 172.16.0.0/16:/mydata  heartbeat配置

  时间同步
  ntpdate
  节点解析通信

# vim /etc/hosts
172.16.10.123   node1.scholar.com node1
172.16.10.124   node2.scholar.com node2
# vim /etc/sysconfig/network
HOSTNAME=node1.scholar.com
# uname -n
node1.scholar.com
#两个节点都需如上操作  ssh密钥配置
# ssh-keygen -t rsa -P ''
# ssh-copy-id -i .ssh/id_rsa.pub root@node2
# ssh-keygen -t rsa -P ''
# ssh-copy-id -i .ssh/id_rsa.pub root@node1
# date; ssh node2 'date' #测试
Mon Jun8 16:33:36 CST 2015
Mon Jun8 16:33:36 CST 2015  安装所需软件包
#解决依赖关系
# yum install perl-TimeDate net-snmp-libs libnet PyXML -y #需epel源支持
# cd heartbeat2/
# ls
heartbeat-2.1.4-12.el6.x86_64.rpm             heartbeat-pils-2.1.4-12.el6.x86_64.rpm
heartbeat-gui-2.1.4-12.el6.x86_64.rpm         heartbeat-stonith-2.1.4-12.el6.x86_64.rpm
heartbeat-ldirectord-2.1.4-12.el6.x86_64.rpm
# rpm -ivh heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-
12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm heartbeat-gui-2.1.4-12.el6.x8
6_64.rpm
#两个节点都执行以上操作  准备配置文件

# cp /usr/share/doc/heartbeat-2.1.4/{ha.cf,authkeys} /etc/ha.d
# chmod 600 /etc/ha.d/authkeys  配置算法密钥
# openssl rand -hex 8
4d8fd6cb49d2047b
# vim /etc/ha.d/authkeys
auth 2
2 sha1 4d8fd6cb49d2047b  配置主配置文件
#配置文件如下
# grep -v "#" /etc/ha.d/ha.cf |grep -v "^$"
logfile /var/log/ha-log#日志存放位置
keepalive 2            #指定心跳使用间隔时间
deadtime 30            #指定备用节点接管主节点服务资源超时时间
warntime 10            #指定心跳延迟的时间
initdead 120             #解决网络启动延时
udpport 694            #设置广播通信端口
mcast eth0 225.0.25.1 694 1 0 #定义广播地址
auto_failback on            #定义当主节点恢复后,是否将服务自动切回
node    node1.scholar.com   #主节点
node    node2.scholar.com   #备用节点
ping 172.16.0.1               #仲裁设备
crm on                        #启用crm  将配置文件传给备用节点
  http://s3.运维网.com/wyfs02/M00/6E/2C/wKiom1V1WKXh1UIUAABne1Pes18513.jpg
  启用crm图形界面时需要登录密码,在安装heartbeat-gui时会自动创建一个名为hacluster的用户,在任一节点上设置hacluster的密码即可
  http://s3.运维网.com/wyfs02/M00/6E/2C/wKiom1V1Wy6yCnVnAACzQFNneBE231.jpg
  启动heartbeat

  http://s3.运维网.com/wyfs02/M01/6E/28/wKioL1V1XYGAScK4AADSFatJORI560.jpg
  查看集群状态
# crm_mon  http://s3.运维网.com/wyfs02/M01/6E/2C/wKiom1V1XX-TdVo8AAENMShdmFE355.jpg
  启动gui界面

# hb_gui &  http://s3.运维网.com/wyfs02/M02/6E/2D/wKiom1V1Y4WwUKvpAAFOHERTixw350.jpg
http://s3.运维网.com/wyfs02/M00/6E/28/wKioL1V1ZVSQaDMvAAIIwD7GZS4411.jpg
Node:节点列表
Resources:资源列表
Constraints:限制约束
Locations:位置约束,资源对某节点运行的倾向性
Orders:顺序约束,属于同一服务的多个资源运行在同一节点时,其启动及关闭的次序约束
Colocations:排列约束,定义资源彼此间的倾向性(是否在一起)资源类型:
primitive, native: 主资源,其仅能运行某一节点
group: 组资源,可用于实现限制多个资源运行于同一节点及对此些资源统一进行管理
clone: 克隆资源,一个资源可以运行于多个节点
       应该指定:最大克隆的份数,每个节点最多可以运行的克隆
master/slave: 主从资源,特殊的克隆资源  mysql的高可用需要3个资源:ip,mysqld,nfs,这3个资源都要运行在一个节点上,而且mysqld要在nfs启动之后出能启动,ip地址和mysqld服务之间没有先后关系,服务准备好后再启动ip也是可以的。高可用的httpd服务需要先启动ip,因为服务启动的时候明确需要ip地址的资源,这两类高可用资源之间是不同的。
  添加资源

  首先定义一个组
  

  http://s3.运维网.com/wyfs02/M02/6E/2D/wKiom1V1bZujCUueAAGynvtboic646.jpg
http://s3.运维网.com/wyfs02/M01/6E/29/wKioL1V1b1ODPpjDAAHQ1Mjb6DE848.jpg
  添加第一个资源
  http://s3.运维网.com/wyfs02/M02/6E/29/wKioL1V1b3bQY5cMAALtLFh29cc492.jpg
  添加第二个资源
  http://s3.运维网.com/wyfs02/M00/6E/29/wKioL1V1b-zANmPVAAI2z7u3rqE035.jpg
  http://s3.运维网.com/wyfs02/M01/6E/2E/wKiom1V1hOHBdGa5AAJ4vpIzdeQ237.jpg
  添加第三个资源

  http://s3.运维网.com/wyfs02/M02/6E/2D/wKiom1V1b_qglm2sAAJyIU53JcM615.jpg
  添加资源约束

  nfs要和mysqld在一个节点

  http://s3.运维网.com/wyfs02/M02/6E/29/wKioL1V1eH6AjPnBAAHb-nC_lm8444.jpg
  http://s3.运维网.com/wyfs02/M02/6E/2D/wKiom1V1du6BVmS8AAKnGvqL2qg923.jpg
  ip要和mysqld在一个节点
  http://s3.运维网.com/wyfs02/M00/6E/29/wKioL1V1eTCQN1n0AALAN6sHi-8250.jpg
  定义排列约束后这3个资源会同时运行在同一个节点上,需要注意的是mysqld服务要在nfs挂载之后启动,所以需要定义资源顺序约束
  http://s3.运维网.com/wyfs02/M01/6E/2D/wKiom1V1eNSxvC19AAG8Lib86Kg447.jpg
  http://s3.运维网.com/wyfs02/M02/6E/2B/wKioL1V1mDizk1lZAALFp-lc3F8043.jpg
  定义好顺序约束之后还可定义位置约束,可定义更倾向运行在哪个节点

  http://s3.运维网.com/wyfs02/M02/6E/29/wKioL1V1fH6A8ZioAAG62V9wHFc905.jpg
  http://s3.运维网.com/wyfs02/M02/6E/2D/wKiom1V1e__yS98VAAHKmG9o-4w968.jpg
  添加表达式及对该节点的倾向性

  http://s3.运维网.com/wyfs02/M01/6E/2B/wKioL1V1mi3T4uYNAALdBN1LYUA380.jpg
  启动所有资源

  http://s3.运维网.com/wyfs02/M02/6E/2F/wKiom1V1luCxmUgxAAJl4tjwL9M547.jpg
http://s3.运维网.com/wyfs02/M01/6E/30/wKiom1V1tL3itmzlAALGi3K0kmo211.jpg
  因为倾向于node1,所以资源运行于node1上,我们在node1授权一个用户测试

  http://s3.运维网.com/wyfs02/M00/6E/30/wKiom1V1tsWwvfmrAAHCZBGGn9k585.jpg
  在其他客户端测试
  http://s3.运维网.com/wyfs02/M02/6E/2C/wKioL1V1uf6Ce9ffAAJNt6C9nGU586.jpg
  此时模拟node1挂掉了,将node1设置为standby模式
  http://s3.运维网.com/wyfs02/M02/6E/30/wKiom1V1uQLBIxTNAAJyzE20EG4392.jpg
  再次连接数据库测试
  http://s3.运维网.com/wyfs02/M01/6E/2C/wKioL1V1v6mD_ipsAAIT-huyU1Y598.jpg
  数据没有受到丝毫影响,再次将node1上线,资源会再次回到node1,这里就不再演示了,至此,基于heartbeat v2 crm实现基于nfs的mysql高可用集群完成
  The end
  本次实验就进行到这里了,实验过程出现问题可以留言交流,后文将会提供另一种高可用方案:mysql + drbd + corosync,有兴趣可以继续关注。以上仅为个人学习整理,如有错漏,大神勿喷~~~
  



页: [1]
查看完整版本: 基于heartbeat v2 crm实现基于nfs的mysql高可用集群