设为首页 收藏本站
查看: 882|回复: 0

[经验分享] mysql集群之MMM简单搭建

[复制链接]
累计签到:2 天
连续签到:1 天
发表于 2015-10-22 08:55:25 | 显示全部楼层 |阅读模式
MMM配置环境
MMM-monitor 192.168.78.128 (M1/M128)
master1:192.168.78.

1设置hosts解析

三台都需要能彼此解析
追加hosts文件 /etc/hosts
192.168.78.128 M1

192.168.78.129 M2
192.168.78.130 slave1

2配置主从服务器账号
grant replication slave, replication client on *.* to 'repl'@'%' identified by 'repl';
grant process,super, replication client on *.* to 'mmm_agent'@'%' identified by '123456';
grant replication client on *.* to 'mmm_monitor'@'%' identified by '123456';

3安装MMM
三台上分别配置perl源
rpm -Uvh http://mirrors.ustc.edu.cn/fedora/epel/6/x86_64/epel-release-6-8.noarch.rpm
安装MMM(测试用的,所以是rpm包,不要用在生产环境)
yum -y install mysql-mmmm*
查看安装
rpm -qa|grep mysql-mmm
mmm,anget,monitor,tools

4配置MMM
cd /etc/mysql-mmm
修改mmm_common.conf同步到三台机器
vim mmm_common.conf

active_master_role      writer

<host default>
    cluster_interface       eth0
    pid_path                /var/run/mysql-mmm/mmm_agentd.pid
    bin_path                /usr/libexec/mysql-mmm/
    replication_user        repl
    replication_password    repl
    agent_user              mmm_agent
    agent_password          123456
</host>

<host M1>
    ip      192.168.78.128
    mode    master
    peer    M1
</host>

<host M2>
    ip      192.168.78.129
    mode    master
    peer    M2
</host>

<host slave1>
    ip      192.168.78.130
    mode    slave
    peer    slave1
</host>

<role writer>
    hosts   M1,M2
    ips     192.168.78.140
    mode    exclusive
</role>

<role reader>
    hosts   M1,M2,slave1
    ips     192.168.78.138, 192.168.78.139
    mode    balanced
</role>

for i in  M2 slave1;do scp /etc/mysql-mmm/mmm_common.conf $i:/etc/mysql-mmm/;done


分别修改mmm_agent.conf
vim mmm_agent.conf
include mmm_common.conf
# The 'this' variable refers to this server.  Proper operation requires

# that 'this' server (db1 by default), as well as all other servers, have the
# proper IP addresses set in mmm_common.conf.
this M1

配置mysql_mon.conf(三台上分别配置,但只能启动一台监控)
[iyunv@M128 mysql-mmm]# vim mmm_mon.conf
include mmm_common.conf

<monitor>
    ip                  127.0.0.1
    pid_path            /var/run/mysql-mmm/mmm_mond.pid
    bin_path            /usr/libexec/mysql-mmm
    status_path         /var/lib/mysql-mmm/mmm_mond.status
    ping_ips            192.168.78.128, 192.168.78.129, 192.168.78.130
    auto_set_online     10

    # The kill_host_bin does not exist by default, though the monitor will
    # throw a warning about it missing.  See the section 5.10 "Kill Host
    # Functionality" in the PDF documentation.
    #
    # kill_host_bin     /usr/libexec/mysql-mmm/monitor/kill_host
    #
</monitor>

<host default>
    monitor_user        mmm_monitor
    monitor_password    123456
</host>
debug 0


5启动MMM
三台均启动agent端
/etc/init.d/mysql-mmm-agent start
监控端启动
/etc/init.d/mysql-mmm-monitor start
正常启动后的进程如下:
agent端
[iyunv@M130 mysql-mmm]# ps -ef|grep mmm
root     15686     1  0 02:44 ?        00:00:00 mmm_agentd
root     15688 15686  0 02:44 ?        00:00:44 mmm_agentd
root     54389 12494  0 18:47 pts/0    00:00:00 grep mmm
monitor端
[iyunv@M129 ~]# ps -ef|grep mmm
root     27681     1  0 18:51 ?        00:00:00 mmm_mond
root     27682 27681  9 18:51 ?        00:00:01 mmm_mond
root     27712 27682  1 18:51 ?        00:00:00 perl /usr/libexec/mysql-mmm/monitor/checker ping_ip
root     27715 27682  2 18:51 ?        00:00:00 perl /usr/libexec/mysql-mmm/monitor/checker mysql
root     27717 27682  2 18:51 ?        00:00:00 perl /usr/libexec/mysql-mmm/monitor/checker ping
root     27719 27682  3 18:51 ?        00:00:00 perl /usr/libexec/mysql-mmm/monitor/checker rep_backlog
root     27721 27682  2 18:51 ?        00:00:00 perl /usr/libexec/mysql-mmm/monitor/checker rep_threads
root     27739 35397  0 18:51 pts/1    00:00:00 grep mmm
root     35239     1  0 02:44 ?        00:00:00 mmm_agentd
root     35241 35239  0 02:44 ?        00:00:50 mmm_agentd
[iyunv@M129 ~]#
6查看状态
[iyunv@M128 mysql-mmm]# mmm_control show
  M1(192.168.78.128) master/ONLINE. Roles: reader(192.168.78.138)
  M2(192.168.78.129) master/ONLINE. Roles: writer(192.168.78.140)
  slave1(192.168.78.130) slave/ONLINE. Roles: reader(192.168.78.139)
[iyunv@M128 mysql-mmm]# mmm_control checks all
M1      ping         [last change: 2015/10/20 18:51:21]  OK
M1      mysql        [last change: 2015/10/20 18:51:21]  OK
M1      rep_threads  [last change: 2015/10/20 18:51:21]  OK
M1      rep_backlog  [last change: 2015/10/20 18:51:21]  OK: Backlog is null
slave1  ping         [last change: 2015/10/20 18:51:21]  OK
slave1  mysql        [last change: 2015/10/20 18:51:21]  OK
slave1  rep_threads  [last change: 2015/10/20 18:51:21]  OK
slave1  rep_backlog  [last change: 2015/10/20 18:51:21]  OK: Backlog is null
M2      ping         [last change: 2015/10/20 18:51:21]  OK
M2      mysql        [last change: 2015/10/20 18:51:21]  OK
M2      rep_threads  [last change: 2015/10/20 18:51:21]  OK
M2      rep_backlog  [last change: 2015/10/20 18:51:21]  OK: Backlog is null

7删除RPM包安装的MMM
yum remove mysql-mmm*

8总结:
MMM集群的坑比较多,只做测试,不用在生产环境


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-129378-1-1.html 上篇帖子: 数据导数据工具xtrabackup之xtrabackup_binlog_pos_innodb和xtrabackup_binlog_info区别 下篇帖子: Amoeba-mysql主从+读写分离实战+测试 mysql
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表