设为首页 收藏本站
查看: 1736|回复: 1

[经验分享] zabbix企业应用之优化web事件(events)打开速度

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-6-20 16:01:29 | 显示全部楼层 |阅读模式
随着监控主机数量增大,trigger与events也不断增加,导致在web里查看事件的速度变的非常慢,通过events表发现最大的events已经13亿了,而且默认事件打开是最近7天里所有数据,所有肯定很忙,目前经过优化后提供了2倍打开速度。
优化前,使用firebug打开测试
wKiom1OjpTfB13_PAAXvy7XyLwA461.jpg 可以看到打开速度为29.07秒
下图为优化后的,通过查看数据库发现events事件表有13亿条数据,所以仅保留最近一个月数据,其他数据删除,优化后打开事件的使用时间如下图,打开时间为10.61秒
wKioL1OjomaQysKFAATmCdCOz3I158.jpg
所以本次对于报警事件的优化完成,优化前打开时间为29.07秒,优化后打开时间为10.61秒,提升了2倍速度。
下面是如何优化的步骤:
1、在zabbix数据库服务器里登陆数据库,使用下面命令
1
2
use zabbix;
delete  from  events where  clock <= UNIX_TIMESTAMP('2014-06-01');



这样就能删除2014年6月1日前的events数据了,为了能自动删除数据,可以做个脚本+crontab
2、shell脚本
1
2
3
4
5
6
7
8
9
10
11
12
#!/bin/bash
#this script name is delete_events.sh
host="localhost"
socket="/data/perconadata5.6/mysql.sock"
user="zabbix"
pass="zabbix"
port="3306"
time=`date -d "last-month" +%Y-%m-01`
mysql -u $user -p$pass -h$host  -S $socket -P $port <<EOF
use zabbix;
delete  from  events where  clock <= UNIX_TIMESTAMP('${time}') limit 40000;
EOF



这样是在删除上个月的数据,保留最近1个月的,并且每次删除4w条
3、crontab
1
* * * * * /bin/bash /usr/local/zabbix/bin/delete_events.sh



下面是使用此脚本删除后,数据events表的情况
wKiom1OjqjrzVp0PAAJhru4ZuWQ756.jpg
最大eventid为13亿,现在保留56w数据。
希望此文能对大家有益。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-20862-1-1.html 上篇帖子: zabbix架构 下篇帖子: zabbix发送报警的几种方法 events

尚未签到

发表于 2014-7-8 00:57:00 | 显示全部楼层
请问楼主,我清理events表之后,我的队列10min之上的数据就降下来了。是不是可以这么理解,events表是队列里面的数据插入的表。每次server重启队列都会积累很多数据,导致新的数据没办法进入队列记录。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表