设为首页 收藏本站
查看: 570|回复: 0

[经验分享] 查看linux系统io,内存工具

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-6-6 14:07:06 | 显示全部楼层 |阅读模式
一,查看磁盘io
iostat命令
# iostat -d -x -k 1
输出详解
rrqm/s:   每秒进行 merge 的读操作数目.即 delta(rmerge)/s
wrqm/s:  每秒进行 merge 的写操作数目.即 delta(wmerge)/s
r/s:         每秒完成的读 I/O 设备次数.即 delta(rio)/s
w/s:        每秒完成的写 I/O 设备次数.即 delta(wio)/s
rsec/s:     每秒读扇区数.即 delta(rsect)/s
wsec/s:    每秒写扇区数.即 delta(wsect)/s
rkB/s:      每秒读K字节数.是 rsect/s 的一半,因为每扇区大小为512字节.(需要计算)
wkB/s:     每秒写K字节数.是 wsect/s 的一半.(需要计算)
avgrq-sz:  平均每次设备I/O操作的数据大小 (扇区).delta(rsect+wsect)/delta(rio+wio)
avgqu-sz: 平均I/O队列长度.即 delta(aveq)/s/1000 (因为aveq的单位为毫秒).
await:      平均每次设备I/O操作的等待时间 (毫秒).即 delta(ruse+wuse)/delta(rio+wio)
svctm:     平均每次设备I/O操作的服务时间 (毫秒).即 delta(use)/delta(rio+wio)
%util:      每秒io操作占用的cpu使用时间。即一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的,计算方法:(r/s+w/s)*(svctm/1000)
问题判断:
1,如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈.
2,idle小于70%,IO压力就较大了,一般读取速度有较多的wait。这时可以结合vmstat 查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)
3,await 的参数也要多和 svctm 来参考.差的过高就一定有 IO 的问题.
4,avgqu-sz 也是个做 IO 调优时需要注意的地方,这个就是直接每次操作的数据的大小,如果次数多,但数据拿的小的话,其实 IO 也会很小.如果数据拿的大,才IO 的数据会高.也可以通过 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s.也就是讲,读定速度是这个来决定的.


二,查看进程io占用
iotop根据Linux内核(需要2.6.20及以上)来监测I/O,并且能显示当前进程/线程的I/O使用率。
# iotop
QQ截图20140606140715.png
输出如上截图所示,输出解释:
TID:线程或进程id
PRIO:线程io优先级
USER:线程所属用户
DISK READ:线程从磁盘读数据的速度
DISK WRITE:线程写磁盘的速度
SWAPIN:进程使用的数据由swap换入到内存的时间占进程io总时间的百分比
IO:进程等待进行io操作的时间占进程io总时间的百分比




三,查看网络io占用
1,使用nload命令
下载地址:http://sourceforge.net/projects/nload/
# nload eth0
监控eth0网卡的总流量,非常直观的现实
2,使用iptraf命令
下载地址:http://iptraf.seul.org/
# iptraf
会进入一个图形界面,设置要抓取的网卡之后,能够更为详细的现实ip+port之间的数据报通信,根据通信数据报的接受速率和大小,可以判断哪个应用程序占用网卡io较大




四,查看系统内存占用
vmstat命令
# vmstat 1
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
0  0 679740 4136152 217884 2813816    0    0     0    11    0    0  0  0 100  0  0
0  0 679740 4136160 217884 2813816    0    0     0     0   85   72  0  0 100  0  0
输出解释:
r: 表示运行和等待cpu时间片的进程数,如果长期大于CPU的数目,说明cpu不足,需要增加cpu。
b: 表示在等待资源的进程数,比如正在等待I/O、或者内存交换等。
swpd: 表示swap内存的使用量,单位是KB
free:表示系统的空闲内存
buff:buff空间的使用大小。buffers是用来缓冲块设备做的,它只记录文件系统的元数据(metadata)以及 tracking in-flight pages等。
cache:cache空间的使用大小。用来给系统或程序打开的文件内容做缓冲。
si:即swap in操作,告诉我们每秒有多大内存被从磁盘swap分区中换入真实内存中。
so:即swap out操作,告诉我们每秒有多大内存被从真实内存换出到磁盘swap分区中。(注:一旦,swap in和swap out比较频繁,就非常影响程序的性能)
bi:每秒从块设备接收的块数量,这里的块设备是指系统上所有的磁盘和其他块设备,默认块大小是1024byte
bo:每秒写入块设备的块数量
in:列显示了系统每秒被中断的数量,包括之间中断。如果中断比较多,可能会导致cpu繁忙。
cs:列显示了系统为了处理所以任务而上下文切换的数量。例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的数目,例如在apache和nginx这种web服务器中,我们一般做性能测试时会进行几千并发甚至几万并发的测试,选择web服务器的进程可以由进程或者线程的峰值一直下调,压测,直到cs到一个比较小的值,这个进程和线程数就是比较合适的值了。系统调用也是,每次调用系统函数,我们的代码就会进入内核空间,导致上下文切换,这个是很耗资源,也要尽量避免频繁调用系统函数。上下文切换次数过多表示你的CPU大部分浪费在上下文切换,导致CPU干正经事的时间少了,CPU没有充分利用,是不可取的。
us:cpu在用户态消耗的时间
sy:cpu在内核态消耗的时间,如果太高,表示系统调用时间长,例如是IO操作频繁。
id:cpu处于空闲的时间
wa:cpu等待IO操作完成的时间。如果,wait时间较长,有可能是等待cpu处理的io操作较多。
st:Time stolen from a virtual machine.(这个值应该只有在虚拟机里才有意义,表示被物理机给窃取走的时间,不太明白)


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-20334-1-1.html 上篇帖子: yum 反查库文件在哪个安装包中 下篇帖子: LVM逻辑卷管理 linux
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表