设为首页 收藏本站
查看: 400|回复: 0

[经验分享] nfs 深度讲解及inotify

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-5-30 08:22:42 | 显示全部楼层 |阅读模式
目  录
第1章共享目录的挂载及参数mount1
1.1挂载nfs下共享的data目录... 1
1.2 查看挂载的目录... 2
1.3 mount 挂载的参数... 2
1.3.1 mount –o 参数对用的选项... 3
1.3.2 man mount后的-o参数中英文翻译对比... 3
1.4 Mount挂载性能优化参数选项... 4
第2章 NFS深度讲解... 5
2.1 NFS内核优化建议... 5
2.2 服务端nfs内核优化... 5
2.3 企业生产场景NFS共享存储优化小结... 6
2.4 NFS系统的优缺点说明... 6
2.4.1 优点... 6
2.4.2 局限:... 6
第3章 Exportfs命令说明... 7
3.1 Exportfs命令介绍... 7
3.2 Exportfs命令参数的使用方法... 7
第4章 Inotify+rsync实时同步... 7
4.1 下载inotify源码包... 8
4.2 inotify监控目录变化... 8
4.3 Rsync+inotify实时推送脚本... 8
4.4 inotify的优点... 8
4.5 inotify的缺点... 8
4.6 Sersync功能介绍... 8
第5章高并发数据实时同步方案小结... 9


1 共享目录的挂载及参数mount1.1 挂载nfs下共享的data目录[iyunv@web01 ~]# mount -t nfs 172.16.1.31:/data//mnt
1.2 查看挂载的目录[iyunv@web01 ~]# cat /proc/mounts
rootfs / rootfs rw 0 0
proc /proc proc rw,relatime 0 0
sysfs /sys sysfs rw,relatime 0 0
devtmpfs /dev devtmpfsrw,relatime,size=487092k,nr_inodes=121773,mode=755 0 0
devpts /dev/pts devptsrw,relatime,gid=5,mode=620,ptmxmode=000 0 0
tmpfs /dev/shm tmpfs rw,relatime 0 0
/dev/sda3 / ext4 rw,relatime,barrier=1,data=ordered0 0
/proc/bus/usb /proc/bus/usb usbfs rw,relatime 0 0
/dev/sda1 /boot ext4 rw,relatime,barrier=1,data=ordered0 0
none /proc/sys/fs/binfmt_misc binfmt_miscrw,relatime 0 0
sunrpc /var/lib/nfs/rpc_pipefs rpc_pipefsrw,relatime 0 0
172.16.1.31:/data/ /mnt nfs4rw,relatime,vers=4,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=172.16.1.8,minorversion=0,local_lock=none,addr=172.16.1.310 0
[iyunv@backup ~]# df -T
Filesystem        Type  1K-blocks    Used Available Use% Mounted on
/dev/sda3         ext4    9213440 1518344   7220424 18% /
tmpfs             tmpfs    502384      0    502384   0% /dev/shm
/dev/sda1         ext4     194241   35999   148002  20% /boot
172.16.1.31:/data/ nfs     9213440 1517568   7221248 18% /mnt
1.3 mount 挂载的参数
参数
参数功能
默认参数
fg
bg
当在客户端执行挂载时,可选择是前台(fg)还是后台(bg)执行。若在前台执行,则mount会持续尝试挂载,直到成功或挂载时间超时为止,若在后台执行,则mount会在后天执行多次进行mount,而不会影响前台的其他程序操作。如果网络联机不稳定,或是服务器常常需要开关机,建议使用bg比较妥当。
fg
soft
hard
当NFS Client 以soft挂载server时,若网络或server出现问题,造成client和server无法传输资料,client就会一直尝试,知道timeout后显示错误才停止。若使用soft mount 的话,可能会在timeout出现时造成资料丢失,故一般不建议使用。
若用hart模式挂载硬盘时,刚好和soft相反,此时client会一直尝试连接到server,若server有回应就继续刚才的动作,若没有回应NFS client 会一直尝试,此时无法umount或kill,所以常常会配合intr使用,这是默认值。
Hard
intr
当使用hard瓜子啊的资源timeout后明若有指定intr参数,可以在timeout后把它中断掉,这避免出现问题时系统整个被NFS锁死,建议使用intr

rsize
读出(rsize)与写入(wsize)的区块的大小(block size0,这个设置可以影响客户端与服务端传输数据的缓冲存储量,一般来说,如果在局域网lan,并且客户端与服务器端都具有足够的内存,这个值设置大一点,比如65535(bytes),提升缓冲区块可提升NFS文件系统的传输能力。但设置的值不要太大,最好网络能够承受的最大的值为限。
Centos5的rsize,wsize默认为1024
Centos6的rsize,wsize默认为132072
Proto=udp
使用UDP协定来传输资料,在LAN中会有比较好的性能。若要跨越Internet的话,使用proto=tcp多传输的数据会有比较好的纠错能力
proto=tcp
可通过man nfs 查看上述参数信息,如果追求极致,可以用如下参数挂载:
mount -t nfs -ofg,hard,intr,rsize=131072,wsize=131072 172.16.1.31:/data/ /mnt
[iyunv@backup mnt]# mount -t nfs -ofg,hard,intr,rsize=131072,wsize=131072 172.16.1.31:/data/ /mnt
[iyunv@backup mnt]# grep nfs /proc/mounts
sunrpc /var/lib/nfs/rpc_pipefs rpc_pipefsrw,relatime 0 0
172.16.1.31:/data/ /mnt nfs4rw,relatime,vers=4,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,port=0,timeo=
但是如果考虑以简单、易用为原则,直接选择默认值就可以了
mount -t nfs 172.16.1.31:/data/ /mnt
1.3.1 mount –o参数对用的选项
参数
参数意义
系统默认值
Suid
Nosuid
当挂载的文件系统上有任何SUID的程序时,只要使用nosuid就能够取消默认设置SUID的功能
Suid
Rw
Ro
可以指定文件系统是只读ro或可写rw
rw
Dev
Nodev
是否可以保留装置文件的特殊功能?一般来说只有/dev才会有特殊的装置,因此可以选择nodev
dev
Exec
是否具有执行文件的权限?如果想要挂载的仅是普通资源数据区(例如:图片、附件),那么可以选择noexec
exec
User
Nouser
是否允许用户进行文件的挂载与卸载功能?如果要保护文件系统,最好不要提供用户进行挂载与卸载
nouser
1.3.2 manmount后的-o参数中英文翻译对比下面mount命令的-o选项后面可以接的参数,注意,有些选项只有出现在/etc//fstab里才会有效,下面这些选项可以应用在绝大多数文件系统上,但是sync仅适合ext2、ext3、fat、vfat、ufs等文件系统。
  • async :涉及文件系统I/O的操作都是异步处理,即不会同步写到磁盘,此参数会提高性能,但会降低数据安全。一般情况,生产环境不推荐使用,除非对性能要求很高,对数据可靠性不要求的场合。
  • sync:该参数和async相反,有I/O操作时,都会同步处理I/O,即把数据同步写入硬盘,此参数会牺牲一点I/O性能,但是换来的是掉电后数据的安全性。
  • atime:在每一次数据访问时,会同步更新访问文件的inode时间戳,是默认选项,在高并发的情况下,建议通过明确加上noatime,来取消这个默认项,已达到提升I/O性能,优化I/O的目的。
  • ro:以只读的方式挂载一个文件系统。
  • rw:可以写的方式挂载一个文件系统。*
  • auto:能够被自动挂载通过-a选项。
  • noauto:不会自动挂载文件系统。
  • default:这是fstab里的默认值,包括rw、suid、dev、exec、auto、nouser、and async,默认情况大部分都是默认值。
  • exec:允许文件系统执行二进制文件,取消这个参数,可以提升系统安全
  • noexec:在挂载的文件系统中不允许直接执行任何二进制的程序,注意,仅对二进制程序有效,即使设置了noexec、shell、php程序还是可以执行的
  • noatime:访问文件时不更新文件的inode时间戳,高并发环境下,推荐显示应用该选项,可以选项,可以提高系统I/O性能。*

在企业工作场景,一般来说,NFS服务器共享的只有普通的静态数据(图片、附件、视频)不需要执行suid、exec等权限,挂载的这个文件系统只能作为数据存取之用,无法执行程序,对于客户端来讲增加了安全性,例如:很多木马篡改站点文件都是上传的程序到存储目录,然后执行的。
因此在挂载的时候,用下面的命令很有必要:
[iyunv@backup mnt]# mount -t nfs-o nosuid,noexec,nodev,rw 172.16.1.31:/data/ /mnt
通过mount –o指定挂载参数和在/etc/fstab里指定挂载的效果一样的。
网络文件系统和本地的文件系统效果也是一样的。
1.4 Mount挂载性能优化参数选项下面介绍几个在企业上产环境下,NFS性能优挂载的例子。
1)禁止更新目录及文件时间戳挂载,命令如下:
mount -t nfs -o nosuid,noexec,nodev,rw172.16.1.31:/data/ /mnt
2)安全加优化的挂载方式如下:
Mount –t nfs –o nouid,noexec,nodev,noatime,intr,rsize=131072,wsize=131072172.16.1.31:/data /mnt
3)默认的挂载方式如下:
Mount –t nfs 172.16.1.31:/data /mnt
如果是本地文件系统,使用如下的命令
mount /dev/sdb1 /mnt –odefaults,async,noatime,data=writeback,barrier=0
本地文件系统挂载时,如果加nodiratime会报错。

以下是NFS网络文件系统优化的参数建议。
在centos6.6 x86_64默认的挂载参数性能还是不错的。
Mount –t nfs 172.16.1.31:/data /mnt
注意:非性能的参数越多,熟读可能会越慢。

2 NFS深度讲解2.1 NFS内核优化建议下面是优化选项的说明。
  • /proc/sys/net/core/rmem_default:该文件指定了接收套接字缓冲大小的默认值(以字节为单位),默认设置:124928.
  • /proc/sys/net/core/rmem_max;该文件指定了接收套接字缓冲区大小的默认值(以字节为单位),默认设置:124928.
  • /proc/sys/net/core/wmen_default:该文件指定了发送套餐字缓冲区大小默认值(以字节为单位),默认设置:124928.
  • /proc/sys/net/core/wmen_max;该文件指定了发送套接字缓冲区大小的最大值(以字节为单位),默认设置:124928.
  • 内核优化
[iyunv@nfs01 ~]# cat>>/etc/sysctl.conf<<EOF
> net.core.wmem_default = 8388608
> net.core.rmem_default = 8388608
> net.core.rmem_max = 16777216
> net.core.wmem_max = 16777216
> EOF
[iyunv@nfs01 ~]# sysctl -p
net.ipv4.ip_forward = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
2.3 企业生产场景NFS共享存储优化小结
  • 硬件:sas/ssd硬盘,买多块,硬件raid5/raid10。网卡吞吐量要大,至少千兆(多块bond)。
  • NFS服务器端配置:/data10.0.0./24(rw,sync,all_squash,anounuid=65534,anongid=65534)
  • NFS 客户端挂载优化配置命令;

Mount –t nfs –onoauid,noexec,nodev,notime,nodiratime,rsize=131072,wsize=131072 10.0.0.7:/data/ /mnt 兼顾安全性能
  • 对NFS服务的所有服务器内核优化时,执行如下命令:

[iyunv@nfs01 ~]# cat>>/etc/sysctl.conf<<EOF
> net.core.wmem_default = 8388608
> net.core.rmem_default = 8388608
> net.core.rmem_max = 16777216
> net.core.wmem_max = 16777216
> EOF
执行sysctl –p 生效
  • 如果卸载的时候提醒“umount: /mnt :device is busy”,需要退出挂载目录在进行卸载,如果是NFS Server 宕机了,则需要强制卸载,可执行umount –lf /mnt。
  • 大型网站NFS网络文件系统的替代软件分布式文件系统Moosefs(mfs),GluseterFS,fastDFS.
  • 系统的优缺点说明
NFS服务可以上不同的客户端挂载使用共同一个目录,也就是将其作为共享存储使用,这样可以保证不同节点客户的数据的一致性,在集群架构环境中进程会用到,如果是Windows和linux混合环境的集群系统,可以用samba来实现。
2.4.1 优点
  • 简单,容易上手,容易掌握。
  • NFS 文件系统内数据是在文件系统上的,即数据是能看见的。
  • 部署快捷,维护简单方便,且可控,满足需求就是最好的。
  • 可靠,从软件层面上看,数据可靠性高,经久耐用,数据在文件系统上的。
  • 服务非常稳定。
  • 存在单点故障,如果NFS Server 宕机了,所有客户端都不能访问共享目录。这个在后期的课程中会痛过负载均衡及高可用方案弥补。
  • 在大数据高并发的场合,NFS效率、性能有限(2千万/日以下的网站不是瓶颈,除非网站架构设计太差)。
  • 客户端认证是基于IP和主机名的,权限要根据ID识别,安全性一盘(用于内网则问题不大)。
  • NFS数据是明文的,NFS本身不对数据完整性作验证。
  • 多台客户机挂载一个NFS服务时,连接管理维护系统麻烦(耦合度高),尤其NFS服务端出问题后,所有NFS客户端都处于挂掉状态(测试换件可使用autofs自动挂载解决,正式环境可修复NFS服务或强制卸载)。
  • 涉及了同步(实时等待)和异步(解耦)的概念,NFS服务端和客户端相对来说就是耦合度有些高。网站程序也是一样,尽量不要耦合度太高,系统及程序结构师的重要职责就是为程序及架构解耦,让网站的扩展性更好。

3. Exportfs命令说明3.1 Exportfs命令介绍exportfs –rv 命令相当于/etc/init.d/nfs reload, 该参数的命令用于使新加载的配置生效,除此之外,通过exportfs 命令,我们还可以管理当前的NFS共享的文件系统目录列表。
3.2 Exportfs命令参数的使用方法1)重新加载配置使修改生效,实现这个功能的命令为:exprotfs –rv,该命令相当于/etc/init.d/nfs reload.
2)管理当前NFS共享的问津系统目录列表。
下面的示例将不通过/etc/exports文件,而是通过exportfs命令来共享NFS存储目录,具体命令如下:
Exportfs –o rw ,sync 10.0.0.7:/data
Showmount –e localhost
/mnt 10.0.0.7
/data 10.0.0.0/24 #《==这就是上诉exportfs命令共享/data目录的结果
第4章 Inotify+rsync实时同步 QQ截图20160530011005.jpg
4.1 下载inotify源码包修改yum源并下载
wget -O /etc/yum.repos.d/epel.repohttp://mirrors.aliyun.com/repo/epel-6.repo
yum –yinstall inotify-tools
查看包组
[iyunv@oldgirl ~]# rpm -qa inotify-tools
inotify-tools-3.14-1.el6.x86_64
4.2 inotify监控目录变化[iyunv@oldgirl ~]# inotifywait -mrq --format"%w%f" -e create /data              
/data/oldboy
[iyunv@oldgirl ~]# inotifywait -mrq --timefmt'%d%m%y %F:%H:%M:%S' --format '%T %w%f' -e create /data/
050516 2016-05-05:19:37:34 /data/12
4.3 Rsync+inotify实时推送脚本[iyunv@nfs01 scripts]# cat inotify1.sh      
#!/bin/bash
Path=/backup
Ip=172.16.1.41
/usr/bin/inotifywait -mrq  --format '%w%f' -e close_write,delete $Path \
|while read file
  do
  if  [ -f $file ];then
   rsync -az$file --delete rsync_backup@$Ip::nfsbackup --password-file=/etc/rsync.password
  else
    cd $Path&&\
   rsync -az./ --delete rsync_backup@$Ip::nfsbackup --password-file=/etc/rsync.password
  fi
done
4.4 inotify的优点1)监控文件系统时间变化,通过同步工具实现实时数据同步
4.5 inotify的缺点1)并发如果大于200 个文件(10-100K),同步就会有延迟。
2)每一次都是全部推送一次,但确实是增量的也可以只有同步的辩护,不变化的不理
3)监控到时间后,调用rsync同步时单进程的(加&并发),sersync多进程同步
4.6 Sersync功能介绍1)支持配置文件管理
2)真正的守护进程socket
3)可以对失败的文件定时重传(定时任务功能)。
4)第三方的HTTP接口(例如更新cdn缓存)。
5)默认多线程rsync同步
第5章 高并发数据实时同步方案小结1、inotify(sersync)+rsync,是文件级别的
2、drbd文件系统级别,文件系统级别面积与block块同步,缺点;北街店数据不可用
3、第三方软件的同步功能:MySQL同步,oracle,mongodb。
4、程序双写、直接写两台服务器
5、利用产品服务逻辑解决(读写分离,备读不到,读主)
6、NFS集群(双写主存储,备存储inotify(sersync)+rsync,备没有找到主解决延迟问题


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-223613-1-1.html 上篇帖子: 关于ubuntu下无线网卡经常连不上网络的问题 下篇帖子: Linux中ctags、make以及进度条小程序(\r的应用)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表