奇忠诚 发表于 2019-2-1 09:32:21

分布式存储

第1章 介绍
写在前面,自己的理解。
对比nfs文件共享系统,其目的都是一样的。nfs的运行过程是客户端先向服务端的rpc服务请求nfs的端口号,然后客户端再根据端口号找到对应的nfs服务,进行读写。
而mfs将nfs服务端的结构再进行细分,mfs的主服务端(master server)仅仅充当一个类似rpcbind的作用,而真正的数据存放在别的主机上(chunk server),客户端向mfs主服务端请求存储位置,主服务端回复客户端数据存放的位置,客户端根据返回的位置寻找对应主机进行读写。
另mfs自带高可用,它还有一个元数据备份服务器(metalogger Server),当主服务端(master server)产生问题时,它可以暂时顶替。
1.1介绍
  MooseFS是一个具备冗余容错功能的分布式网络文件系统,它将数据分别存放在多个物理服务器或单独磁盘或分区上,确保一份数据有多个备份副本。对于访问的客户端或者用户来说,整个分布式网络文件系统集群看起来就像一个资源一样。从其对文件操作的情况看,MooseFS就相当于一个类UNIX文件系统:
  1、mfs是一个分层的目录树结构
  2、存储支持POSIX标准的文件属性(权限,最后访问和修改时间)
  3、支持特殊的文件,如:块设备,字符设备,管道和套接字,链接文件(符号链接和硬链接)
  4、支持基于IP地址和密码的方式访问文件系统
1.2特性
  1、高可靠性,每一份数据可以设置多个副本(多份数据),并可以存储在不同的主机上
  2、高可扩展性,可以很轻松的通过增加主机磁盘容量或增加主机数量来动态扩展整个文件系统的存储量
  3、高可容错性,我们可以通过对mfs进行系统设置,实现当数据文件被删除后的一段时间内,依然存放于主机的回收站中,以备误删恢复数据
  4、高数据一致性,即便文件被写入/访问时,我们依然可以完成对文件的一致性快照
  
1.3优缺点
  优点:
  1、由于MFS是基于GPL发布的,因此完全免费,并且开发和社区都很活跃,资料也非常丰富
  2、轻量、易部署、易配置、易维护
  3、通用文件系统,不需要修改上层应用就可以使用(那些需要专门 API 的DFS确实有点麻烦)
       4、扩容成本低、支持在线扩容,不影响业务,体系架构可伸缩性极强(官方的case可以扩到70台了!)
       5、体系架构高可用,所有组件无单点故障
       6、文件对象高可用,可设置任意的文件冗余程度(提供比 Raid 10 更高的冗余级别)
  7、提供系统负载,将数据读写分配到所有的服务器上,加速读写性能
  8、提供诸多高级特性,比如类似Windows的回收站功能、类似JAVA语言的GC(垃圾回收)、快照功能等
  9、MooseFS 是 Google Filesystem 的一个 c 实现
  10、自带 Web Gui 的监控接口
  11、提高随机读或写效率和海量小文件的读写效率(有待进一步证明)
  缺点:
  1、Master Server 本身的性能瓶颈。MFS的主备架构情况类似于MySQL的主从复制,从可以扩展,主却不容易扩展。短期的对策就是按照业务来做切分。
  2、随着MFS体系架构中存储文件的总数上升,Master Server对内存的需求量会不断增大(MFS把文件系统的结构缓存到 Maset Server 的内存中)。根据官方提供的数据,8g对应2500kw的文件数,2亿文件就得64GB内存。短期的对策也是按照业务来做切分。
  3、Master server的单点解决方案的健壮性。目前官方自带的是把数据信息从MasterServer同步到MetaloggerServer上,MasterServer一旦出问题MetaloggerServer可以恢复升级为MasterServer,但是需要恢复时间。目前,也可以通过第三方的高可用方案(heartbeat+drbd+moosefs)来解决 Master Server 的单点问题。
  4、Metalogger Server 复制元数据的间隔时间较长(可调整)
  
1.4应用场景
  谈及MooseFS的应用场景,其实就是去谈分布式文件系统的应用场景。
  1、大规模高并发的数据存储及访问(小文件、大文件),TFS适合小文件(/etc/pki/rpm-gpg/RPM-GPG-KEY-MooseFS
添加yum源
# curl"http://ppa.moosefs.com/MooseFS-3-el6.repo"> /etc/yum.repos.d/MooseFS.repo
master端安装
# yum install -y moosefs-mastermoosefs-cli moosefs-cgi moosefs-cgiserv
chunk端安装
# yum install -ymoosefs-chunkserver
metalogger端安装
# yum install moosefs-metalogger-y
客户端安装
# yum install moosefs-client -y2.3配置
2.3.1配置master端
# ll /etc/mfs
total 44
-rw-r--r-- 1 root root 4102 Oct 10 18:45mfsexports.cfg
-rw-r--r-- 1 root root 4057 Aug2 19:43 mfsexports.cfg.sample
-rw-r--r-- 1 root root 8521 Oct 10 17:49mfsmaster.cfg
-rw-r--r-- 1 root root 8521 Aug2 19:43 mfsmaster.cfg.sample
-rw-r--r-- 1 root root 1052 Oct 10 17:49mfstopology.cfg
-rw-r--r-- 1 root root 1052 Aug2 19:43 mfstopology.cfg.sample  这是mfs的三个配置文件
  mfsmaster.cfg:主文件
  mfsexports.cfg:mfs挂载权限设置,参考NFS文件系统中的exports.cfg
  mfstopology.cfg   :机架感知
# vim mfsexports.cfg(把前面两行没注释的删掉)
10.0.0.0/24       /    rw,alldirs,maproot=0:0#类似nfs的export配置文件
# /etc/init.d/moosefs-master start2.3.2配置chunk server端
# sed -i '71a MASTER_HOST = 10.0.0.103'/etc/mfs/mfschunkserver.cfg
# echo "/tmp" >/etc/mfs/mfshdd.cfg#将/tmp目录作为存放数据的目录
# /etc/init.d/moosefs-chunkserverstart
这里看一下tmp目录,由于是块状文件,所以数据在chunk端是不可读的。
# ls /tmp/
0008101820283038404850586068707880889098A0A8B0B8C0C8D0D8E0E8F0F8
0109111921293139414951596169717981899199A1A9B1B9C1C9D1D9E1E9F1F9
020A121A222A323A424A525A626A727A828A929AA2AAB2BAC2CAD2DAE2EAF2FA
030B131B232B333B434B535B636B737B838B939BA3ABB3BBC3CBD3DBE3EBF3FB
040C141C242C343C444C545C646C747C848C949CA4ACB4BCC4CCD4DCE4ECF4FC
050D151D252D353D454D555D656D757D858D959DA5ADB5BDC5CDD5DDE5EDF5FD
060E161E262E363E464E565E666E767E868E969EA6AEB6BEC6CED6DEE6EEF6FE
070F171F272F373F474F575F676F777F878F979FA7AFB7BFC7CFD7DFE7EFF7FF2.3.3配置metalogger端
# vim /etc/mfs/mfsmetalogger.cfg
META_DOWNLOAD_FREQ = 1#每隔1小时同步一下日志
MASTER_HOST = 10.0.0.103# /etc/init.d/moosefs-metaloggerstart2.3.4客户端配置
# mfsmount /mnt -H 10.0.0.103
# df -h
Filesystem      SizeUsed Avail Use% Mounted on
/dev/sda3       8.8G1.5G6.9G 18% /
tmpfs         238M   0238M0% /dev/shm
/dev/sda1       190M   40M141M 22% /boot
10.0.0.103:942117G3.5G   14G 21% /mnt  

  

  测试一下
# dd if=/dev/zero of=/mnt/1.txt bs=1M count=10
去chunk01端查看,
# tree /tmp/
/tmp/
├── 00
│   └── chunk_0000000000000001_00000001.mfs
├── 01
├── 02
├── 03
同时chunk02 也同步了该数据
# tree /tmp/
/tmp/
├── 00
│   └── chunk_0000000000000001_00000001.mfs
├── 01
├── 02
├── 03
随后我又找了一个客户端 也挂载到/mnt下也能发现1.txt这个文件
# ll /mnt/
total 10240
-rw-r--r-- 1 root root 10485760 Oct 10 19:51 1.txt  其实搭建起来还是很简单的,重点在于理解mfs服务的原理。
  有关原理部分借鉴多个博客,如有侵权请联系删除
  




页: [1]
查看完整版本: 分布式存储