设为首页 收藏本站
查看: 1601|回复: 0

[经验分享] MongoDB数据库的备份,恢复与迁移,回滚

[复制链接]

尚未签到

发表于 2015-11-11 08:43:18 | 显示全部楼层 |阅读模式

MongoDB数据库的备份,恢复与迁移,回滚



备份与恢复



在创建MongoDB服务的时候,通过--dbpath指定目录就是存放mongdb数据库文件目录,我们可以通过复制这些文件实现数据库的冷备,但是这种方式不太安全。因此在冷备前,要关闭服务器,这个在第一节中介绍过平滑关闭server的命令。



  • >use admin  
  • >db.shutdownServer()


或者可以通过fsync方式使MongoDB将数据写入缓存中,然后再复制备份



  • >use admin  
  • >db.runCommand({"fsync":1,"lock":1})


这个时候我往test.foo 插入了一条数据 f:6 ,在执行db.foo.find()后,并没有查到这条记录,说明记录没有直接写入数据库,而是被缓冲到缓存中了。


备份完后,要解锁(防止这个时候停电或其它原因,导致未缓存中的数据丢失)。



  • >use admin  
  • >db.$cmd.sys.unlock.findOne()  
  • >db.currentOp()    如果currentOp 只返回{"inprog":[]}结果,说明解锁成功。


解锁后,缓存中的数据会写入数据库文件中,我们去查询foo结果。


DSC0000.png


上面是冷备的方式,我们可以在不停止服务的情况下,使用MongoDB提供的两个工具来实现备份和恢复。这个两个工具在MongoDB的bin目录下可以看到:mongodump/mongorestor


mongodump备份的原理是通过一次查询获取当前服务器快照,并将快照写入磁盘中,因此这种方式保存的也不是实时的,因为在获取快照后,服务器还会有数据写入,为了保证备份的安全,同样我们还是可以利用fsync锁使服务器数据暂时写入缓存中。



mongodump备份命令:



  • ......bin>./mongodump -d test -o backup            //( backup是备份目录,默认创建到bin目录)
  • ./mongodbdump --help 可查看命令的帮助


mongorestore恢复命令:



可以在恢复前往foo表插入一条记录 g:7)



  • .....bin>./mongorestore -d test --drop backup/test/
  • 提一点的就是 drop选项,这里是说我将test数据恢复之前先删除原有数据库里面的数据



看一下运行结果:


DSC0001.png


以上就是mongodb的备份和恢复过程。当数据库文件出现问题或者损坏时,MongoDB还提供了修复数据文件的命令。



在启动mongod服务时通过--repair 修复:



  • ....bin>./mongod --dbpath \usr\mongodb\data\dbs\master"  --repair  
  • 修复命令必须提供数据路径


另外我们也可以在mongo shell 中修复正在运行的数据库存



  • >use test  

  • >db.repairDataBase()




接下来我们在来看一下另外二种读扩展式的备份机制。



Master-Slave



主从复制模式:即一台主写入服务器,多台从备份服务器。从服务器可以实现备份,和读扩展,分担主服务器读密集时压力,充当查询服务器。但是主服务器故障时,我们只能手动去切换备份服务器接替主服务器工作。这种灵活的方式,使扩展多如备份或查询服务器相对比较容易,当然查询服务器也不是无限扩展的,因为这些从服务器定期在轮询读取主服务器的更新,当从服务器过多时反而会对主服务器造成过载。


我们以之前创建的端口为27017做为主服务器,再创建个端口为27018从服务器


重新启动27017为主服务器 --master 主服务器



  • ....bin>mongod  --dbpath "C:\Program Files\mongodb\data\dbs\master" --master


创建27018为从服务器  --slave 从服务器  --source 指定主服务器



  • ....bin>mongod --port 27018 --dbpath "C:\Program Files\mongodb\data\dbs\slave27018"   --slave --source localhost:27017


主服务器可以通过自己local库的slave集合查看从服务器列表


从服务器可以通过自己local库的source集合查看主服务器信息或维护多个主服务器。 (一个slave服务器可以服务多个master服务器)


或者我们可以通过http console查看状态



Replica Sets



副本集模式:具有Master-Slave模式所有特点,但是副本集没有固定的主服务器,当初始化的时候会通过多个服务器投票选举出一个主服务器。当主服务器故障时会再次通过投票选举出新的主服务器,而原先的主服务器恢复后则转为从服务器。Replica Sets的在故障发生时自动切换的机制可以极时保证写入操作。


创建多个副本集节点 --replSet   (注意要区分大小写,官方建议命名空间使用IP地址)



  • ....bin>mongod --dbpath "C:\Program Files\mongodb\data\dbs\replset27017"   --port 27017 --replSet replset/127.0.0.1:27018  

  • ....bin>mongod --dbpath "C:\Program Files\mongodb\data\dbs\replset27018"   --port 27018 --replSet replset/127.0.0.1:27017  

  • ....bin>mongod --dbpath "C:\Program Files\mongodb\data\dbs\replset27019"   --port 27019 --replSet replset/127.0.0.1:27017


首先建立3个是为了投票不会冲突,当服务器为偶数时可能会导致无法正常选举出主服务器。


其次上面3个replset 节点没有全部串联起来,是因为replset 有自检测功可以自动搜索连接其它服务器。


完成上面的工作后,要初始化副本集,随便连接一台服务器执行以下命令 (priority 0~1,被选为主服务器的优先级)



  • >use admin  
  • >db.runCommand(  
  • {"replSetInitiate":{  
  • "_id":"replset",  
  • "members":[  
  • {  
  • "_id":1,  
  • "host":"127.0.0.1:27017",  
  • "priority":1  
  • },  
  • {  
  • "_id":2,  
  • "host":"127.0.0.1:27018",  
  • "priority":1  
  • },  
  • {  
  • "_id":3,  
  • "host":"127.0.0.1:27019",  
  • "priority":1  
  • }]}}  
  • )


查看结果,可以看出127.0.0.1:27017 被自动选为replSet:Primary>


DSC0002.png


在增加一个从服务器节点



  • ....bin>mongod --dbpath "C:\Program Files\mongodb\data\dbs\replset27020" --port 27020 --replSet replset/127.0.0.1:27017


通过rs.add命令往system.replset添加新的从服务器成员



  • rs.add("127.0.0.1:27020");   或者rs.add({"_id":4,"host":"127.0.0.1:27020"}


这里在简单的介绍一下Master Slave/ Replica Sets 备份机制,这两种模式都是基于主服务器的oplog 来实现所有从服务器的同步。


oplog记录了增删改操作的记录信息(不包含查询的操作),但是oplog有大小限制,当超过指定大小,oplog会清空之前的记录,重新开始记录。


Master Slave方式主服备器会产生 oplog.$main 的日志集合。


Replica Sets  方式 所有服务器都会产生oplog.rs 日志集合。


两种机制下,所有从服务器都会去轮询主服务器oplog日志,若主服务器的日志较新,就会同步这些新的操作记录。但是这里有个很重要的问题,从服务器由于网络阻塞,死机等原因无法极时同步主服务器oplog记录:一种情况 主服务器oplog不断刷新,这样从服务器永远无法追上主服务器。另外一种情况,刚好主服务器oplog超出大小,清空了之前的oplog,这样从服务器就与主服务器数据就可能会不一致了,这第二种情况,我是推断的,没有证实。


另外要说明一下Replica Sets 备份的缺点,当主服务器发生故障时,一台从服务器被投票选为了主服务器,但是这台从服务的oplog 如果晚于之前的主服务器oplog的话,那之前的主服务器恢复后,会回滚自己的oplog操作和新的主服务器oplog保持一致。由于这个过程是自动切换的,所以在无形之中就导致了部分数据丢失。



数据迁移



1 可以利用上面的备份与恢复来实现数据迁移


2 db.copyDatabase('SiteMap','NewSiteMap','192.168.1.7:37017');


db.copyDatabase(fromdb, todb, fromhost, username, password);



mongoimport mongoexport 两个命令可以实现数据导入导出

更多的命令可看官方文档 http://docs.mongodb.org/manual/reference/method/db.getMongo/



MongoDB 误操作后的point in time
recovery





Point
in time recovery


在生产环境中,尽管我们尽力避免,但是还是会遇到误操作或是其他情况的出现。

这时候我们就需要进行Point in time recovery了。

我们point in time recovery 是基于oplog进行的,所以请确保oplog的size足够大,也请确保定时有冷备份(或是延时备份)



切记:在出现问题的时候,我们第一时间要做的时保护犯罪现场,停止应用写入,保护数据库数据与状态。有可能的话,在进行恢复之前,将现在的oplog进行一次全备份,也将现在数据进行一次全备份。



以下是通过冷备份+oplog进行point in time recovery的例子(例子仅供参考,实际中请根据情况来操作,过程需严谨。):


1.首先我们往一个collection里插入数据。

zhou1:PRIMARY>  use test3

switched to db test3

zhou1:PRIMARY>

zhou1:PRIMARY>  for (var i=0;i<1000;i&#43;&#43;){

...  db.a.save({&quot;a&quot;:i})

...   }


2.让我们来检查下collection a中的数据

zhou1:PRIMARY> db.a.find()

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9b4&quot;), &quot;a&quot; : 0 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9b5&quot;), &quot;a&quot; : 1 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9b6&quot;), &quot;a&quot; : 2 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9b7&quot;), &quot;a&quot; : 3 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9b8&quot;), &quot;a&quot; : 4 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9b9&quot;), &quot;a&quot; : 5 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9ba&quot;), &quot;a&quot; : 6 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9bb&quot;), &quot;a&quot; : 7 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9bc&quot;), &quot;a&quot; : 8 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9bd&quot;), &quot;a&quot; : 9 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9be&quot;), &quot;a&quot; : 10 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9bf&quot;), &quot;a&quot; : 11 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c0&quot;), &quot;a&quot; : 12 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c1&quot;), &quot;a&quot; : 13 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c2&quot;), &quot;a&quot; : 14 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c3&quot;), &quot;a&quot; : 15 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c4&quot;), &quot;a&quot; : 16 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c5&quot;), &quot;a&quot; : 17 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c6&quot;), &quot;a&quot; : 18 }

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9c7&quot;), &quot;a&quot; : 19 }

Type &quot;it&quot; for more

zhou1:PRIMARY> db.a.find().count()

1000


3.这时候我们将a表dump出来做备份。

# mongodump --port 37017 -d
test3 -c a -o /tmp/test3/


4.我们再往a中插入一条document

zhou1:PRIMARY> db.a.save({a:19999})

zhou1:PRIMARY> db.a.find().count()

1001


5.删除a表中,a为10的document

zhou1:PRIMARY> db.a.remove({&quot;a&quot;:10})

zhou1:PRIMARY> db.a.find().count()

1000


6.再像a表中插入一条document

zhou1:PRIMARY> db.a.save({a:9999})

zhou1:PRIMARY> db.a.find().count()

1001


7.我们现在想要取消操作5(remove操作,假设其为误操作),但是不影响其他数据。

a.我们先整体备份oplog(保护犯罪现场,哈哈,防止出现其他问题,有可能的话,还可以将现在的数据进行一次备份,防止如果操作失败造成的数据问题。)



# mongodump --port=37017 -d local -c oplog.rs -o /tmp/oplog/

再取出dump之后到删除之前的oplog。

先根据时间戳和操作特性找到操作5的ts

zhou1:PRIMARY> db.oplog.rs.find({&quot;op&quot; : &quot;d&quot;,&quot;ns&quot; : &quot;test3.a&quot;,},{ts:1}).pretty()

{ &quot;ts&quot; : Timestamp(1415928580, 1) }

再根据这个ts 和dump的时间ts 来查询dump之后,删除之前的oplog。



zhou1:PRIMARY> db.oplog.rs.find({ts:{$lt:Timestamp(1415928580, 1),$gt: Timestamp(1415928529, 1000)}}).pretty()

{

        &quot;ts&quot; : Timestamp(1415928569, 1),

        &quot;h&quot; : NumberLong(&quot;-4718889676574368147&quot;),

        &quot;v&quot; : 2,

        &quot;op&quot; : &quot;i&quot;,

        &quot;ns&quot; : &quot;test3.a&quot;,

        &quot;o&quot; : {

                &quot;_id&quot; : ObjectId(&quot;54655af9e6e268b4ebe284c5&quot;),

                &quot;a&quot; : 19999

        }

}

由于生产环境中会是很多操作,所以将其dump出来。

# mongodump --port 37017 -d local -c oplog.rs -q '{ts:{$lt:Timestamp(1415928580, 1),$gt: Timestamp(1415928529, 1000)}}' -o /tmp/oplog1/



再同理找到操作5之后的操作。将其dump出来

mongodump --port 37017 -d local -c oplog.rs -q '{ts:{$gt:Timestamp(1415928580, 1)}}' -o /tmp/oplog2/


8.可以进行恢复了,删除a表,并用3操作中的dump
file 进行恢复


# mongorestore --port 37017
-d test3 -c a /tmp/test3/test3/a.bson

检查下

zhou1:PRIMARY> db.a.find().count()

1000

zhou1:PRIMARY> db.a.find({a:10})

{ &quot;_id&quot; : ObjectId(&quot;54655693f169ef6a4b9cf9be&quot;), &quot;a&quot; : 10 }

我们发现,数据恢复到操作5之前了。




9.我们先将7操作中备份的oplog1 恢复到其他机器的mongodb
local数据库中(原先无oplog.rs表的)。


在使用mongooplog 来恢复我们dump数据到remove操作这段时间内的数据。

# mongooplog --port=37017 -d test3 -c a --from xxxx(oplog1恢复到的机器)



zhou1:PRIMARY> use test3

switched to db test3

zhou1:PRIMARY> db.a.find().count()

1001

zhou1:PRIMARY> db.a.find({a:19999})

{ &quot;_id&quot; : ObjectId(&quot;54655af9e6e268b4ebe284c5&quot;), &quot;a&quot; : 19999 }


10.将之前恢复了oplog1的机器的oplog.rs删除,并恢复oplog2.

使用mongooplog 来恢复我们remove操作之后的数据变动。

# mongooplog --port=37017 -d test3 -c a --from xxxx(oplog1恢复到的机器)



zhou1:PRIMARY> use test3

switched to db test3

zhou1:PRIMARY> db.a.find().count()

1002

zhou1:PRIMARY> db.a.find({a:9999})

{ &quot;_id&quot; : ObjectId(&quot;54655b0fe6e268b4ebe284c6&quot;), &quot;a&quot; : 9999 }



  至此,我们整个的point in time recovery
便完成了。


自动备份还原的脚本
  -----自动备份mongodb数据并压缩---



#!/bin/bash

filename=`date &#43;%Y%m%d%H`

backmongodbFile=mongodb$filename.tar.gz

cd /home/mongo/back/

/usr/mongodb/bin/mongodump -h 192.168.1.7 -port 37017 -d MongoDBAgent -o mongodb_dump/

/usr/mongodb/bin/mongodump -h 192.168.1.7 -port 37017 -d MongoDBBg -o mongodb_dump/

/usr/mongodb/bin/mongodump -h 192.168.1.7 -port 37017 -d MongoModelActor -o mongodb_dump/

tar czf $backmongodbFile  mongodb_dump/

rm mongodb_dump -rf



-----自动解压并还原mongodb数据---



#!/bin/bash

filename='20150330013'

backmongodbFile=mongodb$filename.tar.gz

cd /home/mongo/back/

tar zxvf $backmongodbFile

/usr/mongodb/bin/mongorestore -h 192.168.1.6 -port 37017 --drop -d MongoDBAgent mongodb_dump/MongoDBAgent

/usr/mongodb/bin/mongorestore -h 192.168.1.6 -port 37017 --drop -d MongoDBBg mongodb_dump/MongoDBBg

/usr/mongodb/bin/mongorestore -h 192.168.1.6 -port 37017 --drop -d MongoModelActor mongodb_dump/MongoModelActor

rm mongodb_dump -rf


  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137711-1-1.html 上篇帖子: Mongodb数据库命令端常用操作 下篇帖子: 【转】Mongo db 与mysql 语法比较
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表