设为首页 收藏本站
查看: 846|回复: 0

[经验分享] mongodb 集群搭建

[复制链接]

尚未签到

发表于 2018-10-26 06:20:56 | 显示全部楼层 |阅读模式
  Sharding+Replica Sets
  主机  IP  服务及端口
  Server A  192.168.31.231                  mongod shard1_1:27017
  mongod shard2_1:27018
  mongod config1:20000
  mongs1:30000
  Server B  192.168.31.232                  mongod shard1_2:27017
  mongod shard2_2:27018
  mongod config2:20000
  mongs2:30000
  Server C  192.168.31.233                  mongod shard1_3:27017
  mongod shard2_3:27018
  mongod config3:20000
  mongs3:30000
  关闭3台服务器的防火墙
  > rs.initiate(config)
  1.1 创建数据目录
  Server A
  mkdir /data/shard1_1
  mkdir /data/shard2_1
  mkdir /data/config
  Server B
  mkdir /data/shard1_2
  mkdir /data/shard2_2
  mkdir /data/config
  Server C
  mkdir /data/shard1_3
  mkdir /data/shard2_3
  mkdir /data/config
  1.2 配置shard1的Replica Sets
  Server A
  [root@localhost bin]# /usr/local/mongo/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log --logappend --fork
  Server B
  [root@localhost bin]# /usr/local/mongo/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_2 --logpath /data/shard1_2/shard1_2.log --logappend --fork
  Server C
  [root@localhost bin]# /usr/local/mongo/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_3 --logpath /data/shard1_3/shard1_3.log --logappend --fork
  用 mongo 连接其中一台机器的 27017 端口的 mongod,初始化 Replica Sets“shard1” ,执行:
  [root@localhost bin]# ./mongo --port 27017
  MongoDB shell version: 1.8.1
  connecting to: 127.0.0.1:27017/test
  > config = {_id: 'shard1', members: [
  ... {_id: 0, host: '192.168.31.231:27017'},
  ... {_id: 1, host: '192.168.31.232:27017'},
  ... {_id: 2, host: '192.168.31.233:27017',arbiterOnly:true}]
  ... }
  {
  "_id" : "shard1",
  "members" : [
  {
  "_id" : 0,
  "host" : "192.168.31.231:27017"
  },
  {
  "_id" : 1,
  "host" : "192.168.31.232:27017"
  },
  {
  "_id" : 2,
  "host" : "192.168.31.233:27017",
  "arbiterOnly":true
  }
  ]
  }
  > rs.initiate(config)
  {
  "info" : "Config now saved locally. Should come online in about a minute.",
  "ok" : 1
  }
  1.3配置 shard2  所用到的 Replica Sets
  Server A
  [root@localhost bin]# /usr/local/mongo/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log --logappend --fork
  Server B
  [root@localhost bin]# /usr/local/mongo/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_2 --logpath /data/shard2_2/shard2_2.log --logappend --fork
  Server C
  [root@localhost bin]# /usr/local/mongo/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_3 --logpath /data/shard2_3/shard2_3.log --logappend --fork
  用 mongo 连接其中一台机器的 27018 端口的 mongod,初始化 Replica Sets “shard2” ,执行:
  [root@localhost bin]# ./mongo --port 27018
  MongoDB shell version: 1.8.1
  connecting to: 127.0.0.1:27018/test
  > config = {_id: 'shard2', members: [
  ... {_id: 0, host: '192.168.31.231:27018'},
  ... {_id: 1, host: '192.168.31.232:27018'},
  ... {_id: 2, host: '192.168.31.233:27018',arbiterOnly:true}]
  ... }
  {
  "_id" : "shard2",
  "members" : [
  {
  "_id" : 0,
  "host" : "192.168.31.231:27018"
  },
  {
  "_id" : 1,
  "host" : "192.168.31.232:27018"
  },
  {
  "_id" : 2,
  "host" : "192.168.31.233:27018",
  "arbiterOnly":true
  }
  ]
  }
  > rs.initiate(config)
  { "ok" : 1 }
  1.4 配置 3  台 台 Config Server
  在 Server A 、B 、C  上 执行:
  /usr/local/mongo/bin/mongod  --configsvr  --dbpath  /data/config  --port  20000  --logpath /data/config/config.log --logappend --fork
  23.4  配置 3  台 台 Route Process
  在 在 Server A 、B 、C  上 执行:
  /usr/local/mongo/bin/mongos  --configdb 192.168.31.231:20000,192.168.31.232:20000,192.168.31.233:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
  [root@mongo1 bin]# netstat -tpln|grep mongo
  tcp        0      0 0.0.0.0:30000               0.0.0.0:*                   LISTEN      1573/mongos
  tcp        0      0 0.0.0.0:20000               0.0.0.0:*                   LISTEN      1375/mongod
  tcp        0      0 0.0.0.0:27017               0.0.0.0:*                   LISTEN      1061/mongod
  tcp        0      0 0.0.0.0:27018               0.0.0.0:*                   LISTEN      1211/mongod
  [root@mongo1 bin]# ps aux|grep mongo
  root      1061  2.0  4.1 3198136 41920 ?       Sl   21:02   0:35 /usr/local/mongo/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log --logappend --fork
  root      1211  2.5  7.6 3202220 77716 ?       Sl   21:09   0:33 /usr/local/mongo/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log --logappend --fork
  root      1375  1.3  3.7 487476 38484 ?        Sl   21:17   0:12 /usr/local/mongo/bin/mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend --fork
  root      1573  0.8  0.7 240152  7320 ?        Sl   21:28   0:02 /usr/local/mongo/bin/mongos --configdb 192.168.31.231:20000,192.168.31.232:20000,192.168.31.233:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
  root      1794  0.0  0.0 103244   848 pts/1    S+   21:31   0:00 grep mongo
  1.5配置 Shard Cluster
  连接到其中一台机器的端口 30000 的 mongos 进程,并切换到 admin 数据库做以下配置
  [root@localhost bin]# ./mongo --port 30000
  MongoDB shell version: 1.8.1
  connecting to: 127.0.0.1:30000/test
  > use admin
  switched to db admin
  >db.runCommand({addshard:"shard1/192.168.31.231:27017,192.168.31.232:27017,192.168.31.233:27017"});
  { "shardAdded" : "shard1", "ok" : 1 }
  >db.runCommand({addshard:"shard2/192.168.31.231:27018,192.168.31.232:27018,192.168.31.233:27018"});
  { "shardAdded" : "shard2", "ok" : 1 }
  >
  进入mongos进程config库可以看到目前分片的情况:
  mongos> use config
  switched to db config
  mongos> db.shards.find()
  { "_id" : "shard1", "host" : "shard1/192.168.31.231:27017,192.168.31.232:27017,192.168.31.233:27017" }
  { "_id" : "shard2", "host" : "shard2/192.168.31.231:27018,192.168.31.232:27018,192.168.31.233:27018" }
  mongos>
  1.6激活数据库及集合的分片
  db.runCommand({ enablesharding:"test" })
  db.runCommand({ shardcollection: "test.users", key: { _id:1 }})
  1.7验证 Sharding  正常工作
  连接到其中一台机器的端口 30000 的 mongos 进程,并切换到 test 数据库,以便添加测试数
  据
  use test
  for(var i=1;i
  ./mongo --port 27017
  shard2:PRIMARY> use test
  switched to db test
  shard2:PRIMARY> show collections;
  system.indexes
  users
  shard2:PRIMARY> db.users.find().count()
  11303  --和db.users.stats()查看的数据条数一样 20000=11303+8697
  shard2:PRIMARY>
  ./mongo --port 27018
  shard2:PRIMARY> use test
  switched to db test
  shard2:PRIMARY> show collections;
  system.indexes
  users
  shard1:PRIMARY> db.users.find().count()
  8697   ----和db.users.stats()查看的数据条数一样
  shard1:PRIMARY>
  从SECONDARY读取数据:
  shard2:SECONDARY> show collections;
  2015-06-24T21:46:11.634+0800 E QUERY    Error: listCollections failed: { "note" : "from execCommand", "ok" : 0, "errmsg" : "not master" }
  查询时报错,说明SECONDARY节点不能执行查询操作。
  执行db.getMongo().setSlaveOk(),从库就可以进行读操作了,可以控制从哪些分片上面可以读。
  shard1:
  shard2:SECONDARY> db.getMongo().setSlaveOk()
  shard2:SECONDARY> show collections;
  system.indexes
  users
  shard2:
  shard1:SECONDARY> db.getMongo().setSlaveOk()
  shard1:SECONDARY> show collections;
  system.indexes
  users
  shard1:SECONDARY> db.users.find().count();
  8697
  shard1:SECONDARY>
  模拟故障:
  [root@mongo1 bin]# ps aux|grep mongo
  root      1061  1.9  8.1 3200192 82956 ?       Sl   21:02   0:56 /usr/local/mongo/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log --logappend --fork
  root      1211  2.1  7.8 3205304 79928 ?       Sl   21:09   0:52 /usr/local/mongo/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log --logappend --fork
  root      1375  1.8  4.1 489528 42180 ?        Sl   21:17   0:37 /usr/local/mongo/bin/mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend --fork
  root      1573  0.9  0.7 240152  7340 ?        Sl   21:28   0:13 /usr/local/mongo/bin/mongos --configdb 192.168.31.231:20000,192.168.31.232:20000,192.168.31.233:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork
  root      1901  0.0  1.8 721952 19132 pts/0    Sl+  21:38   0:00 ./mongo --port 27018
  root      2130  0.0  0.0 103244   848 pts/1    S+   21:51   0:00 grep mongo
  [root@mongo1 bin]# kill -2 1061  --这里不能使用kill -9 ,否则会导致丢失数据
  通过rs.status()可以查看复制集的状态:
  我们可以看到192.168.31.231:27017处于宕机状态,192.168.31.233:27017接管变成了PRIMARY
  shard1:PRIMARY>  rs.status()
  {
  "set" : "shard1",
  "date" : ISODate("2015-06-24T14:03:10.425Z"),
  "myState" : 1,
  "members" : [
  {
  "_id" : 0,
  "name" : "192.168.31.231:27017",
  "health" : 0,
  "state" : 8,
  "stateStr" : "(not reachable/healthy)",
  "uptime" : 0,
  "optime" : Timestamp(0, 0),
  "optimeDate" : ISODate("1970-01-01T00:00:00Z"),
  "lastHeartbeat" : ISODate("2015-06-24T14:03:09.083Z"),
  "lastHeartbeatRecv" : ISODate("2015-06-24T13:51:38.834Z"),
  "pingMs" : 0,
  "lastHeartbeatMessage" : "Failed attempt to connect to 192.168.31.231:27017; couldn't connect to server 192.168.31.231:27017 (192.168.31.231), connection attempt failed",
  "configVersion" : -1
  },
  {
  "_id" : 1,
  "name" : "192.168.31.232:27017",
  "health" : 1,
  "state" : 2,
  "stateStr" : "SECONDARY",
  "uptime" : 3242,
  "optime" : Timestamp(1435152718, 13),
  "optimeDate" : ISODate("2015-06-24T13:31:58Z"),
  "lastHeartbeat" : ISODate("2015-06-24T14:03:09.814Z"),
  "lastHeartbeatRecv" : ISODate("2015-06-24T14:03:09.813Z"),
  "pingMs" : 1,
  "configVersion" : 1
  },
  {
  "_id" : 2,
  "name" : "192.168.31.233:27017",
  "health" : 1,
  "state" : 1,
  "stateStr" : "PRIMARY",
  "uptime" : 3603,
  "optime" : Timestamp(1435152718, 13),
  "optimeDate" : ISODate("2015-06-24T13:31:58Z"),
  "electionTime" : Timestamp(1435153900, 1),
  "electionDate" : ISODate("2015-06-24T13:51:40Z"),
  "configVersion" : 1,
  "self" : true
  }
  ],
  "ok" : 1,
  "$gleStats" : {
  "lastOpTime" : Timestamp(0, 0),
  "electionId" : ObjectId("558ab5ec28f234f7b5abda48")
  }
  }
  查看分片集合信息:
  mongos> db.collections.find()
  { "_id" : "test.users", "lastmod" : ISODate("2015-06-24T13:30:19.670Z"), "dropped" : false, "key" : { "_id" : 1 }, "unique" : false, "lastmodEpoch" : ObjectId("558ab0eb6a881136d7047be4") }


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-626455-1-1.html 上篇帖子: MongoDB介绍及下载与安装! 下篇帖子: 3.1-MongoDB安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表