设为首页 收藏本站
查看: 1044|回复: 0

[经验分享] 搭建高可用mongodb集群(二)—— 副本集2

[复制链接]

尚未签到

发表于 2018-10-26 06:15:02 | 显示全部楼层 |阅读模式
  8、java程序连接副本集测试。三个节点有一个节点挂掉也不会影响应用程序客户端对整个副本集的读写!

  public>  public static void main(String[] args) {
  try {
  List addresses = new ArrayList();
  ServerAddress address1 = new ServerAddress("192.168.1.136" , 27017);
  ServerAddress address2 = new ServerAddress("192.168.1.137" , 27017);
  ServerAddress address3 = new ServerAddress("192.168.1.138" , 27017);
  addresses.add(address1);
  addresses.add(address2);
  addresses.add(address3);
  MongoClient client = new MongoClient(addresses);
  DB db = client.getDB( "test");
  DBCollection coll = db.getCollection( "testdb");
  // 插入
  BasicDBObject object = new BasicDBObject();
  object.append( "test2", "testval2" );
  coll.insert(object);
  DBCursor dbCursor = coll.find();
  while (dbCursor.hasNext()) {
  DBObject dbObject = dbCursor.next();
  System. out.println(dbObject.toString());
  }
  } catch (Exception e) {
  e.printStackTrace();
  }
  }
  }
  目前看起来支持完美的故障转移了,这个架构是不是比较完美了?其实还有很多地方可以优化,比如开头的第二个问题:主节点的读写压力过大如何解决?常见的解决方案是读写分离,mongodb副本集的读写分离如何做呢?
  看图说话:
  mongorep5
  常规写操作来说并没有读操作多,所以一台主节点负责写,两台副本节点负责读。
  1、设置读写分离需要先在副本节点SECONDARY 设置 setSlaveOk。
  2、在程序中设置副本节点负责读操作,如下代码:

  public>  public static void main(String[] args) {
  try {
  List addresses = new ArrayList();
  ServerAddress address1 = new ServerAddress("192.168.1.136" , 27017);
  ServerAddress address2 = new ServerAddress("192.168.1.137" , 27017);
  ServerAddress address3 = new ServerAddress("192.168.1.138" , 27017);
  addresses.add(address1);
  addresses.add(address2);
  addresses.add(address3);
  MongoClient client = new MongoClient(addresses);
  DB db = client.getDB( "test" );
  DBCollection coll = db.getCollection( "testdb" );
  BasicDBObject object = new BasicDBObject();
  object.append( "test2" , "testval2" );
  //读操作从副本节点读取
  ReadPreference preference = ReadPreference. secondary();
  DBObject dbObject = coll.findOne(object, null , preference);
  System. out .println(dbObject);
  } catch (Exception e) {
  e.printStackTrace();
  }
  }
  }
  读参数除了secondary一共还有五个参数:primary、primaryPreferred、secondary、secondaryPreferred、nearest。
  primary:默认参数,只从主节点上进行读取操作;
  primaryPreferred:大部分从主节点上读取数据,只有主节点不可用时从secondary节点读取数据。
  secondary:只从secondary节点上进行读取操作,存在的问题是secondary节点的数据会比primary节点数据“旧”。
  secondaryPreferred:优先从secondary节点进行读取操作,secondary节点不可用时从主节点读取数据;
  nearest:不管是主节点、secondary节点,从网络延迟最低的节点上读取数据。
  好,读写分离做好我们可以数据分流,减轻压力解决了“主节点的读写压力过大如何解决?”这个问题。不过当我们的副本节点增多时,主节点的复制压力会加大有什么办法解决吗?mongodb早就有了相应的解决方案。
  看图:
  mongorep7
  其中的仲裁节点不存储数据,只是负责故障转移的群体投票,这样就少了数据复制的压力。是不是想得很周到啊,一看mongodb的开发兄弟熟知大数据架构体系,其实不只是主节点、副本节点、仲裁节点,还有Secondary-Only、Hidden、Delayed、Non-Voting。
  Secondary-Only:不能成为primary节点,只能作为secondary副本节点,防止一些性能不高的节点成为主节点。
  Hidden:这类节点是不能够被客户端制定IP引用,也不能被设置为主节点,但是可以投票,一般用于备份数据。
  Delayed:可以指定一个时间延迟从primary节点同步数据。主要用于备份数据,如果实时同步,误删除数据马上同步到从节点,恢复又恢复不了。
  Non-Voting:没有选举权的secondary节点,纯粹的备份数据节点。
  到此整个mongodb副本集搞定了两个问题:
  主节点挂了能否自动切换连接?目前需要手工切换。
  主节点的读写压力过大如何解决?
  还有这两个问题后续解决:
  从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大?
  数据压力大到机器支撑不了的时候能否做到自动扩展?
  做了副本集发现又一些问题:
  副本集故障转移,主节点是如何选举的?能否手动干涉下架某一台主节点。
  官方说副本集数量最好是奇数,为什么?
  mongodb副本集是如何同步的?如果同步不及时会出现什么情况?会不会出现不一致性?
  mongodb的故障转移会不会无故自动发生?什么条件会触发?频繁触发可能会带来系统负载加重


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-626451-1-1.html 上篇帖子: 搭建高可用mongodb集群—— 副本集1 下篇帖子: mongodb中的副本集搭建实践
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表