设为首页 收藏本站
查看: 1080|回复: 0

[经验分享] Exchange 2010两台3in1服务器实现DAG +CAS ARRAY

[复制链接]

尚未签到

发表于 2018-7-2 06:04:43 | 显示全部楼层 |阅读模式
  场景:2台CAS,HUB,MBX合一的exchange2010服务器,DAG环境,要求实现CAS的冗余。
  解决思路:
  1、HAproxy或者NLB,或者硬件NLB。
  2、前端建立CAS array, cas array与DAG是可以共存的(不建立NLB)
  解释:
  cas array的ip地址指向DAG群集的虚拟ip地址,就是说dag主节点在谁那儿,cas array就访问谁(可以查看两个服务器的网卡 有一块被配置了双IP)。
DSC0000.png

  通过RpcClientAccessServer来关联CasArray与邮箱数据库。
  这样实现了最小成本的高可用。而非负载均衡。
  (注:微软不推荐此做法)
  参考资料:
Uncovering the new RPC Client Access Service in Exchange 2010 (Part 1)
CAS array对象解密 - 第 1 部分
  操作:
  1、建立CAS array,建立DAG,DAG的ip为10.0.0.250
DSC0001.png

DSC0002.png

  2、所有邮箱的 RPCClientAccessServer指向cas.soda.com
DSC0003.png

  3、AutoDiscover发现值也得改掉,改掉后记得重启exchange AD 拓扑服务使配置生效
DSC0004.png

  也可以使用ADSI修改,如图:两个CN=servers下面CN=08server1与CN=08server2 都要改
DSC0005.png

  4、重新申请证书,加入cas.soda.com域名(非必要,因为outlook使用RPC连接而非SSL保护的HTTP连接)。
  5、我的测试环境需求通过mail.soda.com访问,以下附上IIS和DNS配置
DSC0006.png

DSC0007.png

DSC0008.png

  6、测试访问,OWA与自动访问没有问题。
DSC0009.png

  测试下高可用,在DAG上放一个数据库 Testmbx,用户soda和用户xuqi都放在里头,可以看到目前08server1为test的主节点。
DSC00010.png

  断掉08server1
DSC00011.png

  DAG起作用了
DSC00012.png

  接下来测试客户端访问,一切正常,而且自动发现节点也切换到了08server1上。
  说明cas array的高可用也实现了。
DSC00013.png

  以上就是cas array+dag,很多生产环境其实都在用这套方案,最低成本的冗余。
  PS:一开始在azure上做这个实验,死活不通。后来检查出来是因为azure虚拟机不能配固定IP导致(参照前文,创建DAG ip地址时会直接配到网卡上)。后来换到本地的虚拟机才测试成功。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-532736-1-1.html 上篇帖子: Exchange 2010发现拓扑失败 下篇帖子: Exchange的替代方案:Kerio Connect邮件服务器
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表