设为首页 收藏本站
查看: 920|回复: 0

[经验分享] Openstack 网络服务Neutron [五]

[复制链接]

尚未签到

发表于 2017-6-26 15:17:28 | 显示全部楼层 |阅读模式
Openstack 网络服务Neutron [五]
openstack

时间:2016年11月28日
Neutron介绍

neutron是openstack重要组件之一,在以前是时候没有neutron项目
DSC0000.png

早期的时候是没有neutron,早期所使用的网络的nova-network,经过版本改变才有个neutron
Openstack Networking

网络:

  在实际的物理环境下,我们使用交换机或者集线器把多个计算机连接起来形成了网络。在Neutron的世界里,网络也是将多个不同的云主机连接起来。

子网:

  在实际的物理环境下,在一个网络中。我们可以将网络划分成多为逻辑子网。在Neutron的世界里,子网也是隶属于网络下的。

端口:

  是实际的物理环境下,每个子网或者网络,都有很多的端口,比如交换机端口来供计算机连接。在Neutron的世界端口也是隶属于子网下,云主机的网卡会对应到一个端口上。

路由器:

  在实际的网络环境下,不同网络或者不同逻辑子网之间如果需要进行通信,需要通过路由器进行路由。在Neutron的实际里路由也是这个作用。用来连接不同的网络或者子网。
Neutron 架构介绍

DSC0001.png

Neutron也分为控制节点和计算节点
openstack默认的网络是单一扁平网络(虚拟机跟宿主机在同一个网段)在官方文档上称为提供者网络
安装

数据库我们在一开始就已经创建完成

keystone用户我们也已经创建完成
配置网络选项

  您可以部署网络服务使用选项1和选项2两种架构中的一种来部署网络服务。

选项1采用尽可能简单的架构进行部署,只支持实例连接到公有网络(外部网络)。没有私有网络(个人网络),路由器以及浮动IP地址。只有admin或者其他特权用户才可以管理公有网络

选项2在选项1的基础上多了layer-3服务,支持实例连接到私有网络。demo或者其他没有特权的用户可以管理自己的私有网络,包含连接公网和私网的路由器。另外,浮动IP地址可以让实例使用私有网络连接到外部网络,例如互联网

  典型的私有网络一般使用覆盖网络。覆盖网络,例如VXLAN包含了额外的数据头,这些数据头增加了开销,减少了有效内容和用户数据的可用空间。在不了解虚拟网络架构的情况下,实例尝试用以太网 最大传输单元 (MTU) 1500字节发送数据包。网络服务会自动给实例提供正确的MTU的值通过DHCP的方式。但是,一些云镜像并没有使用DHCP或者忽视了DHCP MTU选项,要求使用元数据或者脚本来进行配置
我们先进行配置公共网络
在控制节点安装组件


  • [iyunv@linux-node1 ~]#yum install openstack-neutron openstack-neutron-ml2 \
  •   openstack-neutron-linuxbridge ebtables
提示:neutron和其他组件的小区别是配置完数据库之后不可以马上进行同步,它还依赖其他配置文件
编辑/etc/neutron/neutron.conf文件并完成如下操作


  • 在[database]配置数据库访问
  • [iyunv@linux-node1 ~]# vim /etc/neutron/neutron.conf
  • 684 connection = mysql+pymysql://neutron:neutron@192.168.56.11/neutron
提示:不需要同步数据库,684为684行
在 [DEFAULT] 和 [keystone_authtoken] 部分,配置认证服务访问


  • [DEFAULT]
  • auth_strategy = keystone

  • [keystone_authtoken]
  • auth_uri = http://192.168.56.11:5000
  • auth_url = http://192.168.56.11:35357
  • memcached_servers = 192.168.56.11:11211
  • auth_type = password
  • project_domain_name = default
  • user_domain_name = default
  • project_name = service
  • username = neutron
  • password = neutron
rabbitmq(消息队列)配置


  • rpc_backend = rabbit
  • rabbit_host = 192.168.56.11
  • rabbit_userid = openstack
  • rabbit_password = openstack
neutron核心配置有2个

启动ML2插件并禁用其他插件


  • [DEFAULT]

  • core_plugin = m12
  • service_plugins =
  • 提示:service_plugins等号后面什么都不写就是禁用其他插件
配置网络服务来通知计算节点的网络拓扑变化:(配置nova相关)


  • [DEFAULT]

  • notify_nova_on_port_status_changes = true
  • notify_nova_on_port_data_changes = true
提示:简单的来说就是端口发生变化通知nova


  • [nova]
  • nova标签的配置其实就是keystone的配置
  • auth_url = http://192.168.56.11:35357
  • auth_type = password
  • project_domain_name = default
  • user_domain_name = default
  • region_name = RegionOne
  • project_name = service
  • username = nova
  • password = nova
配置锁路径


  • [oslo_concurrency]
  • lock_path = /var/lib/neutron/tmp
neutron配置小结:


  • [iyunv@linux-node1 ~]# grep '^[a-z]' /etc/neutron/neutron.conf
  • auth_strategy = keystone                #使用keystone进行验证
  • core_plugin = ml2                   #使用ml2插件
  • service_plugins =                       #不使用其他插件
  • notify_nova_on_port_status_changes = true   #端口改变通知nova
  • notify_nova_on_port_data_changes = true     #端口改变通知nova
  • rpc_backend = rabbit                        #使用rabbit
  • connection = mysql+pymysql://neutron:neutron@192.168.56.11/neutron #数据库连接地址
  • auth_uri = http://192.168.56.11:5000            #neutron keystone的配置
  • auth_url = http://192.168.56.11:35357       #neutron keystone的配置
  • memcached_servers = 192.168.56.11:11211 #neutron keystone的配置
  • auth_type = password                        #neutron keystone的配置
  • project_domain_name = default               #neutron keystone的配置
  • user_domain_name = default              #neutron keystone的配置
  • project_name = service                      #neutron keystone的配置
  • username = neutron                      #neutron keystone的配置
  • password = neutron                      #neutron keystone的配置
  • auth_url = http://192.168.56.11:35357       #neutron nova的配置
  • auth_type = password                        #neutron nova的配置
  • project_domain_name = default               #neutron nova的配置
  • user_domain_name = default              #neutron nova的配置
  • region_name = RegionOne                 #neutron nova的配置
  • project_name = service                      #neutron nova的配置
  • username = nova                         #neutron nova的配置
  • password = nova                         #neutron nova的配置
  • lock_path = /var/lib/neutron/tmp            #锁路径
  • rabbit_host = 192.168.56.11                 #rabbitmq配置
  • rabbit_userid = openstack                   #rabbitmq配置
  • rabbit_password = openstack             #rabbitmq配置
配置Modular Layer 2 (ML2)
ML2插件使用Linuxbridge机制来为实例创建layer-2虚拟网络基础设施

编辑配置文件/etc/neutron/plugins/ml2/ml2_conf.ini
驱动的选择


  • [ml2]
  • type_drivers = flat,vlan,gre,vxlan,geneve
设置使用那几个插件来创建网络


  • [ml2]
  • mechanism_drivers = linuxbridge,openvswitch
提示:我们可以写多个,不管用不用都可以写上去
禁用私有网络


  • [ml2]
  • tenant_network_types =
启动端口安全扩展驱动


  • [ml2]
  • extension_drivers = port_security
在[ml2_type_flat]部分,配置公共虚拟网络为flat网络


  • [ml2_type_flat]
  • flat_networks = public
  • #配置公共的网络
在 [securitygroup]部分,启用 ipset增加安全组规则的高效性:


  • [securitygroup]
  • enable_ipset = true
提示:ml2_conf里面的网络类型很多,我们需要那种网络类型配置即可
ML2插件配置小结:


  • [iyunv@linux-node1 ~]# grep '^[a-z]' /etc/neutron/plugins/ml2/ml2_conf.ini
  • type_drivers = flat,vlan,gre,vxlan,geneve           #驱动类型
  • tenant_network_types =                      #租户的网络类型
  • mechanism_drivers = linuxbridge,openvswitch     #创建网络插件
  • extension_drivers = port_security               #打开端口安全
  • flat_networks = public                          #网络类型public
  • enable_ipset = true                         #开启ipset
配置Linuxbridge代理

编辑/etc/neutron/plugins/ml2/linuxbridge_agent.ini文件并且完成以下操作


  • 在[linux_bridge]部分,将公共虚拟网络和公共物理网络接口对应起来:
  • [linux_bridge]
  • physical_interface_mappings = public:eth0

  • #是什么网卡就修改什么网卡,如果不是eth0请修改对应网卡
在[vxlan]部分,禁止VXLAN覆盖网络:


  • [vxlan]
  • enable_vxlan = false
在[securitygroup]部分,启用安全组并配置 Linuxbridge iptables firewall driver:


  • [securitygroup]
  • ...
  • enable_security_group = True
  • firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
  • #启动安全组并设置防火墙驱动
Linuxbridge代理总结如下:


  • [iyunv@linux-node1 ~]# grep '^[a-z]' /etc/neutron/plugins/ml2/linuxbridge_agent.ini
  • physical_interface_mappings = public:eth0           #网络映射
  • firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver #防火墙
  • enable_security_group = true                    #打开安全组
  • enable_vxlan = false                            #关闭vxlan
配置DHCP代理
编辑/etc/neutron/dhcp_agent.ini文件并完成下面的操作:
在[DEFAULT]部分,配置Linuxbridge驱动接口,DHCP驱动并启用隔离元数据,这样在公共网络上的实例就可以通过网络来访问元数据


  • [DEFAULT]

  • interface_driver = neutron.agent.linux.interface.BridgeInterfaceDriver
  • #虚拟接口驱动,使用Linuxbridge

  • dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
  • #dhcp驱动,默认使用Dnsmasq(是一个小的开源项目)来提供dhcp服务

  • enable_isolated_metadata = false
  • #刷新路由使用
DHCP配置小结


  • [iyunv@linux-node1 ~]# grep '^[a-z]' /etc/neutron/dhcp_agent.ini
  • interface_driver = neutron.agent.linux.interface.BridgeInterfaceDriver #底层插件Linuxbridge
  • dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq                      #DHCP
  • enable_isolated_metadata = false                                    #推送路由使用
配置元数据代理

<Metadata agent>负责提供配置信息,例如:访问实例的凭证
编辑/etc/neutron/metadata_agent.ini文件并完成以下操作:
在[DEFAULT]部分,配置元数据主机以及共享密码:


  • nova_metadata_ip = 192.168.56.11        #元数据主机
  • metadata_proxy_shared_secret = abcdocker  #共享密钥
提示:这个共享密钥就是一个字符串
配置网络服务(nova-api)

  编辑/etc/nova/nova.conf文件并完成以下操作:

在[neutron]部分,配置访问参数,启用元数据代理并设置密码:


  • url = http://192.168.56.11:9696
  • auth_url = http://192.168.56.11:35357
  • auth_type = password
  • project_domain_name = default
  • user_domain_name = default
  • region_name = RegionOne
  • project_name = service
  • username = neutron
  • password = neutron
提示:9696是neutron-server的端口


  • [neutron]
  • service_metadata_proxy=true
  • metadata_proxy_shared_secret = abcdocker       #共享密钥
网络服务初始化脚本需要一个超链接 /etc/neutron/plugin.ini指向ML2插件配置文件/etc/neutron/plugins/ml2/ml2_conf.ini 如果超链接不存在,使用下面的命令创建它:


  • [iyunv@linux-node1 ~]# ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini
提示:这里我们使用那个插件就用它做一个软连接即可
同步数据库


  • [iyunv@linux-node1 ~]# su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf \
  •   --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron
注:数据库的同步发生在 Networking 之后,因为脚本需要完成服务器和插件的配置文件。
重启计算API 服务:


  • [iyunv@linux-node1 ~]# systemctl restart openstack-nova-api.service
当系统启动时,启动Networking服务并配置它启动。
对于两种网络选项:


  • [iyunv@linux-node1 ~]#systemctl enable neutron-server.service \
  •   neutron-linuxbridge-agent.service neutron-dhcp-agent.service \
  •   neutron-metadata-agent.service

  • [iyunv@linux-node1 ~]#systemctl start neutron-server.service \
  •   neutron-linuxbridge-agent.service neutron-dhcp-agent.service \
  •   neutron-metadata-agent.service
现在还需要将neutron在keystone上进行注册
创建neutron服务实体:


  • [iyunv@linux-node1 ~]# source admin-openstack.sh
  • [iyunv@linux-node1 ~]#openstack service create --name neutron \
  •   --description "OpenStack Networking" network
创建网络服务API端点:


  • [iyunv@linux-node1 ~]#openstack endpoint create --region RegionOne \
  •   network public http://192.168.56.11:9696

  • [iyunv@linux-node1 ~]# openstack endpoint create --region RegionOne   network internal http://192.168.56.11:9696

  • [iyunv@linux-node1 ~]# openstack endpoint create --region RegionOne   network admin http://192.168.56.11:9696
检查neutron是否安装成功


  • [iyunv@linux-node1 ~]# neutron agent-list
  • +---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
  • | id                  | agent_type         | host                | availability_zone | alive | admin_state_up | binary                  |
  • +---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
  • | b41a9731-2bff-4257- | DHCP agent         | linux-              | nova              | :-)   | True           | neutron-dhcp-agent      |
  • | a3e9-91b13f568932   |                    | node1.abcdocker.com |                   |       |                |                         |
  • | de108bab-f33a-4319  | Linux bridge agent | linux-              |                   | :-)   | True           | neutron-linuxbridge-    |
  • | -8caf-dd5fbda74d7e  |                    | node1.abcdocker.com |                   |       |                | agent                   |
  • | f8286325-19ad-43ae- | Metadata agent     | linux-              |                   | :-)   | True           | neutron-metadata-agent  |
  • | a25a-c7c2ceca7aed   |                    | node1.abcdocker.com |                   |       |                |                         |
  • +---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
DSC0002.png
配置neutron计算节点
安装组件,安装的服务器在192.168.56.12  linux-node2.com上面


  • [iyunv@linux-node2 ~]# yum install openstack-neutron-linuxbridge ebtables ipset -y
因为控制节点跟计算节点配置几乎一样,我们直接复制控制节点的文件进行修改控制节点拷贝


  • [iyunv@linux-node1 ~]# scp /etc/neutron/neutron.conf root@192.168.56.12:/etc/neutron
在计算节点进行修改配置文件权限


  • [iyunv@linux-node2 ~]# chown -R root:neutron /etc/neutron/neutron.conf
  • [iyunv@linux-node2 ~]# ll /etc/neutron/neutron.conf
  • -rw-r----- 1 root neutron 53140 Nov 21 15:13 /etc/neutron/neutron.conf
计算节点设置


  • [iyunv@linux-node2 ~]# vim /etc/neutron/neutron.conf
  • #connection =           #删除mysql连接路径
  • [nova]                  #删除nova标签下所有配置
  • #notify_nova_on_port_status_changes = true      #注释
  • #notify_nova_on_port_data_changes = true        #注释
  • #core_plugin = ml2                          #注释插件
  • #service_plugins =                              #注释
计算节点跟控制节点进行对比


  • [iyunv@linux-node2 ~]# diff /etc/neutron/neutron.conf /tmp/neutron.conf
  • 30c30
  • < #core_plugin = ml2
  • ---
  • > core_plugin = ml2
  • 33c33
  • < #service_plugins =
  • ---
  • > service_plugins =
  • 137c137
  • < #notify_nova_on_port_status_changes = true
  • ---
  • > notify_nova_on_port_status_changes = true
  • 141c141
  • < #notify_nova_on_port_data_changes = true
  • ---
  • > notify_nova_on_port_data_changes = true
  • 684c684
  • < #connection =
  • ---
  • > connection = mysql+pymysql://neutron:neutron@192.168.56.11/neutron
  • 936a937,944
  • > auth_url = http://192.168.56.11:35357
  • > auth_type = password
  • > project_domain_name = default
  • > user_domain_name = default
  • > region_name = RegionOne
  • > project_name = service
  • > username = nova
  • > password = nova
提示:不注释也没有问题,但是为了环境保持一致还是注释掉比较好
为计算节点配置网络服务

我们可以直接复制控制节点的配置进行修改


  • [iyunv@linux-node1 ~]# vim /etc/nova/nova.conf

  • [neutron]
  • url = http://192.168.56.11:9696
  • auth_url = http://192.168.56.11:35357
  • auth_type = password
  • project_domain_name = default
  • user_domain_name = default
  • region_name = RegionOne
  • project_name = service
  • username = neutron
  • password = neutron
提示:在控制节点的时候我们在nova的配置文件中配置了neutron的节点选项,在neutron配置文件中配置了nova的选项。在计算节点的nova上要配置neutron
在计算节点配置Linuxbridge

配置网络选项

友情提示:这里的配置和控制节点配置一模一样

这里我们还是直接拷贝控制节点的/etc/neutron/plugins/ml2/linuxbridge_agent.ini
拷贝


  • [iyunv@linux-node1 ~]# scp /etc/neutron/plugins/ml2/linuxbridge_agent.ini 192.168.56.12:/etc/neutron/plugins/ml2/
  • root@192.168.56.12's password:
  • linuxbridge_agent.ini   
查看


  • [iyunv@linux-node2 ~]# ll /etc/neutron/plugins/ml2/linuxbridge_agent.ini
  • -rw-r----- 1 root root 7924 Nov 21 16:26 /etc/neutron/plugins/ml2/linuxbridge_agent.ini
  • [iyunv@linux-node2 ~]# grep '^[a-z]' /etc/neutron/plugins/ml2/linuxbridge_agent.ini
  • physical_interface_mappings = public:eth0
  • firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
  • enable_security_group = true
  • enable_vxlan = false
  • [iyunv@linux-node2 ~]# chown -R root:neutron /etc/neutron/plugins/ml2/linuxbridge_agent.ini
重启计算节点nova-compute


  • [iyunv@linux-node2 ~]#systemctl restart openstack-nova-compute.service
启动Linuxbridge代理并设置开启启动


  • [iyunv@linux-node2 ~]# systemctl enable neutron-linuxbridge-agent.service
  • Created symlink from /etc/systemd/system/multi-user.target.wants/neutron-linuxbridge-agent.service to /usr/lib/systemd/system/neutron-linuxbridge-agent.service.
  • [iyunv@linux-node2 ~]# systemctl start neutron-linuxbridge-agent.service
进入控制节点,进行检查


  • [iyunv@linux-node1 ~]# source admin-openstack.sh
  • [iyunv@linux-node1 ~]# neutron agent-list
  • +---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
  • | id                  | agent_type         | host                | availability_zone | alive | admin_state_up | binary                  |
  • +---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
  • | b41a9731-2bff-4257- | DHCP agent         | linux-              | nova              | :-)   | True           | neutron-dhcp-agent      |
  • | a3e9-91b13f568932   |                    | node1.abcdocker.com |                   |       |                |                         |
  • | de108bab-f33a-4319  | Linux bridge agent | linux-              |                   | :-)   | True           | neutron-linuxbridge-    |
  • | -8caf-dd5fbda74d7e  |                    | node1.abcdocker.com |                   |       |                | agent                   |
  • | eb879cc3-ca1d-470b- | Linux bridge agent | linux-              |                   | :-)   | True           | neutron-linuxbridge-    |
  • | 9fe6-b0e5c2fedf2a   |                    | node2.abcdocker.com |                   |       |                | agent                   |
  • | f8286325-19ad-43ae- | Metadata agent     | linux-              |                   | :-)   | True           | neutron-metadata-agent  |
  • | a25a-c7c2ceca7aed   |                    | node1.abcdocker.com |                   |       |                |                         |
  • +---------------------+--------------------+---------------------+-------------------+-------+----------------+-------------------------+
DSC0003.png
提示:如果网络接口不是eth0,你的配置文件没有修改就会启动不起来
故障解决套路:

1、netstat -lntup确认端口是否监听

2、openstack service list确保服务创建

openstack endpoint list确保三个endpoint创建无误

3、vim修改配置文件debug=true 重启 – 执行命令 – 看日志
M版本中文文档:http://docs.openstack.org/mitaka/zh_CN/install-guide-rdo/keystone-install.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-388231-1-1.html 上篇帖子: Openstack 入门2 下篇帖子: OpenStack三个节点icehouse
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表