Chapter 2 OpenStack基本环境设置 2.1 实验环境 这里使用虚拟机方式配置OpenStack架构:
vmnet1 Link encap:Ethernet HWaddr 00:50:56:C0:00:01 inet addr:10.0.0.1 Bcast:10.0.0.255 Mask:255.255.255.0 inet6 addr: fe80::250:56ff:fec0:1/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:712764 errors:0 dropped:0 overruns:0 frame:0 TX packets:4453502 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
vmnet2 Link encap:Ethernet HWaddr 00:50:56:C0:00:02 inet addr:10.0.1.1 Bcast:10.0.1.255 Mask:255.255.255.0 inet6 addr: fe80::250:56ff:fec0:2/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:11112 errors:0 dropped:0 overruns:0 frame:0 TX packets:14 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
vmnet8 Link encap:Ethernet HWaddr 00:50:56:C0:00:08 inet addr:203.0.113.1 Bcast:203.0.113.255 Mask:255.255.255.0 inet6 addr: fe80::250:56ff:fec0:8/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:207556 errors:0 dropped:0 overruns:0 frame:0 TX packets:373 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b) 注意,vmnet8为NAT网络,用于与外部网络进行通信。
实验环境拓扑图如下:
2.2 (虚拟机)初始设置 2.2.1 网卡名称修改 由于安装OpenStack的Kilo版本,这里虚拟机选用的操作系统是CenOS7 x86_64。需要注意的是网卡的设置,在CentOS7中将使用命名空间的方式来管理网络接口名称,如果需要改为传统的管理方式,请进行下面的操作: [iyunv@localhost ~]# cd /etc/sysconfig/network-scripts/ [iyunv@localhost network-scripts]# mv ifcfg-eno16777736 ifcfg-eth0 [iyunv@localhost network-scripts]# vi ifcfg-eth0 TYPE=Ethernet BOOTPROTO=static DEVICE=eth0 ONBOOT=yes IPADDR=10.0.0.11 NETMASK=255.255.255.0 [iyunv@localhost ~]# vi /etc/default/grub GRUB_CMDLINE_LINUX="rd.lvm.lv=vgsys/swap rd.lvm.lv=vgsys/root net.ifnames=0 biosdevname=0 crashkernel=auto rhgb quiet" [iyunv@localhost ~]# grub2-mkconfig -o /boot/grub2/grub.cfg [iyunv@localhost ~]# reboot
由于没有ifcfg等网络管理工具,这里需要安装相应的软件包net-tools: [iyunv@localhost ~]# yum -y install net-tools
2.2.2 修改主机名并关闭防火墙、SELinux [iyunv@localhost ~]# hostnamectl set-hostname controller [iyunv@controller ~]# systemctl disable firewalld [iyunv@controller ~]# systemctl stop firewalld [iyunv@controller ~]# vi /etc/sysconfig/selinux SELINUX=disabled [iyunv@controller ~]# reboot
2.3 节点网络设置 使用Neutron网络的示例架构要求: 一个控制节点:包括一个属于管理网络的网卡。注意,这里的实际环境将为控制节点多配置一个属于NAT网段的网卡,用于连接外网,将OpenStack所需要的所有软件包制作成软件源,通过HTTP方式从控制节点进行发布,稍后介绍配置过程 一个网络节点:包括一个属于管理网络的网卡、一个用于(与计算节点进行)隧道通信的网卡、一个连接外网的网卡 至少一个计算节点(实验环境使用了两台):博客一个素颜管理网络的网卡、一个用于(与网络节点进行)隧道通信的网卡
2.3.1 配置各节点网络接口 这里以控制节点为例: [iyunv@controller ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0 TYPE=Ethernet BOOTPROTO=static DEVICE=eth0 ONBOOT=yes IPADDR=10.0.0.11 NETMASK=255.255.255.0 [iyunv@controller ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1 TYPE=Ethernet BOOTPROTO=static DEVICE=eth1 ONBOOT=yes IPADDR=203.0.113.11 NETMASK=255.255.255.0 GATEWAY=203.0.113.2 DNS1=203.0.113.2
并设置外网连通性: [iyunv@controller ~]# ping -c 4 openstack.org PING openstack.org (162.242.140.107) 56(84) bytes of data. 64 bytes from 162.242.140.107: icmp_seq=1 ttl=128 time=285 ms 64 bytes from 162.242.140.107: icmp_seq=2 ttl=128 time=286 ms 64 bytes from 162.242.140.107: icmp_seq=3 ttl=128 time=291 ms 64 bytes from 162.242.140.107: icmp_seq=4 ttl=128 time=296 ms
--- openstack.org ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 3003ms rtt min/avg/max/mdev = 285.180/290.095/296.684/4.551 ms
网络节点和计算节点配置方式相同,配置完毕后可以对每个节点都进行ping测试。
2.3.2 添加主机名解析 在控制节点上设置/etc/hosts文件: [iyunv@controller ~]# cat /etc/hosts 10.0.0.11 controller 10.0.0.21 network1 10.0.0.31 compute1 10.0.0.32 compute2
将其复制到其他节点中,如果后面有新的服务器加入到OpenStack环境,加到/etc/hosts即可,当然也可以通过DNS方式对主机名称进行管理,由于环境机器需求不多,所以暂时不考虑。
2.4 创建网络yum源 首先在控制节点上编辑自定义的网络yum源: [iyunv@controller ~]# vi /etc/yum.repos.d/all-packages-source.repo [all-packages-source] name=all-packages-source baseurl=http://10.0.0.11/all-packages-source enabled=1 gpgcheck=0
将OpenStack所需要所有软件包下载到/all-packages-source目录中,然后安装HTTP服务将目录发布出去: [iyunv@controller ~]# wget -P \ [iyunv@controller ~]# mkdir /all-packages-source [iyunv@controller ~]# yum -y install Pakcage_Name --downloadonly --downloaddir=/all-packages-source [iyunv@controller ~]# createrepo /all-packages-source/ [iyunv@controller ~]# yum -y install http [iyunv@controller ~]# ln -s /all-packages-source/ /var/www/html/ [iyunv@controller ~]# systemctl start httpd [iyunv@controller ~]# systemctl enable httpd [iyunv@controller ~]# yum clean all; yum repolist [iyunv@controller ~]# yum repolist Loaded plugins: fastestmirror Loading mirror speeds from cached hostfile * base: centos.ustc.edu.cn * epel: mirror01.idc.hinet.net * extras: centos.ustc.edu.cn * updates: centos.ustc.edu.cn repo id repo name status all-packages-source all-packages-source 458 base/7/x86_64 CentOS-7 - Base 8,652 epel/x86_64 Extra Packages for Enterprise Linux 7 - x86_64 8,457 extras/7/x86_64 CentOS-7 - Extras 180 glusterfs-epel/7/x86_64 GlusterFS is a clustered file-system capable of s 14 glusterfs-noarch-epel/7 GlusterFS is a clustered file-system capable of s 2 openstack-kilo OpenStack Kilo Repository 823 updates/7/x86_64 CentOS-7 - Updates 1,225 repolist: 19,811 注:由于软件包较多,这里就不一一列出,查看官方文档查看每个组建所需要的软件包。
在其他节点上删除原有的repo源,从控制节点上复制all-packages-source.repo源文件并刷新,这里以网络节点为例: [iyunv@network1 ~]# rm -rf /etc/yum.repos.d/* [iyunv@network1 ~]# scp 10.0.0.11:/etc/yum.repos.d/all-packages-source.repo /etc/yum.repos.d/ [iyunv@network1 ~]# yum clean all; yum repolist [iyunv@network1 ~]# yum clean all; yum repolist ... repo id repo name status all-packages-source all-packages-source 458 repolist: 458
2.5 网络时间服务(NTP)设置 2.5.1 在控制节点上配置NTP服务端 设置10.0.0.0/24网段可以对其进行时间同步: [iyunv@controller ~]# yum -y install ntp [iyunv@controller ~]# vi /etc/ntp.conf ... restrict 10.0.0.0 mask 255.255.255.0 nomodify notrap [iyunv@controller ~]# systemctl start ntpd [iyunv@controller ~]# systemctl enable ntpd 可以通过ntpq -p命令查看与上层服务器时间是否同步。
2.5.2 在其他节点上配置NTP客户端 以网络节点为例: [iyunv@network1 ~]# yum -y install ntp [iyunv@network1 ~]# vi /etc/ntp.conf server 10.0.0.11 iburst 注意,这里清除了其他上层NTP服务器。
2.6 SQL数据库 OpenStack很多服务通过SQL数据库来存储信息。这里使用MariaDB数据库,当然OpenStack服务也支持其他数据库服务,例如MySQL、PostgreSQL。
2.6.1 在控制节点上配置数据库服务端 1. 安装配置MariaDB [iyunv@controller ~]# yum -y install mariadb mariadb-server MySQL-python [mysqld] ... bind-address = 10.0.0.11 default-storage-engine = innodb innodb_file_per_table collation-server = utf8_general_ci init-connect = 'SET NAMES utf8' character-set-server = utf8
2. 完成安装 启动mariadb服务并设置为开机自启: [iyunv@controller ~]# systemctl start mariadb [iyunv@controller ~]# systemctl enable mariadb
加固数据库服务安全并设置数据库管理员root的密码: [iyunv@controller ~]# mysql_secure_installation Set root password? [Y/n] Y Remove anonymous users? [Y/n] Y Disallow root login remotely? [Y/n] Y Remove test database and access to it? [Y/n] Y Reload privilege tables now? [Y/n] Y
注意,一定要移除数据空用户和空连接地址,否则在导入OpenStack各服务数据表时会报错。
2.7 消息队列服务(Message queue) OpenStack通过消息队列服务来协调各服务之间的操作和状态信息。本示例将消息队列服务安装在控制节点上,OpenStack所支持的消息队列服务包括RabbitMQ、Qpid和ZeroMQ。这里将使用RabbiMQ作为消息队列服务。
2.7.1 安装和配置消息队列服务 [iyunv@controller ~]# yum -y install rabbitmq-server [iyunv@controller ~]# systemctl start rabbitmq-server [iyunv@controller ~]# systemctl enable rabbitmq-server [iyunv@controller ~]# rabbitmqctl add_user openstack iforgot [iyunv@controller ~]# rabbitmqctl set_permissions openstack ".*" ".*" ".*"
|