xuanhao 发表于 2018-6-1 11:52:06

Chapter 2 OpenStack基本环境设置

Chapter 2 OpenStack基本环境设置
2.1 实验环境
这里使用虚拟机方式配置OpenStack架构:

[*]首先物理主机安装的操作系统是CentOS6.5 x86_64,使用的虚拟化软件是VMware WorkStation 10
[*]  虚拟机网络设置如下:




[*]  在物理机上的虚拟网卡的信息如下:
vmnet1    Link encap:EthernetHWaddr 00:50:56:C0:00:01
            inet addr:10.0.0.1Bcast:10.0.0.255Mask:255.255.255.0
            inet6 addr: fe80::250:56ff:fec0:1/64 Scope:Link
            UP BROADCAST RUNNING MULTICASTMTU:1500Metric:1
            RX packets:712764 errors:0 dropped:0 overruns:0 frame:0
            TX packets:4453502 errors:0 dropped:0 overruns:0 carrier:0
            collisions:0 txqueuelen:1000
            RX bytes:0 (0.0 b)TX bytes:0 (0.0 b)


vmnet2    Link encap:EthernetHWaddr 00:50:56:C0:00:02
            inet addr:10.0.1.1Bcast:10.0.1.255Mask:255.255.255.0
            inet6 addr: fe80::250:56ff:fec0:2/64 Scope:Link
            UP BROADCAST RUNNING MULTICASTMTU:1500Metric:1
            RX packets:11112 errors:0 dropped:0 overruns:0 frame:0
            TX packets:14 errors:0 dropped:0 overruns:0 carrier:0
            collisions:0 txqueuelen:1000
            RX bytes:0 (0.0 b)TX bytes:0 (0.0 b)


vmnet8    Link encap:EthernetHWaddr 00:50:56:C0:00:08
            inet addr:203.0.113.1Bcast:203.0.113.255Mask:255.255.255.0
            inet6 addr: fe80::250:56ff:fec0:8/64 Scope:Link
            UP BROADCAST RUNNING MULTICASTMTU:1500Metric:1
            RX packets:207556 errors:0 dropped:0 overruns:0 frame:0
            TX packets:373 errors:0 dropped:0 overruns:0 carrier:0
            collisions:0 txqueuelen:1000
            RX bytes:0 (0.0 b)TX bytes:0 (0.0 b)
注意,vmnet8为NAT网络,用于与外部网络进行通信。


实验环境拓扑图如下:



2.2 (虚拟机)初始设置
2.2.1 网卡名称修改
由于安装OpenStack的Kilo版本,这里虚拟机选用的操作系统是CenOS7 x86_64。需要注意的是网卡的设置,在CentOS7中将使用命名空间的方式来管理网络接口名称,如果需要改为传统的管理方式,请进行下面的操作:

# cd /etc/sysconfig/network-scripts/
# mv ifcfg-eno16777736 ifcfg-eth0
# vi ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth0
ONBOOT=yes
IPADDR=10.0.0.11
NETMASK=255.255.255.0
# vi /etc/default/grub
GRUB_CMDLINE_LINUX="rd.lvm.lv=vgsys/swap rd.lvm.lv=vgsys/root net.ifnames=0 biosdevname=0 crashkernel=auto rhgb quiet"
# grub2-mkconfig -o /boot/grub2/grub.cfg
# reboot



由于没有ifcfg等网络管理工具,这里需要安装相应的软件包net-tools:
# yum -y install net-tools


2.2.2 修改主机名并关闭防火墙、SELinux

# hostnamectl set-hostname controller
# systemctl disable firewalld
# systemctl stop firewalld
# vi /etc/sysconfig/selinux
SELINUX=disabled
# reboot


2.3 节点网络设置
使用Neutron网络的示例架构要求:

[*]一个控制节点:包括一个属于管理网络的网卡。注意,这里的实际环境将为控制节点多配置一个属于NAT网段的网卡,用于连接外网,将OpenStack所需要的所有软件包制作成软件源,通过HTTP方式从控制节点进行发布,稍后介绍配置过程
[*]一个网络节点:包括一个属于管理网络的网卡、一个用于(与计算节点进行)隧道通信的网卡、一个连接外网的网卡
[*]至少一个计算节点(实验环境使用了两台):博客一个素颜管理网络的网卡、一个用于(与网络节点进行)隧道通信的网卡


2.3.1 配置各节点网络接口
这里以控制节点为例:

# cat /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth0
ONBOOT=yes
IPADDR=10.0.0.11
NETMASK=255.255.255.0
# cat /etc/sysconfig/network-scripts/ifcfg-eth1
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth1
ONBOOT=yes
IPADDR=203.0.113.11
NETMASK=255.255.255.0
GATEWAY=203.0.113.2
DNS1=203.0.113.2


测试外网连通性:

# ping -c 4 openstack.org
PING openstack.org (162.242.140.107) 56(84) bytes of data.
64 bytes from 162.242.140.107: icmp_seq=1 ttl=128 time=285 ms
64 bytes from 162.242.140.107: icmp_seq=2 ttl=128 time=286 ms
64 bytes from 162.242.140.107: icmp_seq=3 ttl=128 time=291 ms
64 bytes from 162.242.140.107: icmp_seq=4 ttl=128 time=296 ms


--- openstack.org ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3003ms
rtt min/avg/max/mdev = 285.180/290.095/296.684/4.551 ms


网络节点和计算节点配置方式相同,配置完毕后可以对每个节点都进行ping测试。


2.3.2 添加主机名解析
在控制节点上设置/etc/hosts文件:
# cat /etc/hosts
10.0.0.11       controller
10.0.0.21       network1
10.0.0.31       compute1
10.0.0.32       compute2


将其复制到其他节点中,如果后面有新的服务器加入到OpenStack环境,加到/etc/hosts即可,当然也可以通过DNS方式对主机名称进行管理,由于环境机器需求不多,所以暂时不考虑。


另外,为了管理方便,在控制节点通过命令ssh-keygen -t rsa创建公钥/root/.ssh/id_rsa.pub,并将其发布到其他节点上命名为authorized_keys来实现SSH无密码登录。(不作详解)


2.4 创建网络yum源
将OpenStack所需要所有软件包下载到/all-packages-source目录中,然后安装HTTP服务将目录发布出去:

  # yum -y install http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
  # yum -y install http://rdo.fedorapeople.org/openstack-kilo/rdo-release-kilo.rpm
  # wget -P \
  /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo
  # mkdir /all-packages-source
  # yum -y install Pakcage_Name --downloadonly --downloaddir=/all-packages-source
  # yum -y install createrepo
  # createrepo /all-packages-source/
  # yum -y install httpd
  # ln -s /all-packages-source/ /var/www/html/
  # systemctl start httpd
  # systemctl enable httpd
  # vi /etc/yum.repos.d/all-packages-source.repo
  
  name=all-packages-source
  baseurl=http://10.0.0.11/all-packages-source
  enabled=1
  gpgcheck=0
  # yum clean all; yum repolist
  # yum repolist
  Loaded plugins: fastestmirror
  Loading mirror speeds from cached hostfile
   * base: centos.ustc.edu.cn
   * epel: mirror01.idc.hinet.net
   * extras: centos.ustc.edu.cn
   * updates: centos.ustc.edu.cn
repo id                           repo name                                                            status
all-packages-source      all-packages-source                                                466
base/7/x86_64                CentOS-7 - Base                                                      8,652
epel/x86_64                  Extra Packages for Enterprise Linux 7 - x86_64      8,457
extras/7/x86_64            CentOS-7 - Extras                                                   180
glusterfs-epel/7/x86_64GlusterFS is a clustered file-system capable of s   14
glusterfs-noarch-epel/7GlusterFS is a clustered file-system capable of s   2
openstack-kilo               OpenStack Kilo Repository                                    823
updates/7/x86_64          CentOS-7 - Updates                                                 1,225
注:由于软件包较多,这里就不一一列出,查看官方文档查看每个组建所需要的软件包。



在其他节点上删除原有的repo源,从控制节点上复制all-packages-source.repo源文件并刷新,这里以网络节点为例:
# rm -rf /etc/yum.repos.d/*
# scp 10.0.0.11:/etc/yum.repos.d/all-packages-source.repo /etc/yum.repos.d/
# yum clean all; yum repolist
...

repo id      repo name                     status
all-packages-source      all-packages-source            458
repolist: 458


2.5 网络时间服务(NTP)设置
2.5.1 在控制节点上配置NTP服务端
设置10.0.0.0/24网段可以对其进行时间同步:
# yum -y install ntp
# vi /etc/ntp.conf
...
restrict 10.0.0.0 mask 255.255.255.0 nomodify notrap
# systemctl start ntpd
# systemctl enable ntpd
可以通过ntpq -p命令查看与上层服务器时间是否同步。


2.5.2 在其他节点上配置NTP客户端
以网络节点为例:
# yum -y install ntp
# vi /etc/ntp.conf
server 10.0.0.11 iburst
# systemctl start ntpd
  # systemctl enable ntpd
注意,这里清除了其他上层NTP服务器。


2.6 SQL数据库
OpenStack很多服务通过SQL数据库来存储信息。这里使用MariaDB数据库,当然OpenStack服务也支持其他数据库服务,例如MySQL、PostgreSQL。


2.6.1 在控制节点上配置数据库服务端
1. 安装配置MariaDB
# yum -y install mariadb mariadb-server MySQL-python
# vi /etc/my.cnf

...
bind-address = 10.0.0.11
default-storage-engine = innodb
innodb_file_per_table
collation-server = utf8_general_ci
init-connect = 'SET NAMES utf8'
character-set-server = utf8


2. 完成安装
启动mariadb服务并设置为开机自启:
# systemctl start mariadb
# systemctl enable mariadb


加固数据库服务安全并设置数据库管理员root的密码:
# mysql_secure_installation
Set root password? Y
Remove anonymous users? Y
Disallow root login remotely? Y
Remove test database and access to it? Y
Reload privilege tables now? Y
注意,一定要移除数据空用户和空连接地址,否则在导入OpenStack各服务数据表时会报错。



2.7 消息队列服务(Message queue)
OpenStack通过消息队列服务来协调各服务之间的操作和状态信息。本示例将消息队列服务安装在控制节点上,OpenStack所支持的消息队列服务包括RabbitMQ、Qpid和ZeroMQ。这里将使用RabbiMQ作为消息队列服务。


2.7.1 安装和配置消息队列服务
# yum -y install rabbitmq-server
# systemctl start rabbitmq-server
# systemctl enable rabbitmq-server

  # rabbitmqctl add_user openstack iforgot
  Creating user "openstack" ...
  ...done.
  # rabbitmqctl set_permissions openstack ".*" ".*" ".*"
  Setting permissions for user "openstack" in vhost "/" ...
  ...done.


  
页: [1]
查看完整版本: Chapter 2 OpenStack基本环境设置