设为首页 收藏本站
查看: 1959|回复: 0

[经验分享] openstack juno 完全按照官方文档安装

[复制链接]
发表于 2015-10-11 07:42:41 | 显示全部楼层 |阅读模式
DSC0000.jpg http://pan.baidu.com/s/1hqiWODm

本文档旨在指导新手直接利用openstack juno的官方安装文档,一条条复制来安装openstack juno。会指出文档中的一些容易混淆的地方。
keystone安装:
1、安装keystone对数据库授权时候,不能直接copy,因为 IDENTIFIED BY 'KEYSTONE_DBPASS';密码
KEYSTONE_DBPASS前面有个空格。



DSC0001.jpg
再次验证keystone:
DSC0002.jpg
发现有报错,看keystone日志: DSC0003.jpg
很明显这里面就是报keystone数据库表token字段不存在,说明数据库没有创建成功,再次创建数据库 DSC0004.jpg
发现再次失败: DSC0005.jpg
看keystone日志: DSC0006.jpg

检查keystone配置文件:vim /etc/keystone/keystone.conf DSC0007.jpg
DSC0008.jpg
此处输出的token值需要与keystone.conf文件的ADMIN_TOKEN一致。
DSC0009.jpg
发现正常。
注意官方文档上面对OS_SERVICE_TOKEN进行了两次环境变量赋值(其实第二次是在举例用随机值):目的就是保证环境变量的值与keystone.conf的值保持一致即可。 DSC00010.jpg
提前:如果报数据库连接不上,则应该去排查下述配置是否正确: DSC00011.jpg 若再次连接不上,需要考虑数据库的权限问题(如下图),最简单的办法就是用该账号手动登录数据库:mysql -ukeystone -pKEYSTONE_DBPASS DSC00012.jpg DSC00013.jpg 第一次没成功,第二次成功了(第一次特意把keystone写成了ketone,当然不会成功,所以要尽量避免拼写错误) DSC00014.jpg

glance安装:

没有太多将的,直接复制粘贴就可: DSC00015.jpg
控制节点安装:

注意此处用了硬编码ip地址: DSC00016.jpg


systemctl start openstack-nova-api.service openstack-nova-cert.service openstack-nova-consoleauth.serviceopenstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service
如果上述命名提示不存在:则请yum install 对应包



计算节点compute安装:

本次试验中,采用all-in-one环境,因此controller和compute节点有些配置项会重复,请注意区分。
DSC00017.jpg
此处my_ip填写管理网络的ip地址。此处all-in-one即本机地址。

下图说明:如果你openstack环境使用的是支持虚拟化的物理机virt_type=kvm,否则使用qemu DSC00018.jpg
DSC00019.jpg

网络节点neutron安装(配置相应控制节点及对应的计算节点):

用户可以自行选择最新的neutron或者老版本的nova-network组件,本实验讲解neutron
下图复制有问题: DSC00020.jpg su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file/etc/neutron/plugins/ml2/ml2_conf.ini   upgrade juno" neutron

DSC00021.jpg
根据报错,直接跟踪到对应地方,显然我们复制粘贴有问题,被分行了。 DSC00022.jpg


修改后:
DSC00023.jpg
再次执行数据库同步命令,一切正常 DSC00024.jpg

systemctl restart openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service

网络节点neutron安装(配置网络节点):


yum install openstack-neutron openstack-neutron-ml2 openstack-neutronopen-vswitch -y DSC00025.jpg 上图设置的为隧道的ip地址,隧道是用来连接各计算节点进行通信(注:br-int是连接同一个计算节点上的各个vm之间通信)。如果有单独配置隧道网卡,则该ip为该网卡ip。本实验中all-in-one共用eth0,因此此处使用eth0 ip地址192.168.10.12。更多ovs 相关知识请参考博文:http://blog.iyunv.com/tantexian/article/details/44563255
DSC00026.jpg 配置网络时候,一定要注意将 SERVICE_TENANT_ID修改为对应的id值~


注意此处用了固定死的ip地址: DSC00027.jpg

DSC00028.jpg
DSC00029.jpg
Modular Layer 2 (ML2) plug-in 、Layer-3 (L3) agent、DHCP agent
具体干什么的?

The ML2 plug-in uses the OpenvSwitch (OVS) mechanism (agent) to build the virtual networking framework for instances.

The Layer-3(L3) agent provides routing services for virtual networks.

The DHCPagent provides DHCP services for virtual networks.

ML2使用open vSwich为虚拟机建立虚拟网络通信框架。L3代理为
ML2创建的虚拟网络提供路由转发等服务。
DHCP agent:用于为虚拟网络提供DHCP服务(DHCP== Dynamic Host Configuration Protocol,动态主机配置协议,自动分配ip地址

下图不能直接复制,直接复制要出错: DSC00030.jpg
下图注意替换为正确的网卡名:
DSC00031.jpg

下面操作会报错,因为,前面我们已经链接一次了: DSC00032.jpg DSC00033.jpg
systemctl enable neutron-openvswitch-agent.service neutron-l3-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service  neutron-ovs-cleanup.service
systemctl start neutron-openvswitch-agent.service neutron-l3-agent.service neutron-dhcp-agent.serviceneutron-metadata-agent.service

DSC00034.jpg

重启api服务,报错:systemctl restart openstack-nova-api.service
DSC00035.jpg

DSC00036.jpg
看到启动api出错,第一个想到的肯定是api的日志: DSC00037.jpg 此时发现日志目录下面还没有api.log日志文件。那么接下来可以用前台直接启动api方式,查看错误: DSC00038.jpg
定位到nova.conf 17行: DSC00039.jpg 从上很容易发现又是我们直接复制粘贴pdf换行符导致。(所以直接复制粘贴时候需要多注意下,本次演示主要是教大家如何盘查错误,所以会尽可能暴露一些错误出来)
发现还是启动不了: DSC00040.jpg 查看nova-api进程: DSC00041.jpg
发现已经启动了好几个进程了,kill掉重启: DSC00042.jpg 一切正常。
DSC00043.jpg 报已经存在,因为之前已添加过一次。
DSC00044.jpg

创建网络时候,如果不是特别清楚的,直接copy例子即可: DSC00045.jpg


下图是教你如何配置nova-network,即你可以选择使用neutron或者nova-network两个组件之一。如果上述配置了neutron则下面的nova-network不需要再配置。(推荐使用neutron) DSC00046.jpg
dashboard安装(配置horizon):

跟着一路配置到底,然后访问: DSC00047.jpg
出现不能访问。 DSC00048.jpg
DSC00049.jpg



http://free.yes81.net/yes81/view-11396.html



vim /etc/selinux/config然后重启机器。

结果还是不行。

最后发现是centos7的防火墙规则变了。 firewall-cmd --add-service=http  
看到上图,总算是能访问了,报了500错误,看日志。
tailf /var/log/httpd/error_log

显示报的有语法错误。
汗,报的又是复制的错误。修改正确,重启。
systemctl restart httpd.service memcached.service

至此openstack的基础组件安装完毕,大功告成,简单吧~~~~

第二部分:接下来,我们登录下openstack系统,熟悉一下:那么关于我们的登录用户名和密码在哪儿呢?回到keystone章节:
admin 为用户名, ADMIN_PASS为密码。试验下:成功登录。
注:创建虚拟机的前置条件为:1、有能用来创建虚拟机的镜像 2、有创建好的能分配给虚拟机的网络上述两条其实在之前镜像配置及网络配置章节都用命名创建好了(当前也可以在dashboard上面直接创建新的),此处直接用就可以了。






孵化时报错,(如果在调度之前报错很可能在控制部分(包含了调度代码)代码出错,如果在孵化中卡着,则很可能是计算节点compute代码出错)
此处很明白的知道是网络分配没有成功。查看日志:vim /var/log/nova/nova-compute.log
def _create_domain_and_network(self, context, xml, instance, network_info,                                   block_device_info=None, power_on=True,                                   reboot=False, vifs_already_plugged=False,                                   disk_info=None):        """Do required network setup and create domain."""        block_device_mapping = driver.block_device_info_get_mapping(            block_device_info)        for vol in block_device_mapping:            connection_info = vol['connection_info']            info = blockinfo.get_info_from_bdm(                   CONF.libvirt.virt_type, vol)            conf = self._connect_volume(connection_info, info)            # cache device_path in connection_info -- required by encryptors            if 'data' in connection_info:                connection_info['data']['device_path'] = conf.source_path                vol['connection_info'] = connection_info                vol.save(context)            if (not reboot and 'data' in connection_info and                    'volume_id' in connection_info['data']):                volume_id = connection_info['data']['volume_id']                encryption = encryptors.get_encryption_metadata(                    context, self._volume_api, volume_id, connection_info)                if encryption:                    encryptor = self._get_volume_encryptor(connection_info,                                                           encryption)                    encryptor.attach_volume(context, **encryption)        timeout = CONF.vif_plugging_timeout        if (self._conn_supports_start_paused and            utils.is_neutron() and not            vifs_already_plugged and power_on and timeout):            events = self._get_neutron_events(network_info)        else:            events = []        launch_flags = events and libvirt.VIR_DOMAIN_START_PAUSED or 0        domain = None        try:            with self.virtapi.wait_for_instance_event(                    instance, events, deadline=timeout,                    error_callback=self._neutron_failed_callback):                self.plug_vifs(instance, network_info)                self.firewall_driver.setup_basic_filtering(instance,                                                           network_info)                self.firewall_driver.prepare_instance_filter(instance,                                                             network_info)                with self._lxc_disk_handler(instance, block_device_info,                                            disk_info):                    domain = self._create_domain(                        xml, instance=instance,                        launch_flags=launch_flags,                        power_on=power_on)                self.firewall_driver.apply_instance_filter(instance,                                                           network_info)        except exception.VirtualInterfaceCreateException:            # Neutron reported failure and we didn't swallow it, so            # bail here            with excutils.save_and_reraise_exception():                if domain:                    domain.destroy()                self.cleanup(context, instance, network_info=network_info,                             block_device_info=block_device_info)        except eventlet.timeout.Timeout:            # We never heard from Neutron            LOG.warn(_LW('Timeout waiting for vif plugging callback for '                         'instance %(uuid)s'), {'uuid': instance['uuid']})            if CONF.vif_plugging_is_fatal:                if domain:                    domain.destroy()                self.cleanup(context, instance, network_info=network_info,                             block_device_info=block_device_info)                raiseexception.VirtualInterfaceCreateException()        # Resume only if domain has been paused        if launch_flags & libvirt.VIR_DOMAIN_START_PAUSED:            domain.resume()        return domain
第一个怀疑的肯定是网络服务是不是没有启动呢?检测下网络服务情况:neutron agent-list
发现dhcp down掉了~查看下是什么原因导致的dhcp挂掉: grep -rn ERROR /var/log/neutron/
vim /etc/neutron/dhcp_agent.ini发现上处粗心没有配置,配置打开,重启服务继续。 systemctl restart neutron-dhcp-agent.service






生成虚拟机成功!
         版权声明:欢迎大家转载,转载请注明出处blog.iyunv.com/tantexian。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-125236-1-1.html 上篇帖子: OpenStack Cinder服务启动过程中的资源加载和扩展源码解析之三 下篇帖子: OpenStack TripleO印象( by quqi99 )
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表