<html><body><div style="font-family: times new roman, new york, times, serif; font-size: 12pt; color: #000000"><div><br></div><div><p style="margin: 0px;" data-mce-style="margin: 0px;">Hi Sasha,</p><p style="margin: 0px;" data-mce-style="margin: 0px;">I have 3 nodes, 1 Undercloud, 1 Overcloud-Controller, 1 Overcloud-Compute</p></div><div><br></div><div>This is my undercloud.conf file:</div><div><p style="margin: 0px;" data-mce-style="margin: 0px;">image_path = .<br>local_ip = 192.0.2.1/24<br>local_interface = em2<br>masquerade_network = 192.0.2.0/24<br>dhcp_start = 192.0.2.5<br>dhcp_end = 192.0.2.24<br>network_cidr = 192.0.2.0/24<br>network_gateway = 192.0.2.1<br>inspection_interface = br-ctlplane<br>inspection_iprange = 192.0.2.100,192.0.2.120<br>inspection_runbench = false<br>undercloud_debug = true<br>enable_tuskar = false<br>enable_tempest = false</p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;">IP configuration for the Undercloud is as follows:</p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;">stack@undercloud ~]$ ip addr<br>1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN <br> link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br> inet 127.0.0.1/8 scope host lo<br> valid_lft forever preferred_lft forever<br> inet6 ::1/128 scope host <br> valid_lft forever preferred_lft forever<br>2: em1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000<br> link/ether 08:9e:01:50:8a:21 brd ff:ff:ff:ff:ff:ff<br> inet 10.1.34.81/24 brd 10.1.34.255 scope global em1<br> valid_lft forever preferred_lft forever<br> inet6 fe80::a9e:1ff:fe50:8a21/64 scope link <br> valid_lft forever preferred_lft forever<br>3: em2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master ovs-system state UP qlen 1000<br> link/ether 08:9e:01:50:8a:22 brd ff:ff:ff:ff:ff:ff<br>4: ovs-system: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN <br> link/ether 9a:a8:0f:ec:42:15 brd ff:ff:ff:ff:ff:ff<br>5: br-ctlplane: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN <br> link/ether 08:9e:01:50:8a:22 brd ff:ff:ff:ff:ff:ff<br> inet 192.0.2.1/24 brd 192.0.2.255 scope global br-ctlplane<br> valid_lft forever preferred_lft forever<br> inet6 fe80::a9e:1ff:fe50:8a22/64 scope link <br> valid_lft forever preferred_lft forever<br>6: br-int: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN <br> link/ether fa:85:ac:92:f5:41 brd ff:ff:ff:ff:ff:ff</p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;">And I attached two screenshots showing the boot stage for overcloud nodes</p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;">Is there a way to login the overcloud nodes to see their IP configuration? </p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;">Thanks</p></div><div><br></div><div><span name="x"></span><div><br></div><div style="font-family: Tahoma,Geneva,sans-serif; color: #cc0000; font-size: 9px;" data-mce-style="font-family: Tahoma,Geneva,sans-serif; color: #cc0000; font-size: 9px;"><strong>Esra ÇELİK</strong></div><div style="font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;" data-mce-style="font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;">TÜBİTAK BİLGEM</div><div style="margin-top: 4px; font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;" data-mce-style="margin-top: 4px; font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;"><span class="Object" id="OBJ_PREFIX_DWT517_com_zimbra_url"><a href="http://www.bilgem.tubitak.gov.tr" data-mce-href="http://www.bilgem.tubitak.gov.tr">www.bilgem.tubitak.gov.tr</a></span></div><div style="margin-top: 4px; font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;" data-mce-style="margin-top: 4px; font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;"><span class="Object"><a href="mailto:celik.esra@tubitak.gov.tr" data-mce-href="mailto:celik.esra@tubitak.gov.tr">celik.esra@tubitak.gov.tr</a></span></div><span name="x"></span><br></div><hr id="zwchr"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;" data-mce-style="border-left: 2px solid #1010FF; margin-left: 5px; padding-left: 5px; color: #000; font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>Kimden: </b>"Sasha Chuzhoy" <sasha@redhat.com><br><b>Kime: </b>"Esra Celik" <celik.esra@tubitak.gov.tr><br><b>Kk: </b>"Marius Cornea" <mcornea@redhat.com>, rdo-list@redhat.com<br><b>Gönderilenler: </b>15 Ekim Perşembe 2015 16:58:41<br><b>Konu: </b>Re: [Rdo-list] OverCloud deploy fails with error "No valid host was found"<br><div><br></div>Just my 2 cents.<br>Did you make sure that all the registered nodes are configured to boot off the right NIC first?<br>Can you watch the console and see what happens on the problematic nodes upon boot?<br><div><br></div>Best regards,<br>Sasha Chuzhoy.<br><div><br></div>----- Original Message -----<br>> From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> To: "Marius Cornea" <mcornea@redhat.com><br>> Cc: rdo-list@redhat.com<br>> Sent: Thursday, October 15, 2015 4:40:46 AM<br>> Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid host was found"<br>> <br>> <br>> Sorry for the late reply<br>> <br>> ironic node-show results are below. I have my nodes power on after<br>> introspection bulk start. And I get the following warning<br>> Introspection didn't finish for nodes<br>> 5b28998f-4dc8-42aa-8a51-521e20b1e5ed,6f35ac24-135d-4b99-8a24-fa2b731bd218<br>> <br>> Doesn't seem to be the same issue with<br>> https://www.redhat.com/archives/rdo-list/2015-October/msg00174.html<br>> <br>> <br>> <br>> <br>> [stack@undercloud ~]$ ironic node-list<br>> +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> | UUID | Name | Instance UUID | Power State | Provisioning State |<br>> | Maintenance |<br>> +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> | 5b28998f-4dc8-42aa-8a51-521e20b1e5ed | None | None | power on | available |<br>> | False |<br>> | 6f35ac24-135d-4b99-8a24-fa2b731bd218 | None | None | power on | available |<br>> | False |<br>> +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> <br>> <br>> [stack@undercloud ~]$ ironic node-show 5b28998f-4dc8-42aa-8a51-521e20b1e5ed<br>> +------------------------+-------------------------------------------------------------------------+<br>> | Property | Value |<br>> +------------------------+-------------------------------------------------------------------------+<br>> | target_power_state | None |<br>> | extra | {} |<br>> | last_error | None |<br>> | updated_at | 2015-10-15T08:26:42+00:00 |<br>> | maintenance_reason | None |<br>> | provision_state | available |<br>> | clean_step | {} |<br>> | uuid | 5b28998f-4dc8-42aa-8a51-521e20b1e5ed |<br>> | console_enabled | False |<br>> | target_provision_state | None |<br>> | provision_updated_at | 2015-10-15T08:26:42+00:00 |<br>> | maintenance | False |<br>> | inspection_started_at | None |<br>> | inspection_finished_at | None |<br>> | power_state | power on |<br>> | driver | pxe_ipmitool |<br>> | reservation | None |<br>> | properties | {u'memory_mb': u'8192', u'cpu_arch': u'x86_64', u'local_gb':<br>> | u'10', |<br>> | | u'cpus': u'4', u'capabilities': u'boot_option:local'} |<br>> | instance_uuid | None |<br>> | name | None |<br>> | driver_info | {u'ipmi_password': u'******', u'ipmi_address':<br>> | u'192.168.0.18', |<br>> | | u'ipmi_username': u'root', u'deploy_kernel': u'49a2c8d4-a283-4bdf-8d6f- |<br>> | | e83ae28da047', u'deploy_ramdisk': u'3db3dbed- |<br>> | | 0d88-4632-af98-8defb05ca6e2'} |<br>> | created_at | 2015-10-15T07:49:08+00:00 |<br>> | driver_internal_info | {u'clean_steps': None} |<br>> | chassis_uuid | |<br>> | instance_info | {} |<br>> +------------------------+-------------------------------------------------------------------------+<br>> <br>> <br>> [stack@undercloud ~]$ ironic node-show 6f35ac24-135d-4b99-8a24-fa2b731bd218<br>> +------------------------+-------------------------------------------------------------------------+<br>> | Property | Value |<br>> +------------------------+-------------------------------------------------------------------------+<br>> | target_power_state | None |<br>> | extra | {} |<br>> | last_error | None |<br>> | updated_at | 2015-10-15T08:26:42+00:00 |<br>> | maintenance_reason | None |<br>> | provision_state | available |<br>> | clean_step | {} |<br>> | uuid | 6f35ac24-135d-4b99-8a24-fa2b731bd218 |<br>> | console_enabled | False |<br>> | target_provision_state | None |<br>> | provision_updated_at | 2015-10-15T08:26:42+00:00 |<br>> | maintenance | False |<br>> | inspection_started_at | None |<br>> | inspection_finished_at | None |<br>> | power_state | power on |<br>> | driver | pxe_ipmitool |<br>> | reservation | None |<br>> | properties | {u'memory_mb': u'8192', u'cpu_arch': u'x86_64', u'local_gb':<br>> | u'100', |<br>> | | u'cpus': u'4', u'capabilities': u'boot_option:local'} |<br>> | instance_uuid | None |<br>> | name | None |<br>> | driver_info | {u'ipmi_password': u'******', u'ipmi_address':<br>> | u'192.168.0.19', |<br>> | | u'ipmi_username': u'root', u'deploy_kernel': u'49a2c8d4-a283-4bdf-8d6f- |<br>> | | e83ae28da047', u'deploy_ramdisk': u'3db3dbed- |<br>> | | 0d88-4632-af98-8defb05ca6e2'} |<br>> | created_at | 2015-10-15T07:49:08+00:00 |<br>> | driver_internal_info | {u'clean_steps': None} |<br>> | chassis_uuid | |<br>> | instance_info | {} |<br>> +------------------------+-------------------------------------------------------------------------+<br>> [stack@undercloud ~]$<br>> <br>> <br>> <br>> <br>> <br>> <br>> <br>> <br>> <br>> And below I added my history for the stack user. I don't think I am doing<br>> something other than<br>> https://repos.fedorapeople.org/repos/openstack-m/rdo-manager-docs/liberty<br>> doc<br>> <br>> <br>> <br>> <br>> <br>> <br>> <br>> 1 vi instackenv.json<br>> 2 sudo yum -y install epel-release<br>> 3 sudo curl -o /etc/yum.repos.d/delorean.repo<br>> http://trunk.rdoproject.org/centos7-liberty/current-passed-ci/delorean.repo<br>> 4 sudo curl -o /etc/yum.repos.d/delorean-current.repo<br>> http://trunk.rdoproject.org/centos7-liberty/current/delorean.repo<br>> 5 sudo sed -i 's/\[delorean\]/\[delorean-current\]/'<br>> /etc/yum.repos.d/delorean-current.repo<br>> 6 sudo /bin/bash -c "cat <<EOF>>/etc/yum.repos.d/delorean-current.repo<br>> <br>> includepkgs=diskimage-builder,openstack-heat,instack,instack-undercloud,openstack-ironic,openstack-ironic-inspector,os-cloud-config,os-net-config,python-ironic-inspector-client,python-tripleoclient,tripleo-common,openstack-tripleo-heat-templates,openstack-tripleo-image-elements,openstack-tuskar-ui-extras,openstack-puppet-modules<br>> EOF"<br>> 7 sudo curl -o /etc/yum.repos.d/delorean-deps.repo<br>> http://trunk.rdoproject.org/centos7-liberty/delorean-deps.repo<br>> 8 sudo yum -y install yum-plugin-priorities<br>> 9 sudo yum install -y python-tripleoclient<br>> 10 cp /usr/share/instack-undercloud/undercloud.conf.sample ~/undercloud.conf<br>> 11 vi undercloud.conf<br>> 12 export DIB_INSTALLTYPE_puppet_modules=source<br>> 13 openstack undercloud install<br>> 14 source stackrc<br>> 15 export NODE_DIST=centos7<br>> 16 export DIB_YUM_REPO_CONF="/etc/yum.repos.d/delorean.repo<br>> /etc/yum.repos.d/delorean-deps.repo"<br>> 17 export DIB_INSTALLTYPE_puppet_modules=source<br>> 18 openstack overcloud image build --all<br>> 19 ls<br>> 20 openstack overcloud image upload<br>> 21 openstack baremetal import --json instackenv.json<br>> 22 openstack baremetal configure boot<br>> 23 ironic node-list<br>> 24 openstack baremetal introspection bulk start<br>> 25 ironic node-list<br>> 26 ironic node-show 5b28998f-4dc8-42aa-8a51-521e20b1e5ed<br>> 27 ironic node-show 6f35ac24-135d-4b99-8a24-fa2b731bd218<br>> 28 history<br>> <br>> <br>> <br>> <br>> <br>> <br>> <br>> Thanks<br>> <br>> <br>> <br>> Esra ÇELİK<br>> TÜBİTAK BİLGEM<br>> www.bilgem.tubitak.gov.tr<br>> celik.esra@tubitak.gov.tr<br>> <br>> <br>> Kimden: "Marius Cornea" <mcornea@redhat.com><br>> Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> Kk: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> Gönderilenler: 14 Ekim Çarşamba 2015 19:40:07<br>> Konu: Re: [Rdo-list] OverCloud deploy fails with error "No valid host was<br>> found"<br>> <br>> Can you do ironic node-show for your ironic nodes and post the results? Also<br>> check the following suggestion if you're experiencing the same issue:<br>> https://www.redhat.com/archives/rdo-list/2015-October/msg00174.html<br>> <br>> ----- Original Message -----<br>> > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > To: "Marius Cornea" <mcornea@redhat.com><br>> > Cc: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > Sent: Wednesday, October 14, 2015 3:22:20 PM<br>> > Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid host<br>> > was found"<br>> > <br>> > <br>> > <br>> > Well in the early stage of the introspection I can see Client IP of nodes<br>> > (screenshot attached). But then I see continuous ironic-python-agent errors<br>> > (screenshot-2 attached). Errors repeat after time out.. And the nodes are<br>> > not powered off.<br>> > <br>> > Seems like I am stuck in introspection stage..<br>> > <br>> > I can use ipmitool command to successfully power on/off the nodes<br>> > <br>> > <br>> > <br>> > [stack@undercloud ~]$ ipmitool -I lanplus -H 192.168.0.19 -L ADMINISTRATOR<br>> > -U<br>> > root -R 3 -N 5 -P <password> power status<br>> > Chassis Power is on<br>> > <br>> > <br>> > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root -P<br>> > <password> chassis power status<br>> > Chassis Power is on<br>> > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root -P<br>> > <password> chassis power off<br>> > Chassis Power Control: Down/Off<br>> > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root -P<br>> > <password> chassis power status<br>> > Chassis Power is off<br>> > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root -P<br>> > <password> chassis power on<br>> > Chassis Power Control: Up/On<br>> > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root -P<br>> > <password> chassis power status<br>> > Chassis Power is on<br>> > <br>> > <br>> > Esra ÇELİK<br>> > TÜBİTAK BİLGEM<br>> > www.bilgem.tubitak.gov.tr<br>> > celik.esra@tubitak.gov.tr<br>> > <br>> > <br>> > ----- Orijinal Mesaj -----<br>> > <br>> > Kimden: "Marius Cornea" <mcornea@redhat.com><br>> > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > Kk: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > Gönderilenler: 14 Ekim Çarşamba 2015 14:59:30<br>> > Konu: Re: [Rdo-list] OverCloud deploy fails with error "No valid host was<br>> > found"<br>> > <br>> > <br>> > ----- Original Message -----<br>> > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > To: "Marius Cornea" <mcornea@redhat.com><br>> > > Cc: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > Sent: Wednesday, October 14, 2015 10:49:01 AM<br>> > > Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid host<br>> > > was found"<br>> > > <br>> > > <br>> > > Well today I started with re-installing the OS and nothing seems wrong<br>> > > with<br>> > > undercloud installation, then;<br>> > > <br>> > > <br>> > > <br>> > > <br>> > > <br>> > > <br>> > > I see an error during image build<br>> > > <br>> > > <br>> > > [stack@undercloud ~]$ openstack overcloud image build --all<br>> > > ...<br>> > > a lot of log<br>> > > ...<br>> > > ++ cat /etc/dib_dracut_drivers<br>> > > + dracut -N --install ' curl partprobe lsblk targetcli tail head awk<br>> > > ifconfig<br>> > > cut expr route ping nc wget tftp grep' --kernel-cmdline 'rd.shell<br>> > > rd.debug<br>> > > rd.neednet=1 rd.driver.pre=ahci' --include /var/tmp/image.YVhwuArQ/mnt/ /<br>> > > --kver 3.10.0-229.14.1.el7.x86_64 --add-drivers ' virtio virtio_net<br>> > > virtio_blk target_core_mod iscsi_target_mod target_core_iblock<br>> > > target_core_file target_core_pscsi configfs' -o 'dash plymouth'<br>> > > /tmp/ramdisk<br>> > > cat: write error: Broken pipe<br>> > > + cp /boot/vmlinuz-3.10.0-229.14.1.el7.x86_64 /tmp/kernel<br>> > > + chmod o+r /tmp/kernel<br>> > > + trap EXIT<br>> > > + target_tag=99-build-dracut-ramdisk<br>> > > + date +%s.%N<br>> > > + output '99-build-dracut-ramdisk completed'<br>> > > ...<br>> > > a lot of log<br>> > > ...<br>> > <br>> > You can ignore that afaik, if you end up having all the required images it<br>> > should be ok.<br>> > <br>> > > <br>> > > Then, during introspection stage I see ironic-python-agent errors on<br>> > > nodes<br>> > > (screenshot attached) and the following warnings<br>> > > <br>> > <br>> > That looks odd. Is it showing up in the early stage of the introspection?<br>> > At<br>> > some point it should receive an address by DHCP and the Network is<br>> > unreachable error should disappear. Does the introspection complete and the<br>> > nodes are turned off?<br>> > <br>> > > <br>> > > <br>> > > [root@localhost ~]# journalctl -fl -u openstack-ironic-conductor.service<br>> > > |<br>> > > grep -i "warning\|error"<br>> > > Oct 14 10:30:12 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > 10:30:12.119<br>> > > 619 WARNING oslo_config.cfg [req-eccf8cb5-6e93-4d8f-9a05-0e8c8d2aab7b ]<br>> > > Option "http_url" from group "pxe" is deprecated. Use option "http_url"<br>> > > from<br>> > > group "deploy".<br>> > > Oct 14 10:30:12 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > 10:30:12.119<br>> > > 619 WARNING oslo_config.cfg [req-eccf8cb5-6e93-4d8f-9a05-0e8c8d2aab7b ]<br>> > > Option "http_root" from group "pxe" is deprecated. Use option "http_root"<br>> > > from group "deploy".<br>> > > <br>> > > <br>> > > Before deployment ironic node-list:<br>> > > <br>> > <br>> > This is odd too as I'm expecting the nodes to be powered off before running<br>> > deployment.<br>> > <br>> > > <br>> > > <br>> > > [stack@undercloud ~]$ ironic node-list<br>> > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > | UUID | Name | Instance UUID | Power State | Provisioning State |<br>> > > | Maintenance |<br>> > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > | acfc1bb4-469d-479a-af70-c0bdd669b32d | None | None | power on |<br>> > > | available<br>> > > | | <br>> > > | False |<br>> > > | b5811c06-d5d1-41f1-87b3-2fd55ae63553 | None | None | power on |<br>> > > | available<br>> > > | | <br>> > > | False |<br>> > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > <br>> > > During deployment I get following errors<br>> > > <br>> > > [root@localhost ~]# journalctl -fl -u openstack-ironic-conductor.service<br>> > > |<br>> > > grep -i "warning\|error"<br>> > > Oct 14 11:29:01 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > 11:29:01.739<br>> > > 619 ERROR ironic.drivers.modules.ipmitool [-] IPMI Error while attempting<br>> > > "ipmitool -I lanplus -H 192.168.0.19 -L ADMINISTRATOR -U root -R 3 -N 5<br>> > > -f<br>> > > /tmp/tmpSCKHIv power status"for node<br>> > > b5811c06-d5d1-41f1-87b3-2fd55ae63553.<br>> > > Error: Unexpected error while running command.<br>> > > Oct 14 11:29:01 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > 11:29:01.739<br>> > > 619 WARNING ironic.drivers.modules.ipmitool [-] IPMI power status failed<br>> > > for<br>> > > node b5811c06-d5d1-41f1-87b3-2fd55ae63553 with error: Unexpected error<br>> > > while<br>> > > running command.<br>> > > Oct 14 11:29:01 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > 11:29:01.740<br>> > > 619 WARNING ironic.conductor.manager [-] During sync_power_state, could<br>> > > not<br>> > > get power state for node b5811c06-d5d1-41f1-87b3-2fd55ae63553, attempt 1<br>> > > of<br>> > > 3. Error: IPMI call failed: power status..<br>> > > <br>> > <br>> > This looks like an ipmi error, can you try to manually run commands using<br>> > the<br>> > ipmitool and see if you get any success? It's also worth filing a bug with<br>> > details such as the ipmitool version, server model, drac firmware version.<br>> > <br>> > > <br>> > > <br>> > > <br>> > > <br>> > > <br>> > > Thanks a lot<br>> > > <br>> > > <br>> > > <br>> > > ----- Orijinal Mesaj -----<br>> > > <br>> > > Kimden: "Marius Cornea" <mcornea@redhat.com><br>> > > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > Kk: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > Gönderilenler: 13 Ekim Salı 2015 21:16:14<br>> > > Konu: Re: Yan: Re: [Rdo-list] OverCloud deploy fails with error "No valid<br>> > > host was found"<br>> > > <br>> > > <br>> > > ----- Original Message -----<br>> > > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > To: "Marius Cornea" <mcornea@redhat.com><br>> > > > Cc: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > > Sent: Tuesday, October 13, 2015 5:02:09 PM<br>> > > > Subject: Yan: Re: [Rdo-list] OverCloud deploy fails with error "No<br>> > > > valid<br>> > > > host was found"<br>> > > > <br>> > > > During deployment they are powering on and deploying the images. I see<br>> > > > lot<br>> > > > of<br>> > > > connection error messages about ironic-python-agent but ignore them as<br>> > > > mentioned here<br>> > > > (https://www.redhat.com/archives/rdo-list/2015-October/msg00052.html)<br>> > > <br>> > > That was referring to the introspection stage. From what I can tell you<br>> > > are<br>> > > experiencing issues during deployment as it fails to provision the nova<br>> > > instances, can you check if during that stage the nodes get powered on?<br>> > > <br>> > > Make sure that before overcloud deploy the ironic nodes are available for<br>> > > provisioning (ironic node-list and check the provisioning state column).<br>> > > Also check that you didn't miss any step in the docs in regards to kernel<br>> > > and ramdisk assignment, introspection, flavor creation(so it matches the<br>> > > nodes resources)<br>> > > https://repos.fedorapeople.org/repos/openstack-m/rdo-manager-docs/liberty/basic_deployment/basic_deployment_cli.html<br>> > > <br>> > > <br>> > > > In instackenv.json file I do not need to add the undercloud node, or do<br>> > > > I?<br>> > > <br>> > > No, the nodes details should be enough.<br>> > > <br>> > > > And which log files should I watch during deployment?<br>> > > <br>> > > You can check the openstack-ironic-conductor logs(journalctl -fl -u<br>> > > openstack-ironic-conductor.service) and the logs in /var/log/nova.<br>> > > <br>> > > > Thanks<br>> > > > Esra<br>> > > > <br>> > > > <br>> > > > ----- Orijinal Mesaj -----Kimden: Marius Cornea<br>> > > > <mcornea@redhat.com>Kime:<br>> > > > Esra Celik <celik.esra@tubitak.gov.tr>Kk: Ignacio Bravo<br>> > > > <ibravo@ltgfederal.com>, rdo-list@redhat.comG&ouml;nderilenler: Tue, 13<br>> > > > Oct<br>> > > > 2015 17:25:00 +0300 (EEST)Konu: Re: [Rdo-list] OverCloud deploy fails<br>> > > > with<br>> > > > error "No valid host was found"<br>> > > > <br>> > > > ----- Original Message -----> From: "Esra Celik"<br>> > > > <celik.esra@tubitak.gov.tr>><br>> > > > To: "Ignacio Bravo" <ibravo@ltgfederal.com>> Cc: rdo-list@redhat.com><br>> > > > Sent:<br>> > > > Tuesday, October 13, 2015 3:47:57 PM> Subject: Re: [Rdo-list] OverCloud<br>> > > > deploy fails with error "No valid host was found"> > > > Actually I<br>> > > > re-installed the OS for Undercloud before deploying. However I did> not<br>> > > > re-install the OS in Compute and Controller nodes.. I will reinstall><br>> > > > basic<br>> > > > OS for them too, and retry..<br>> > > > <br>> > > > You don't need to reinstall the OS on the controller and compute, they<br>> > > > will<br>> > > > get the image served by the undercloud. I'd recommend that during<br>> > > > deployment<br>> > > > you watch the servers console and make sure they get powered on, pxe<br>> > > > boot,<br>> > > > and actually get the image deployed.<br>> > > > <br>> > > > Thanks<br>> > > > <br>> > > > > Thanks> > > > Esra &Ccedil;ELİK> T&Uuml;BİTAK BİLGEM><br>> > > > > www.bilgem.tubitak.gov.tr> celik.esra@tubitak.gov.tr> > > Kimden:<br>> > > > > "Ignacio<br>> > > > > Bravo" <ibravo@ltgfederal.com>> Kime: "Esra Celik"<br>> > > > > <celik.esra@tubitak.gov.tr>> Kk: rdo-list@redhat.com><br>> > > > > G&ouml;nderilenler:<br>> > > > > 13 Ekim Salı 2015 16:36:06> Konu: Re: [Rdo-list] OverCloud deploy<br>> > > > > fails<br>> > > > > with error "No valid host was> found"> > Esra,> > I encountered the<br>> > > > > same<br>> > > > > problem after deleting the stack and re-deploying.> > It turns out<br>> > > > > that<br>> > > > > 'heat stack-delete overcloud&rsquo; does remove the nodes from><br>> > > > > &lsquo;nova list&rsquo; and one would assume that the baremetal<br>> > > > > servers<br>> > > > > are now ready to> be used for the next stack, but when redeploying, I<br>> > > > > get<br>> > > > > the same message of> not enough hosts available.> > You can look into<br>> > > > > the<br>> > > > > nova logs and it mentions something about &lsquo;node xxx is> already<br>> > > > > associated with UUID yyyy&rsquo; and &lsquo;I tried 3 times and<br>> > > > > I&rsquo;m<br>> > > > > giving up&rsquo;.> The issue is that the UUID yyyy belonged to a<br>> > > > > prior<br>> > > > > unsuccessful deployment.> > I&rsquo;m now redeploying the basic OS to<br>> > > > > start from scratch again.> > IB> > __> Ignacio Bravo> LTG Federal,<br>> > > > > Inc><br>> > > > > www.ltgfederal.com> Office: (703) 951-7760> > > > On Oct 13, 2015, at<br>> > > > > 9:25<br>> > > > > AM, Esra Celik < celik.esra@tubitak.gov.tr > wrote:> > > Hi all,> ><br>> > > > > OverCloud deploy fails with error "No valid host was found"> ><br>> > > > > [stack@undercloud ~]$ openstack overcloud deploy --templates><br>> > > > > Deploying<br>> > > > > templates in the directory><br>> > > > > /usr/share/openstack-tripleo-heat-templates><br>> > > > > Stack failed with status: Resource CREATE failed: resources.Compute:><br>> > > > > ResourceInError: resources[0].resources.NovaCompute: Went to status<br>> > > > > ERROR><br>> > > > > due to "Message: No valid host was found. There are not enough hosts><br>> > > > > available., Code: 500"> Heat Stack create failed.> > Here are some<br>> > > > > logs:><br>> > > > > > Every 2.0s: heat resource-list -n 5 overcloud | grep -v COMPLETE<br>> > > > > > Tue<br>> > > > > > Oct<br>> > > > > 13> 16:18:17 2015> ><br>> > > > > +-------------------------------------------+-----------------------------------------------+---------------------------------------------------+--------------------+---------------------+---------------------------------------------------------------------------------+><br>> > > > > | resource_name | physical_resource_id | resource_type |<br>> > > > > | resource_status<br>> > > > > |> | updated_time | stack_name |><br>> > > > > +-------------------------------------------+-----------------------------------------------+---------------------------------------------------+--------------------+---------------------+---------------------------------------------------------------------------------+><br>> > > > > | Compute | e33b6b1e-8740-4ded-ad7f-720617a03393 |<br>> > > > > | OS::Heat::ResourceGroup<br>> > > > > |> | CREATE_FAILED | 2015-10-13T10:20:36 | overcloud |> | Controller<br>> > > > > |> | |<br>> > > > > 116c57ff-debb-4c12-92e1-e4163b67dc17 | OS::Heat::ResourceGroup> | |<br>> > > > > CREATE_FAILED | 2015-10-13T10:20:36 | overcloud |> | 0 |<br>> > > > > 342a9023-de8f-4b5b-b3ec-498d99b56dc4 | OS::TripleO::Controller |> |<br>> > > > > CREATE_IN_PROGRESS | 2015-10-13T10:20:52 |> |<br>> > > > > overcloud-Controller-45bbw24xxhxs |> | 0 |<br>> > > > > e420a7bd-86f8-4cc1-b6a0-5ba8d1412453 | OS::TripleO::Compute |> |<br>> > > > > CREATE_FAILED | 2015-10-13T10:20:54 | overcloud-Compute-vqk632ysg64r<br>> > > > > |><br>> > > > > | <br>> > > > > Controller | 2e9ac712-0566-49b5-958f-c3e151bb24d7 | OS::Nova::Server<br>> > > > > |><br>> > > > > | <br>> > > > > CREATE_IN_PROGRESS | 2015-10-13T10:20:54 |> |<br>> > > > > overcloud-Controller-45bbw24xxhxs-0-3vyhjiak2rsk |> | NovaCompute |<br>> > > > > 96efee56-81cb-46af-beef-84f4a3af761a | OS::Nova::Server |> |<br>> > > > > CREATE_FAILED<br>> > > > > | 2015-10-13T10:20:56 |> |<br>> > > > > | overcloud-Compute-vqk632ysg64r-0-32nalzkofmef<br>> > > > > |> <br>> > > > > +-------------------------------------------+-----------------------------------------------+---------------------------------------------------+--------------------+---------------------+---------------------------------------------------------------------------------+><br>> > > > > > > [stack@undercloud ~]$ heat resource-show overcloud Compute><br>> > > > > +------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+><br>> > > > > | Property | Value |><br>> > > > > +------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+><br>> > > > > | attributes | { |> | | "attributes": null, |> | | "refs": null |> |<br>> > > > > | |<br>> > > > > | }<br>> > > > > |> | creation_time | 2015-10-13T10:20:36 |> | description | |> |<br>> > > > > |> | links<br>> > > > > |> | |> <br>> > > > > | <br>> > > > > http://192.0.2.1:8004/v1/3c5942d315bc445c8f1f7b32bd445de5/stacks/overcloud/620ada83-fb7d-4769-b1e8-431cfbb37d70/resources/Compute><br>> > > > > | (self) |> | |<br>> > > > > http://192.0.2.1:8004/v1/3c5942d315bc445c8f1f7b32bd445de5/stacks/overcloud/620ada83-fb7d-4769-b1e8-431cfbb37d70><br>> > > > > | | (stack) |> | |<br>> > > > > http://192.0.2.1:8004/v1/3c5942d315bc445c8f1f7b32bd445de5/stacks/overcloud-Compute-vqk632ysg64r/e33b6b1e-8740-4ded-ad7f-720617a03393><br>> > > > > | | (nested) |> | logical_resource_id | Compute |> |<br>> > > > > | | physical_resource_id<br>> > > > > | e33b6b1e-8740-4ded-ad7f-720617a03393 |> | required_by |<br>> > > > > ComputeAllNodesDeployment |> | | ComputeNodesPostDeployment |> | |<br>> > > > > ComputeCephDeployment |> | | ComputeAllNodesValidationDeployment |> |<br>> > > > > |<br>> > > > > AllNodesExtraConfig |> | | allNodesConfig |> | resource_name |<br>> > > > > Compute<br>> > > > > |> <br>> > > > > | resource_status | CREATE_FAILED |> | resource_status_reason |<br>> > > > > resources.Compute: ResourceInError:> |<br>> > > > > resources[0].resources.NovaCompute:<br>> > > > > Went to status ERROR due to "Message:> | No valid host was found.<br>> > > > > There<br>> > > > > are not enough hosts available., Code: 500"> | |> | resource_type |<br>> > > > > OS::Heat::ResourceGroup |> | updated_time | 2015-10-13T10:20:36 |><br>> > > > > +------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+><br>> > > > > > > > This is my instackenv.json for 1 compute and 1 control node to<br>> > > > > > > > be<br>> > > > > deployed.> > {> "nodes": [> {> "pm_type":"pxe_ipmitool",> "mac":[><br>> > > > > "08:9E:01:58:CC:A1"> ],> "cpu":"4",> "memory":"8192",> "disk":"10",><br>> > > > > "arch":"x86_64",> "pm_user":"root",> "pm_password":"calvin",><br>> > > > > "pm_addr":"192.168.0.18"> },> {> "pm_type":"pxe_ipmitool",> "mac":[><br>> > > > > "08:9E:01:58:D0:3D"> ],> "cpu":"4",> "memory":"8192",> "disk":"100",><br>> > > > > "arch":"x86_64",> "pm_user":"root",> "pm_password":"calvin",><br>> > > > > "pm_addr":"192.168.0.19"> }> ]> }> > > Any ideas? Thanks in advance><br>> > > > > ><br>> > > > > > <br>> > > > > Esra &Ccedil;ELİK> T&Uuml;BİTAK BİLGEM> www.bilgem.tubitak.gov.tr><br>> > > > > celik.esra@tubitak.gov.tr> ><br>> > > > > _______________________________________________> Rdo-list mailing<br>> > > > > list><br>> > > > > Rdo-list@redhat.com><br>> > > > > https://www.redhat.com/mailman/listinfo/rdo-list><br>> > > > > > <br>> > > > > To unsubscribe: rdo-list-unsubscribe@redhat.com> > > ><br>> > > > > _______________________________________________> Rdo-list mailing<br>> > > > > list><br>> > > > > Rdo-list@redhat.com><br>> > > > > https://www.redhat.com/mailman/listinfo/rdo-list><br>> > > > > > <br>> > > > > To unsubscribe: rdo-list-unsubscribe@redhat.com<br>> > > > <br>> > > <br>> > > <br>> > <br>> > <br>> <br>> <br>> _______________________________________________<br>> Rdo-list mailing list<br>> Rdo-list@redhat.com<br>> https://www.redhat.com/mailman/listinfo/rdo-list<br>> <br>> To unsubscribe: rdo-list-unsubscribe@redhat.com<br></blockquote><div><br></div></div></body></html>