<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none;"><!-- P {margin-top:0;margin-bottom:0;} --></style>
</head>
<body dir="ltr">
<div id="divtagdefaultwrapper" style="font-size:12pt;color:#000000;font-family:Calibri,Helvetica,sans-serif;" dir="ltr">
<p style="margin-top:0;margin-bottom:0">Hi,</p>
<p style="margin-top:0;margin-bottom:0"><br>
</p>
<p style="margin-top:0;margin-bottom:0">you can put tomcat in debug mode and run tomcat if I remember without calling the service which forks it into the background, but actually display it in the console, that way you can see what is happening when you run
 a job, also in /usr/share/rhn/config-defaults/rhn_taskomatic, there are options there that you can increase the level of logging from what I can see. I cant remember clearly but there was a post that I was going through a couple of weeks ago about troubleshooting
 I can't remember the address tbh!</p>
<p style="margin-top:0;margin-bottom:0"><br>
</p>
<div id="Signature">
<div id="divtagdefaultwrapper" dir="ltr" style="font-size: 12pt; color: rgb(0, 0, 0); font-family: Calibri, Helvetica, sans-serif, EmojiFont, "Apple Color Emoji", "Segoe UI Emoji", NotoColorEmoji, "Segoe UI Symbol", "Android Emoji", EmojiSymbols;">
<span id="ms-rterangepaste-start"></span>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#595959"><span style="font-size:10pt">Regards,</span></font></span></font></div>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" color="#595959"><b>Paul Dias</b></font></span></font></div>
<div align="justify" style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#595959"><span style="font-size:10pt">6</span></font><font face="Arial,sans-serif" size="-1" color="#595959"><sup>th</sup></font><font face="Arial,sans-serif" size="2" color="#595959"><span style="font-size:10pt"> Floor,
 8 Boundary Road</span></font></span></font></div>
<div align="justify" style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#595959"><span style="font-size:10pt">Newlands</span></font></span></font></div>
<div align="justify" style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#595959"><span style="font-size:10pt">Cape Town</span></font></span></font></div>
<div align="justify" style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#595959"><span style="font-size:10pt">7700</span></font></span></font></div>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#555559"><span style="font-size:10pt">T: +27 (0) 21 681 3149</span></font></span></font></div>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#555559"><span style="font-size:10pt"><br>
</span></font></span></font></div>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#E31F2B"><span style="font-size:10pt"><b>Meet your future today.</b></span></font></span></font></div>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><font face="Arial,sans-serif" size="2" color="#E31F2B"><span style="font-size:10pt"><b> </b></span></font></span></font></div>
<div style="color:rgb(33,33,33); font-size:15px; margin:0px"><font face="Calibri,sans-serif" size="2"><span style="font-size:11pt"><img class="EmojiInsert" width="163" height="75" alt="BCX" id="OWAPstImg248180" style="" data-outlook-trace="F:0|T:1" src="cid:image014.jpg@01D3CDAC.49088340"></span></font></div>
<span id="ms-rterangepaste-end"></span></div>
</div>
<br>
<br>
<div style="color: rgb(0, 0, 0);">
<hr style="display:inline-block;width:98%" tabindex="-1">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> Gerald Vogt <vogt@spamcop.net><br>
<b>Sent:</b> Friday, 13 July 2018 8:56 AM<br>
<b>To:</b> spacewalk-list@redhat.com<br>
<b>Subject:</b> Re: [Spacewalk-list] Taskomatic runs indefinitely without ever generating repodata</font>
<div> </div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">Anyone any idea how to troubleshoot this? Any debug logging we could
<br>
enable to find out what's really going on and where it's hanging?<br>
<br>
Thanks,<br>
<br>
Gerald<br>
<br>
On 06.07.18 09:20, Gerald Vogt wrote:<br>
> On 05.07.18 21:30, Matt Moldvan wrote:<br>
>> Is there anything interesting <br>
>> in /var/log/rhn/tasko/sat/channel-repodata-bunch?  Do you have any hung <br>
> <br>
> There is currently only a single file with this content:<br>
> <br>
> spacewalk:channel-repodata-bunch(996)# ls -l<br>
> total 4<br>
> -rw-r--r--. 1 root root 130 Jul  2 08:13 channel-repodata_15408487_out<br>
> spacewalk:channel-repodata-bunch(997)# cat channel-repodata_15408487_out<br>
> 2018-07-02 08:13:10,793 [DefaultQuartzScheduler_Worker-8] INFO <br>
> com.redhat.rhn.taskomatic.task.ChannelRepodata  - In the queue: 4<br>
> <br>
>> reposync processes?  Any lingering Postgres locks that might be an issue?<br>
> <br>
> No reposync processes. All progres processes say "idle", so I guess <br>
> there are no locks. Or how do I check for lingering locks?<br>
> <br>
>> It's odd that the run would only take 1 second, unless something is <br>
>> wrong with the database or it's data...<br>
>><br>
>> What do you see from a spacewalk-sql command like below?<br>
> <br>
> I see all the channels:<br>
> <br>
>                 label               |                      <br>
> name                      |           modified            |        <br>
> last_synced<br>
> -----------------------------------+------------------------------------------------+-------------------------------+----------------------------
<br>
> <br>
>   icinga-epel7-x86_64               | ICINGA stable release for epel-7 <br>
> (x86_64)      | 2016-02-15 10:07:59.822942+01 | 2018-07-06 02:30:55.482+02<br>
>   epel7-centos7-x86_64              | EPEL 7 for CentOS 7 <br>
> (x86_64)                   | 2014-07-21 08:16:26.367135+02 | 2018-07-06 <br>
> 04:01:52.148+02<br>
>   centos6-x86_64-extras             | CentOS 6 Extras <br>
> (x86_64)                       | 2012-08-23 06:46:05.145629+02 | <br>
> 2018-06-21 10:25:26.104+02<br>
>   grafana-epe7-x86_64               | Grafana stable release for epel-7 <br>
> (x86_64)     | 2016-05-06 08:29:49.308149+02 | 2018-06-21 04:58:15.022+02<br>
>   spacewalk26-client-centos6-x86_64 | Spacewalk Client 2.6 for CentOS 6 <br>
> (x86_64)     | 2017-04-25 13:44:49.266738+02 | 2018-06-21 10:41:07.369+02<br>
>   globus-el6-x86_64                 | Globus Toolkit 6 <br>
> (el6)                         | 2016-05-13 15:23:31.807011+02 | <br>
> 2018-07-06 03:34:49.95+02<br>
>   internet2                         | perfSONAR RPM <br>
> Repository                       | 2017-06-27 06:56:33.675378+02 | <br>
> 2018-06-22 10:24:41.702+02<br>
>   postgresql94-centos6-x86_64       | PostgreSQL 9.4 for CentOS 6 <br>
> (x86_64)           | 2015-01-28 14:09:41.856451+01 | 2018-06-21 <br>
> 10:42:01.413+02<br>
>   spacewalk26-server-centos6-x86_64 | Spacewalk Server 2.6 for CentOS 6 <br>
> (x86_64)     | 2017-04-25 13:39:38.250769+02 | 2018-06-21 10:36:17.46+02<br>
>   centos7-x86_64-fasttrack          | CentOS 7 FastTrack <br>
> (x86_64)                    | 2014-07-21 08:16:26.017642+02 | 2018-06-21 <br>
> 10:26:29.571+02<br>
>   spacewalk26-client-centos7-x86_64 | Spacewalk Client 2.6 for CentOS 7 <br>
> (x86_64)     | 2017-04-25 13:46:00.107344+02 | 2018-06-22 10:22:28.484+02<br>
>   centos7-x86_64-centosplus         | CentOS 7 Plus <br>
> (x86_64)                         | 2014-07-21 08:16:25.467309+02 | <br>
> 2018-06-21 10:25:19.884+02<br>
>   centos6-x86_64-centosplus         | CentOS 6 Plus <br>
> (x86_64)                         | 2012-08-23 07:18:00.349338+02 | <br>
> 2018-06-21 10:36:04.08+02<br>
>   docker-ce-centos7-x86_64          | Docker CE Stable for CentOS 7 <br>
> (x86_64)         | 2017-09-28 12:52:45.858354+02 | 2018-07-06 <br>
> 04:30:05.442+02<br>
>   postgresql10-centos7-x86_64       | PostgreSQL 10 for CentOS 7 <br>
> (x86_64)            | 2018-02-12 14:48:14.617235+01 | 2018-02-12 <br>
> 15:06:16.464+01<br>
>   bareos162-centos7-x86_64          | Bareos 16.2 for CentOS 7 <br>
> (x86_64)              | 2017-09-26 14:37:16.533773+02 | 2018-06-21 <br>
> 04:59:21.954+02<br>
>   docker-ce-edge-centos7-x86_64     | Docker CE Edge for CentOS 7 <br>
> (x86_64)           | 2017-12-29 09:58:14.581069+01 | 2018-06-21 <br>
> 04:59:39.796+02<br>
>   beegfs6-centos7-x86_64            | BeeGFS 6 for CentOS 7 <br>
> (x86_64)                 | 2018-03-19 14:08:08.389588+01 | 2018-06-21 <br>
> 04:59:43.132+02<br>
>   icinga-epel6-x86_64               | ICINGA stable release for epel-6 <br>
> (x86_64)      | 2018-01-15 15:41:31.138875+01 | 2018-07-06 02:30:28.142+02<br>
>   openstack-pike-centos7            | OpenStack Pike for CentOS <br>
> 7                    | 2017-10-05 09:10:22.575224+02 | 2018-06-21 <br>
> 05:36:35.43+02<br>
>   globus-el7-x86_64                 | Globus Toolkit 6 <br>
> (el7)                         | 2017-09-28 13:00:07.32028+02  | <br>
> 2018-07-06 03:31:22.806+02<br>
>   postgresql10-centos6-x86_64       | PostgreSQL 10 for CentOS 6 <br>
> (x86_64)            | 2018-02-12 14:48:55.970013+01 | 2018-07-06 <br>
> 04:02:04.03+02<br>
>   ceph-jewel-centos7                | CentOS 7 Ceph Jewel <br>
> (x86_64)                   | 2018-02-12 12:15:28.8976+01   | 2018-07-06 <br>
> 05:30:07.085+02<br>
>   spacewalk28-server-centos6-x86_64 | Spacewalk Server 2.8 for CentOS 6 <br>
> (x86_64)     | 2018-06-22 18:05:55.190988+02 | 2018-07-06 06:18:15.016+02<br>
>   spacewalk28-client-centos7-x86_64 | Spacewalk Client 2.8 for CentOS 7 <br>
> (x86_64)     | 2018-06-22 18:05:55.575963+02 | 2018-07-06 06:18:22.41+02<br>
>   puppet5-el7-x86_64                | Puppet 5 for EL 7 <br>
> (x86_64)                     | 2018-03-28 14:20:52.254978+02 | <br>
> 2018-06-21 06:01:31.357+02<br>
>   centos7-qemu-ev                   | CentOS 7 QEMU EV <br>
> (x86_64)                      | 2018-02-12 12:15:06.116673+01 | <br>
> 2018-07-06 05:30:12.078+02<br>
>   bareos172-centos7-x86_64          | Bareos 17.2 for CentOS 7 <br>
> (x86_64)              | 2018-05-08 14:18:56.708206+02 | 2018-06-22 <br>
> 10:24:48.431+02<br>
>   openstack-queens-centos7          | OpenStack Queens for CentOS <br>
> 7                  | 2018-03-28 13:08:27.607498+02 | 2018-07-06 <br>
> 05:30:44.123+02<br>
>   elrepo-centos7                    | ELRepo for CentOS <br>
> 7                            | 2017-09-18 12:03:42.302442+02 | <br>
> 2018-06-21 05:01:30.303+02<br>
>   spacewalk28-client-centos6-x86_64 | Spacewalk Client 2.8 for CentOS 6 <br>
> (x86_64)     | 2018-06-22 18:05:53.475193+02 | 2018-07-06 06:18:07.158+02<br>
>   centos7-x86_64-extras             | CentOS 7 Extras <br>
> (x86_64)                       | 2014-07-21 08:16:25.841121+02 | <br>
> 2018-06-21 10:26:27.879+02<br>
>   internet2-web100_kernel           | perfSONAR Web100 Kernel RPM <br>
> Repository         | 2017-06-27 06:57:03.825602+02 | 2018-06-21 <br>
> 10:24:50.96+02<br>
>   centos6-x86_64-updates            | CentOS 6 Updates <br>
> (x86_64)                      | 2012-08-23 06:46:05.264195+02 | <br>
> 2018-06-21 10:34:24.866+02<br>
>   centos7-x86_64-updates            | CentOS 7 Updates <br>
> (x86_64)                      | 2014-07-21 08:16:26.196397+02 | <br>
> 2018-07-02 09:48:02.273+02<br>
>   centos6-x86_64-fasttrack          | CentOS 6 FastTrack <br>
> (x86_64)                    | 2012-08-23 06:46:05.205228+02 | 2018-06-22 <br>
> 10:24:43.51+02<br>
>   postgresql92-centos6-x86_64       | PostgreSQL 9.2 for CentOS 6 <br>
> (x86_64)           | 2012-09-12 08:15:27.194188+02 | 2018-07-06 <br>
> 03:47:12.311+02<br>
>   epel6-centos6-x86_64              | EPEL 6 for CentOS 6 <br>
> (x86_64)                   | 2012-08-23 06:46:30.597753+02 | 2018-07-06 <br>
> 03:55:48.834+02<br>
>   jpackage5.0-generic               | JPackage 5.0 for <br>
> generic                       | 2014-07-02 10:32:24.985979+02 | <br>
> 2018-07-06 03:46:46.084+02<br>
>   hp-spp-rhel-7                     | HP Software Delivery Repository <br>
> for SPP RHEL 7 | 2015-04-16 14:18:33.041249+02 | 2018-07-06 05:31:01.633+02<br>
>   owncloud-centos7-noarch           | ownCloud for CentOS <br>
> 7                          | 2015-01-28 13:53:41.415573+01 | 2018-06-21 <br>
> 05:36:40.901+02<br>
>   centos7-x86_64-scl                | CentOS 7 SCL <br>
> (x86_64)                          | 2016-04-15 11:26:29.042925+02 | <br>
> 2018-06-21 05:14:49.359+02<br>
>   postgresql96-centos6-x86_64       | PostgreSQL 9.6 for CentOS 6 <br>
> (x86_64)           | 2017-02-09 15:31:54.632728+01 | 2018-06-21 <br>
> 05:00:39.353+02<br>
>   postgresql96-centos7-x86_64       | PostgreSQL 9.6 for CentOS 7 <br>
> (x86_64)           | 2017-02-09 15:35:13.136001+01 | 2018-07-06 <br>
> 04:30:19.645+02<br>
>   centos6-x86_64                    | CentOS 6 <br>
> (x86_64)                              | 2012-08-23 06:46:04.610089+02 | <br>
> 2018-07-05 22:03:30.089+02<br>
>   centos7-x86_64                    | CentOS 7 <br>
> (x86_64)                              | 2014-07-21 08:16:24.172395+02 | <br>
> 2018-07-05 22:08:45.242+02<br>
> <br>
> -Gerald<br>
> <br>
>><br>
>> echo 'select label,name,modified,last_synced from rhnchannel' | sudo <br>
>> spacewalk-sql -i<br>
>><br>
>> label | name | modified|last_synced<br>
>><br>
>> ----------------------------------+----------------------------------+-------------------------------+----------------------------
<br>
>><br>
>><br>
>> ovirt-x86_64-stable-6-nonprod| ovirt-x86_64-stable-6-nonprod| <br>
>> 2015-09-14 13:46:44.147134-05 |<br>
>><br>
>> extras7-x86_64-nonprod | extras7-x86_64-nonprod | 2017-11-06 <br>
>> 10:26:30.011283-06 |<br>
>><br>
>> centos7-x86_64-all | centos7-x86_64-all | 2015-11-11 <br>
>> 08:50:58.831234-06 | 2018-07-05 11:01:08.857-05<br>
>><br>
>> perl-5.16.x-all| perl-5.16.x-all| 2015-09-11 13:25:15.002198-05 | <br>
>> 2015-09-11 13:29:21.361-05<br>
>><br>
>> ovirt-x86_64-stable-6| ovirt-x86_64-stable-6| 2015-09-14 13:30:55.172-05|<br>
>><br>
>> ovirt-x86_64-stable-6-prod | ovirt-x86_64-stable-6-prod | 2015-09-14 <br>
>> 13:48:06.637063-05 |<br>
>><br>
>> other6-x86_64-all| other6-x86_64-all| 2015-07-28 09:20:38.156104-05 |<br>
>><br>
>> epel5-x86_64-all | epel5-x86_64-all | 2016-10-04 18:20:44.846312-05 | <br>
>> 2017-04-17 12:57:36.859-05<br>
>><br>
>> passenger6-x86_64-prod | passenger6-x86_64-prod | 2016-04-22 <br>
>> 14:35:45.395518-05 |<br>
>><br>
>> perl-5.16.x-nonprod| perl-5.16.x-nonprod| 2015-09-11 13:27:32.261063-05 |<br>
>><br>
>> perl-5.16.x-prod | perl-5.16.x-prod | 2015-09-11 13:26:40.584715-05 | <br>
>> 2015-09-11 13:29:38.537-05<br>
>><br>
>> other6-x86_64-nonprod| other6-x86_64-nonprod| 2015-07-23 <br>
>> 15:00:03.733479-05 |<br>
>><br>
>> other6-x86_64-prod | other6-x86_64-prod | 2015-07-21 15:10:48.719528-05 |<br>
>><br>
>> epel5-x86_64-prod| epel5-x86_64-prod| 2016-10-04 18:25:38.655383-05 |<br>
>><br>
>> passenger6-x86_64-all| passenger6-x86_64-all| 2016-04-20 <br>
>> 11:37:19.002493-05 | 2016-04-20 11:58:42.312-05<br>
>><br>
>> docker7-x86_64-prod| docker7-x86_64-prod| 2017-08-03 11:42:08.474496-05 |<br>
>><br>
>> centos5-x86_64-nonprod | centos5-x86_64-nonprod | 2015-06-22 <br>
>> 16:16:17.372799-05 |<br>
>><br>
>> other7-x86_64-nonprod| other7-x86_64-nonprod| 2016-07-14 <br>
>> 13:03:10.320136-05 |<br>
>><br>
>> mongo3.2-centos6-x86_64-all| mongo3.2-centos6-x86_64-all| 2016-08-22 <br>
>> 12:21:40.722182-05 | 2018-07-01 12:27:03.019-05<br>
>><br>
>> centos5-x86_64-prod| centos5-x86_64-prod| 2015-06-22 16:20:41.474486-05 |<br>
>><br>
>> passenger6-x86_64-nonprod| passenger6-x86_64-nonprod| 2016-04-20 <br>
>> 12:29:24.677227-05 |<br>
>><br>
>> other7-x86_64-prod | other7-x86_64-prod | 2016-07-14 13:03:47.284295-05 |<br>
>><br>
>> cloudera5.7-x86_64-nonprod | cloudera5.7-x86_64-nonprod | 2016-05-09 <br>
>> 12:10:16.496626-05 | 2016-06-20 13:11:20.62-05<br>
>><br>
>> epel5-x86_64-nonprod | epel5-x86_64-nonprod | 2016-10-04 <br>
>> 18:25:09.844486-05 |<br>
>><br>
>> epel6-x86_64-prod| epel6-x86_64-prod| 2016-03-18 11:52:45.9199-05 | <br>
>> 2016-08-23 05:07:37.967-05<br>
>><br>
>> spacewalk6-client-all| spacewalk6-client-all| 2017-05-02 <br>
>> 20:53:38.867018-05 | 2018-07-01 22:02:11.386-05<br>
>><br>
>> docker7-x86_64-nonprod | docker7-x86_64-nonprod | 2017-04-07 <br>
>> 15:13:44.158973-05 |<br>
>><br>
>> mongo3.2-centos6-x86_64-nonprod| mongo3.2-centos6-x86_64-nonprod| <br>
>> 2016-08-22 12:34:18.095059-05 |<br>
>><br>
>> mongo3.2-centos6-x86_64-prod | mongo3.2-centos6-x86_64-prod | <br>
>> 2016-08-22 12:42:19.161165-05 |<br>
>><br>
>> local6-x86_64-all| local6-x86_64-all| 2015-09-30 08:55:37.657412-05 | <br>
>> 2016-04-19 07:00:23.632-05<br>
>><br>
>> centos5-x86_64-all | centos5-x86_64-all | 2015-06-22 <br>
>> 15:20:22.085465-05 | 2017-04-17 13:09:39.635-05<br>
>><br>
>> spacewalk5-client-nonprod| spacewalk5-client-nonprod| 2017-05-02 <br>
>> 20:53:20.430795-05 |<br>
>><br>
>> spacewalk5-client-prod | spacewalk5-client-prod | 2017-05-02 <br>
>> 20:53:28.980968-05 |<br>
>><br>
>> spacewalk5-client-all| spacewalk5-client-all| 2017-05-02 <br>
>> 20:53:08.276664-05 | 2018-07-05 10:10:11.665-05<br>
>><br>
>> spacewalk7-client-prod | spacewalk7-client-prod | 2017-05-02 <br>
>> 20:54:32.321635-05 | 2018-07-05 11:01:14.499-05<br>
>><br>
>> epel6-x86_64-nonprod | epel6-x86_64-nonprod | 2016-03-18 <br>
>> 11:52:14.915108-05 | 2018-07-05 10:10:08.774-05<br>
>><br>
>> centos7-x86_64-prod| centos7-x86_64-prod| 2015-11-11 09:02:06.69758-06|<br>
>><br>
>> puppetlabs6-x86_64-prod| puppetlabs6-x86_64-prod| 2016-04-22 <br>
>> 13:46:22.233841-05 | 2018-07-01 13:30:47.635-05<br>
>><br>
>> puppetlabs5-x86_64-nonprod | puppetlabs5-x86_64-nonprod | 2018-03-26 <br>
>> 15:21:59.007749-05 | 2018-07-01 13:00:03.401-05<br>
>><br>
>> puppetlabs5-x86_64-prod| puppetlabs5-x86_64-prod| 2018-03-26 <br>
>> 15:24:23.86552-05| 2018-07-01 13:30:39.025-05<br>
>><br>
>> puppetlabs5-x86_64-all | puppetlabs5-x86_64-all | 2018-03-26 <br>
>> 15:19:04.647981-05 | 2018-07-01 13:31:25.065-05<br>
>><br>
>> other5-x86_64-all| other5-x86_64-all| 2015-08-10 14:16:01.092867-05 |<br>
>><br>
>> other5-x86_64-nonprod| other5-x86_64-nonprod| 2015-08-10 <br>
>> 14:18:05.114541-05 |<br>
>><br>
>> other5-x86_64-prod | other5-x86_64-prod | 2015-08-10 14:19:03.728982-05 |<br>
>><br>
>> centos6-x86_64-nonprod | centos6-x86_64-nonprod | 2015-06-22 <br>
>> 16:24:07.137207-05 |<br>
>><br>
>> centos6-x86_64-prod| centos6-x86_64-prod| 2015-06-22 16:28:51.324002-05 |<br>
>><br>
>> extras7-x86_64-all | extras7-x86_64-all | 2017-08-16 09:13:26.8122-05 <br>
>> | 2018-07-05 10:05:10.626-05<br>
>><br>
>> centos6-x86_64-gitlab-ce-nonprod | centos6-x86_64-gitlab-ce-nonprod | <br>
>> 2017-04-17 11:43:36.609036-05 | 2018-07-05 10:04:57.277-05<br>
>><br>
>> spacewalk7-server-all| spacewalk7-server-all| 2017-03-28 <br>
>> 15:22:31.851414-05 | 2018-07-05 11:11:31.564-05<br>
>><br>
>> local5-x86_64-all| local5-x86_64-all| 2016-02-24 12:19:36.791459-06 |<br>
>><br>
>> local5-x86_64-nonprod| local5-x86_64-nonprod| 2016-02-24 <br>
>> 12:20:19.404008-06 |<br>
>><br>
>> local5-x86_64-prod | local5-x86_64-prod | 2016-02-24 12:20:45.098532-06 |<br>
>><br>
>> local6-x86_64-nonprod| local6-x86_64-nonprod| 2016-08-22 <br>
>> 20:49:56.7376-05 |<br>
>><br>
>> local7-x86_64-all| local7-x86_64-all| 2016-07-14 13:00:32.511851-05 |<br>
>><br>
>> local7-x86_64-nonprod| local7-x86_64-nonprod| 2016-07-14 <br>
>> 13:02:06.932169-05 |<br>
>><br>
>> local7-x86_64-prod | local7-x86_64-prod | 2016-07-14 13:02:38.496912-05 |<br>
>><br>
>> puppetlabs6-x86_64-all | puppetlabs6-x86_64-all | 2016-04-20 <br>
>> 08:27:56.026914-05 | 2018-07-01 13:30:36.771-05<br>
>><br>
>> spacewalk7-client-nonprod| spacewalk7-client-nonprod| 2017-05-02 <br>
>> 20:54:22.659512-05 | 2018-07-05 11:10:25.009-05<br>
>><br>
>> docker7-x86_64-all | docker7-x86_64-all | 2017-03-22 <br>
>> 12:50:15.332561-05 | 2018-07-05 13:00:02.988-05<br>
>><br>
>> spacewalk7-client-all| spacewalk7-client-all| 2017-05-02 <br>
>> 20:54:13.5076-05 | 2018-07-05 10:04:59.748-05<br>
>><br>
>> local6-x86_64-prod | local6-x86_64-prod | 2015-09-30 08:59:12.679727-05 |<br>
>><br>
>> centos6-x86_64-gitlab-ee-nonprod | centos6-x86_64-gitlab-ee-nonprod | <br>
>> 2016-04-14 11:39:01.432444-05 | 2018-07-05 11:12:20.525-05<br>
>><br>
>> mysqltools6-x86_64-all | mysqltools6-x86_64-all | 2016-03-17 <br>
>> 12:41:37.44854-05| 2018-07-05 12:00:02.319-05<br>
>><br>
>> mysqltools6-x86_64-nonprod | mysqltools6-x86_64-nonprod | 2016-03-17 <br>
>> 12:58:35.036373-05 |<br>
>><br>
>> mysqltools6-x86_64-prod| mysqltools6-x86_64-prod| 2016-03-17 <br>
>> 12:59:10.969162-05 |<br>
>><br>
>> spacewalk7-server-nonprod| spacewalk7-server-nonprod| 2017-03-28 <br>
>> 15:23:02.210349-05 | 2018-07-05 11:12:47.471-05<br>
>><br>
>> spacewalk7-server-prod | spacewalk7-server-prod | 2017-03-28 <br>
>> 15:23:29.309042-05 | 2017-05-02 20:56:45.247-05<br>
>><br>
>> epel7-x86_64-prod| epel7-x86_64-prod| 2016-03-22 09:48:38.060213-05 | <br>
>> 2018-07-05 09:57:25.861-05<br>
>><br>
>> puppetlabs6-x86_64-nonprod | puppetlabs6-x86_64-nonprod | 2016-04-20 <br>
>> 12:28:55.337125-05 | 2018-07-01 13:30:43.362-05<br>
>><br>
>> newrelic-noarch-nover| newrelic-noarch-nover| 2016-10-13 <br>
>> 13:54:38.621333-05 | 2016-10-13 14:09:41.778-05<br>
>><br>
>> other7-x86_64-all| other7-x86_64-all| 2016-07-14 13:01:25.848215-05 | <br>
>> 2018-07-05 14:00:03.714-05<br>
>><br>
>> spacewalk6-client-nonprod| spacewalk6-client-nonprod| 2017-05-02 <br>
>> 20:53:50.507298-05 |<br>
>><br>
>> spacewalk6-client-prod | spacewalk6-client-prod | 2017-05-02 <br>
>> 20:54:00.685324-05 |<br>
>><br>
>> spacewalk6-server-all| spacewalk6-server-all| 2018-06-22 <br>
>> 23:11:30.637054-05 | 2018-07-05 11:01:11.543-05<br>
>><br>
>> puppetlabs7-x86_64-prod| puppetlabs7-x86_64-prod| 2016-07-14 <br>
>> 13:29:04.67033-05| 2018-07-01 13:31:29.425-05<br>
>><br>
>> spacewalk6-server-nonprod| spacewalk6-server-nonprod| 2018-06-22 <br>
>> 23:17:20.660409-05 |<br>
>><br>
>> spacewalk6-server-prod | spacewalk6-server-prod | 2018-06-22 <br>
>> 23:18:02.738869-05 |<br>
>><br>
>> puppetlabs7-x86_64-nonprod | puppetlabs7-x86_64-nonprod | 2016-07-14 <br>
>> 13:28:34.475051-05 | 2018-07-01 13:16:25.948-05<br>
>><br>
>> epel6-x86_64-all | epel6-x86_64-all | 2016-03-18 11:50:17.587171-05 | <br>
>> 2018-07-05 11:07:42.644-05<br>
>><br>
>> centos6-x86_64-gitlab-ee | centos6-x86_64-gitlab-ee | 2015-12-24 <br>
>> 13:21:10.493684-06 | 2018-07-05 11:08:30.039-05<br>
>><br>
>> puppetlabs7-x86_64-all | puppetlabs7-x86_64-all | 2016-07-14 <br>
>> 12:54:59.388232-05 | 2018-07-01 13:32:02.745-05<br>
>><br>
>> epel7-x86_64-nonprod | epel7-x86_64-nonprod | 2016-03-22 <br>
>> 09:47:34.668867-05 | 2017-04-21 11:08:24.573-05<br>
>><br>
>> centos6-x86_64-all | centos6-x86_64-all | 2015-06-22 <br>
>> 15:19:13.053429-05 | 2018-07-02 01:12:57.768-05<br>
>><br>
>> epel7-x86_64-all | epel7-x86_64-all | 2016-03-22 09:44:48.748142-05 | <br>
>> 2018-07-05 09:11:28.553-05<br>
>><br>
>> centos7-x86_64-nonprod | centos7-x86_64-nonprod | 2015-10-21 <br>
>> 22:02:28.107902-05 |<br>
>><br>
>> (85 rows)<br>
>><br>
>><br>
>> On Thu, Jul 5, 2018 at 11:48 AM Gerald Vogt <vogt@spamcop.net <br>
>> <<a href="mailto:vogt@spamcop.net" id="LPlnk659334" class="OWAAutoLink" previewremoved="true">mailto:vogt@spamcop.net</a>>> wrote:<br>
>><br>
>>     On 05.07.18 16:05, Matt Moldvan wrote:<br>
>>      > How is the server utilization with respect to disk I/O (something<br>
>>     like<br>
>>      > iotop or htop might help here)?  Maybe there is something else<br>
>>     blocking<br>
>><br>
>>     My server is basically idle. 99% idle, little disk i/o. It doesn't<br>
>>     do anything really.<br>
>><br>
>>      > and the server doesn't have enough resources to complete.  Have <br>
>> you<br>
>>      > tried running an strace against the running process?<br>
>><br>
>>     If it doesn't have enough resources shouldn't there be an exception?<br>
>><br>
>>     For me, it looks more like something doesn't make it into the<br>
>>     database and thus into the persistent state. For instance, I now<br>
>>     have the repodata task at "RUNNING" for three days:<br>
>><br>
>>     Channel Repodata:       2018-07-02 08:13:10 CEST        RUNNING<br>
>><br>
>>     The log file shows this regarding repodata:<br>
>><br>
>>      > # fgrep -i repodata rhn_taskomatic_daemon.log<br>
>>      > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02 08:13:10,584<br>
>>     [Thread-12] INFO  com.redhat.rhn.taskomatic.TaskoQuartzHelper - Job<br>
>>     single-channel-repodata-bunch-0 scheduled succesfully.<br>
>>      > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02 08:13:10,636<br>
>>     [DefaultQuartzScheduler_Worker-8] INFO     <br>
>> com.redhat.rhn.taskomatic.TaskoJob -<br>
>>     single-channel-repodata-bunch-0: bunch channel-repodata-bunch STARTED<br>
>>      > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02 08:13:10,651<br>
>>     [DefaultQuartzScheduler_Worker-8] DEBUG<br>
>>     com.redhat.rhn.taskomatic.TaskoJob -<br>
>>     single-channel-repodata-bunch-0: task channel-repodata started<br>
>>      > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02 08:13:10,793<br>
>>     [DefaultQuartzScheduler_Worker-8] INFO     <br>
>> com.redhat.rhn.taskomatic.task.ChannelRepodata - In the queue: 4<br>
>>      > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02 08:13:11,102<br>
>>     [DefaultQuartzScheduler_Worker-8] DEBUG<br>
>>     com.redhat.rhn.taskomatic.TaskoJob - channel-repodata<br>
>>     (single-channel-repodata-bunch-0) ... running<br>
>>      > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02 08:13:11,103<br>
>>     [DefaultQuartzScheduler_Worker-8] INFO     <br>
>> com.redhat.rhn.taskomatic.TaskoJob -<br>
>>     single-channel-repodata-bunch-0: bunch channel-repodata-bunch <br>
>> FINISHED<br>
>><br>
>>     So according to the logs the repodata bunch has finished. According<br>
>>     to the web interface it has not. Nothing has been updated in<br>
>>     /var/cache/rhn/repodata/ either. In addition, those four channels<br>
>>     which were still updated haven't been updated either now.<br>
>><br>
>>     Thanks,<br>
>><br>
>>     Gerald<br>
>><br>
>><br>
>><br>
>>      ><br>
>>      > I also had an (well, many) issue(s) with our Spacewalk server <br>
>> before<br>
>>      > disabling snapshots in /etc/rhn/rhn.conf.  I also increased the<br>
>>     number<br>
>>      > of workers and max repodata work items:<br>
>>      ><br>
>>      > # system snapshots enabled<br>
>>      > enable_snapshots = 0<br>
>>      > ...<br>
>>      > taskomatic.maxmemory=6144<br>
>>      > taskomatic.errata_cache_max_work_items = 500<br>
>>      > taskomatic.channel_repodata_max_work_items = 50<br>
>>      > taskomatic.channel_repodata_workers = 5<br>
>>      ><br>
>>      ><br>
>>      ><br>
>>      > On Thu, Jul 5, 2018 at 4:38 AM Florence Savary<br>
>>      > <florence.savary.fs@gmail.com<br>
>>     <<a href="mailto:florence.savary.fs@gmail.com" id="LPlnk153911" class="OWAAutoLink" previewremoved="true">mailto:florence.savary.fs@gmail.com</a>><br>
>>     <<a href="" id="LPlnk604037" class="OWAAutoLink" previewremoved="true"></a>mailto:florence.savary.fs@gmail.com<br>
>>     <<a href="mailto:florence.savary.fs@gmail.com" id="LPlnk111810" class="OWAAutoLink" previewremoved="true">mailto:florence.savary.fs@gmail.com</a>>>> wrote:<br>
>>      ><br>
>>      >     Hello,<br>
>>      ><br>
>>      >     Thanks for sharing your configuration files. They differ very<br>
>>     little<br>
>>      >     from mine. I just changed the number of workers in rhn.conf,<br>
>>     but it<br>
>>      >     didn't change anything.<br>
>>      ><br>
>>      >     I deleted all the channels clones not used by any system and<br>
>>     dating<br>
>>      >     back from before May 2018, in order to lower the number of<br>
>>     channels<br>
>>      >     in the queue. There were 127 channels in the queue before <br>
>> these<br>
>>      >     deletion (indicated<br>
>>     in /var/log/rhn/rhn_taskomatic_daemon.log), and<br>
>>      >     there are 361 of them now ... I must admit I'm confused... I<br>
>>     hoped<br>
>>      >     it would reduce the number of channels to process and thus <br>
>> "help"<br>
>>      >     taskomatic, but obviously I was wrong.<br>
>>      ><br>
>>      >     I also noticed that the repodata regeneration seems to work<br>
>>     fine for<br>
>>      >     existing channels that are not clones, but it is not working<br>
>>     for new<br>
>>      >     channels that are not clones (and not working for new <br>
>> clones but<br>
>>      >     nothing new here).<br>
>>      ><br>
>>      >     Has anyone got any other idea (even the tiniest) ?<br>
>>      ><br>
>>      >     Regards,<br>
>>      >     Florence<br>
>>      ><br>
>>      ><br>
>>      >     2018-07-04 15:21 GMT+02:00 Paul Dias - BCX<br>
>>     <paul.dias@bcx.co.za <<a href="mailto:paul.dias@bcx.co.za" id="LPlnk725502" class="OWAAutoLink" previewremoved="true">mailto:paul.dias@bcx.co.za</a>><br>
>>      >     <<a href="" id="LPlnk649378" class="OWAAutoLink" previewremoved="true"></a>mailto:paul.dias@bcx.co.za <<a href="mailto:paul.dias@bcx.co.za" id="LPlnk722365" class="OWAAutoLink" previewremoved="true">mailto:paul.dias@bcx.co.za</a>>>>:<br>
>>      ><br>
>>      >         Hi,____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         Let me post my settings that I have on my CentOS6 server.<br>
>>     Can’t<br>
>>      >         remember but I have one or two others, but his is from<br>
>>     the top<br>
>>      >         of my head.____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         /etc/rhn/rhn.conf____<br>
>>      ><br>
>>      >         # Added by paul dias increase number of taskomatic workers<br>
>>      >         20180620____<br>
>>      ><br>
>>      >         taskomatic.channel_repodata_workers = 3____<br>
>>      ><br>
>>      >         taskomatic.java.maxmemory=4096____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         /etc/sysconfig/tomcat6____<br>
>>      ><br>
>>      >         JAVA_OPTS="-ea -Xms256m -Xmx512m -Djava.awt.headless=true<br>
>>      >         -Dorg.xml.sax.driver=org.apache.xerces.parsers.SAXParser<br>
>>      >         -Dorg.apache.tomcat.util.http.Parameters.MAX_COUNT=1024<br>
>>      >         -XX:MaxNewSize=256 -XX:-UseConcMarkSweepGC<br>
>>      >         -Dnet.sf.ehcache.skipUpdateCheck=true<br>
>>      >      <br>
>>  -Djavax.sql.DataSource.Factory=org.apache.commons.dbcp.BasicDataSourceFactory"____
<br>
>><br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         /etc/tomcat/server.xml____<br>
>>      ><br>
>>      >         <!-- Define an AJP 1.3 Connector on port 8009 -->____<br>
>>      ><br>
>>      >              <Connector port="8009" protocol="AJP/1.3"<br>
>>      >         redirectPort="8443" URIEncoding="UTF-8" <br>
>> address="127.0.0.1"<br>
>>      >         maxThreads="256" connectionTimeout="20000"/>____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >              <Connector port="8009" protocol="AJP/1.3"<br>
>>      >         redirectPort="8443" URIEncoding="UTF-8" address="::1"<br>
>>      >         maxThreads="256" connectionTimeout="20000"/>____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >        <br>
>>  /usr/share/rhn/config-defaults/rhn_taskomatic_daemon.conf____<br>
>>      ><br>
>>      >         # Initial Java Heap Size (in MB)____<br>
>>      ><br>
>>      >         wrapper.java.initmemory=512____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         # Maximum Java Heap Size (in MB)____<br>
>>      ><br>
>>      >         wrapper.java.maxmemory=1512____<br>
>>      ><br>
>>      >         # Adjusted by paul 20180620____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         wrapper.ping.timeout=0____<br>
>>      ><br>
>>      >         # # adjusted paul dias 20180620____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         Regards,____<br>
>>      ><br>
>>      >         *Paul Dias____*<br>
>>      ><br>
>>      >         Technical Consultant____<br>
>>      ><br>
>>      >         6^th Floor, 8 Boundary Road____<br>
>>      ><br>
>>      >         Newlands____<br>
>>      ><br>
>>      >         Cape Town____<br>
>>      ><br>
>>      >         7700____<br>
>>      ><br>
>>      >         T: +27 (0) 21 681 3149 <tel:+27%2021%20681%203149><br>
>>     <tel:+27%2021%20681%203149>____<br>
>>      ><br>
>>      >         *Meet your future today.____*<br>
>>      ><br>
>>      >         *__ __*<br>
>>      ><br>
>>      >         __BCX______<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __Social-facebook<br>
>>      >         <<a href="https://www.facebook.com/BCXworld" id="LPlnk947182" class="OWAAutoLink" previewremoved="true">https://www.facebook.com/BCXworld</a>>____Social-twitter<br>
>>      >         <<a href="https://twitter.com/BCXworld" id="LPlnk463857" class="OWAAutoLink" previewremoved="true">https://twitter.com/BCXworld</a>>____Social-linkdin<br>
>>      >         <<a href="https://za.linkedin.com/BCX" id="LPlnk17438" class="OWAAutoLink" previewremoved="true">https://za.linkedin.com/BCX</a>>____Social-youtube<br>
>>      >         <<a href="https://www.youtube.com/BCXworld" id="LPlnk332523" class="OWAAutoLink" previewremoved="true">https://www.youtube.com/BCXworld</a>>______<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         This e-mail is subject to the BCX electronic<br>
>>     communication legal<br>
>>      >         notice, available at:<br>
>>      > <a href="https://www.bcx.co.za/disclaimers____" id="LPlnk838200" class="OWAAutoLink" previewremoved="true">
https://www.bcx.co.za/disclaimers____</a><br>
>>      ><br>
>>      >         /__ __/<br>
>>      ><br>
>>      >         /__ __/<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         *From:*Paul Dias - BCX<br>
>>      >         *Sent:* 02 July 2018 06:53 PM<br>
>>      ><br>
>>      ><br>
>>      >         *To:* spacewalk-list@redhat.com<br>
>>     <<a href="mailto:spacewalk-list@redhat.com" id="LPlnk568094" class="OWAAutoLink" previewremoved="true">mailto:spacewalk-list@redhat.com</a>> <<a href="" id="LPlnk806537" class="OWAAutoLink" previewremoved="true"></a>mailto:spacewalk-list@redhat.com<br>
>>     <<a href="mailto:spacewalk-list@redhat.com" id="LPlnk799306" class="OWAAutoLink" previewremoved="true">mailto:spacewalk-list@redhat.com</a>>><br>
>>      >         *Subject:* Re: [Spacewalk-list] Taskomatic runs <br>
>> indefinitely<br>
>>      >         without ever generating repodata____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         What I have noticed, if you use<br>
>>      >         "spacecmd softchannel_generateyumcache <channel name>"<br>
>>     and then<br>
>>      >         go to tasks and run single repodata bunch, you will see<br>
>>     it will<br>
>>      >         actually start and generate your channel cache for you <br>
>> on the<br>
>>      >         channel you used the spacecmd  on, this works every <br>
>> time.____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         But yes the task logs just show repodata bunch running<br>
>>     forever.____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         Regards,____<br>
>>      ><br>
>>      >         *Paul Dias*____<br>
>>      ><br>
>>      >         6^th  Floor, 8 Boundary Road____<br>
>>      ><br>
>>      >         Newlands____<br>
>>      ><br>
>>      >         Cape Town____<br>
>>      ><br>
>>      >         7700____<br>
>>      ><br>
>>      >         T: +27 (0) 21 681 3149 <tel:+27%2021%20681%203149><br>
>>     <tel:+27%2021%20681%203149>____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >         *Meet your future today.*____<br>
>>      ><br>
>>      >         **____<br>
>>      ><br>
>>      >         BCX____<br>
>>      ><br>
>>      >         __ __<br>
>>      ><br>
>>      >      <br>
>>  ------------------------------------------------------------------------<br>
>>      ><br>
>>      >         *From:*Gerald Vogt <vogt@spamcop.net<br>
>>     <<a href="mailto:vogt@spamcop.net" id="LPlnk55961" class="OWAAutoLink" previewremoved="true">mailto:vogt@spamcop.net</a>> <<a href="" id="LPlnk716078" class="OWAAutoLink" previewremoved="true"></a>mailto:vogt@spamcop.net<br>
>>     <<a href="mailto:vogt@spamcop.net" id="LPlnk900782" class="OWAAutoLink" previewremoved="true">mailto:vogt@spamcop.net</a>>>><br>
>>      >         *Sent:* Monday, 02 July 2018 9:45 AM<br>
>>      >         *To:* spacewalk-list@redhat.com<br>
>>     <<a href="mailto:spacewalk-list@redhat.com" id="LPlnk29161" class="OWAAutoLink" previewremoved="true">mailto:spacewalk-list@redhat.com</a>> <<a href="" id="LPlnk216742" class="OWAAutoLink" previewremoved="true"></a>mailto:spacewalk-list@redhat.com<br>
>>     <<a href="mailto:spacewalk-list@redhat.com" id="LPlnk151687" class="OWAAutoLink" previewremoved="true">mailto:spacewalk-list@redhat.com</a>>><br>
>>      >         *Subject:* Re: [Spacewalk-list] Taskomatic runs <br>
>> indefinitely<br>
>>      >         without ever generating repodata____<br>
>>      ><br>
>>      >         ____<br>
>>      ><br>
>>      >         After letting the upgraded server sit for a while it<br>
>>     seems only<br>
>>      >         a few of<br>
>>      >         the task schedules actually finish. By now, only those <br>
>> tasks<br>
>>      >         show up in<br>
>>      >         in the task engine status page:<br>
>>      ><br>
>>      >         Changelog Cleanup:       2018-07-01 23:00:00 CEST     <br>
>> FINISHED<br>
>>      >         Clean Log History:       2018-07-01 23:00:00 CEST     <br>
>> FINISHED<br>
>>      >         Compare Config Files:    2018-07-01 23:00:00 CEST     <br>
>> FINISHED<br>
>>      >         Daily Summary Mail:      2018-07-01 23:00:00 CEST     <br>
>> FINISHED<br>
>>      >         Daily Summary Queue:     2018-07-01 23:00:00 CEST     <br>
>> FINISHED<br>
>>      ><br>
>>      >         All the other tasks have disappeared from the list by now.<br>
>>      ><br>
>>      >         The repo-sync tasks seem to work. New packages appear <br>
>> in the<br>
>>      >         channel.<br>
>>      >         However, the repo build is not running or better it seems<br>
>>     to never<br>
>>      >         properly finish.<br>
>>      ><br>
>>      >         If I start it manually, it seems to do its work:<br>
>>      ><br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02<br>
>>     08:13:10,584 [Thread-12] INFO     <br>
>> com.redhat.rhn.taskomatic.TaskoQuartzHelper - Job<br>
>>     single-channel-repodata-bunch-0 scheduled succesfully.<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02<br>
>>     08:13:10,636 [DefaultQuartzScheduler_Worker-8] INFO     <br>
>> com.redhat.rhn.taskomatic.TaskoJob -<br>
>>     single-channel-repodata-bunch-0: bunch channel-repodata-bunch STARTED<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02<br>
>>     08:13:10,651 [DefaultQuartzScheduler_Worker-8] DEBUG<br>
>>     com.redhat.rhn.taskomatic.TaskoJob -<br>
>>     single-channel-repodata-bunch-0: task channel-repodata started<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:10 | 2018-07-02<br>
>>     08:13:10,793 [DefaultQuartzScheduler_Worker-8] INFO     <br>
>> com.redhat.rhn.taskomatic.task.ChannelRepodata - In the queue: 4<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02<br>
>>     08:13:11,102 [DefaultQuartzScheduler_Worker-8] DEBUG<br>
>>     com.redhat.rhn.taskomatic.TaskoJob - channel-repodata<br>
>>     (single-channel-repodata-bunch-0) ... running<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02<br>
>>     08:13:11,103 [DefaultQuartzScheduler_Worker-8] INFO     <br>
>> com.redhat.rhn.taskomatic.TaskoJob -<br>
>>     single-channel-repodata-bunch-0: bunch channel-repodata-bunch <br>
>> FINISHED<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02<br>
>>     08:13:11,137 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - File<br>
>>     Modified Date:2018-06-23 03:48:50 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02<br>
>>     08:13:11,137 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Channel<br>
>>     Modified Date:2018-07-02 03:45:39 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02<br>
>>     08:13:11,211 [Thread-678] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - File<br>
>>     Modified Date:2018-06-23 04:09:51 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:11 | 2018-07-02<br>
>>     08:13:11,213 [Thread-678] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Channel<br>
>>     Modified Date:2018-07-02 03:47:55 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:19 | 2018-07-02<br>
>>     08:13:19,062 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Generating<br>
>>     new repository metadata for channel 'epel6-centos6-x86_64'(sha1)<br>
>>     14401 packages, 11613 errata<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:13:21 | 2018-07-02<br>
>>     08:13:21,193 [Thread-678] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Generating<br>
>>     new repository metadata for channel 'epel7-centos7-x86_64'(sha1)<br>
>>     16282 packages, 10176 errata<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:40:12 | 2018-07-02<br>
>>     08:40:12,351 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Repository<br>
>>     metadata generation for 'epel6-centos6-x86_64' finished in 1613 <br>
>> seconds<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:40:12 | 2018-07-02<br>
>>     08:40:12,457 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - File<br>
>>     Modified Date:2018-06-19 06:28:57 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:40:12 | 2018-07-02<br>
>>     08:40:12,457 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Channel<br>
>>     Modified Date:2018-07-02 04:30:05 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:40:12 | 2018-07-02<br>
>>     08:40:12,691 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Generating<br>
>>     new repository metadata for channel<br>
>>     'postgresql96-centos7-x86_64'(sha256) 1032 packages, 0 errata<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:41:51 | 2018-07-02<br>
>>     08:41:51,710 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Repository<br>
>>     metadata generation for 'postgresql96-centos7-x86_64' finished in 98<br>
>>     seconds<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:41:51 | 2018-07-02<br>
>>     08:41:51,803 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - File<br>
>>     Modified Date:2018-06-20 05:08:38 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:41:51 | 2018-07-02<br>
>>     08:41:51,803 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Channel<br>
>>     Modified Date:2018-07-02 04:00:00 CEST<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:41:51 | 2018-07-02<br>
>>     08:41:51,923 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Generating<br>
>>     new repository metadata for channel<br>
>>     'postgresql10-centos6-x86_64'(sha512) 436 packages, 0 errata<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:42:26 | 2018-07-02<br>
>>     08:42:26,479 [Thread-677] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Repository<br>
>>     metadata generation for 'postgresql10-centos6-x86_64' finished in 34<br>
>>     seconds<br>
>>      >         > INFO   | jvm 1    | 2018/07/02 08:45:01 | 2018-07-02<br>
>>     08:45:01,697 [Thread-678] INFO     <br>
>> com.redhat.rhn.taskomatic.task.repomd.RepositoryWriter - Repository<br>
>>     metadata generation for 'epel7-centos7-x86_64' finished in 1900 <br>
>> seconds<br>
>>      ><br>
>>      >         yet, the task remains in RUNNING. And for whatever <br>
>> reason it<br>
>>      >         only seems<br>
>>      >         to work some channels. I find a total of 20 repos syncing<br>
>>     in the<br>
>>      >         logs of<br>
>>      >         the updated server compared to 42 repos syncing in the<br>
>>     logs of<br>
>>      >         the old.<br>
>>      >         I don't really see the difference between those 20 repos<br>
>>     syncing<br>
>>      >         and<br>
>>      >         those other 22 not. First I suspected channels with<br>
>>     custom quartz<br>
>>      >         schedules, but then I found channels in both groups.<br>
>>      ><br>
>>      >         So I don't know how to troubleshoot this any further. The<br>
>>      >         repodata task<br>
>>      >         which I have started 1,5 hours ago is still at <br>
>> "RUNNING". The<br>
>>      >         channels<br>
>>      >         for which the sync works have been updated. I don't know<br>
>>     why it<br>
>>      >         is still<br>
>>      >         running. Server load is back down...<br>
>>      ><br>
>>      >         Thanks,<br>
>>      ><br>
>>      >         Gerald<br>
>>      ><br>
>>      >         On 22.06.18 19:12, Gerald Vogt wrote:<br>
>>      >         > I have the same problem after upgrading from 2.6 to 2.8<br>
>>     on CentOS 6.9. I<br>
>>      >         > have even increased the memory as suggested by that<br>
>>     link but it makes no<br>
>>      >         > differences. None of the scheduled tasks are running. I<br>
>>     can run a bunch<br>
>>      >         > manually. But the scheduler doesn't seem to work. Last<br>
>>     execution times<br>
>>      >         > on the task engine status pages are still at timestamps<br>
>>     from before the<br>
>>      >         > upgrade. -Gerald<br>
>>      >         ><br>
>>      >         ><br>
>>      >         ><br>
>>      >         > On 22.06.18 14:15, Avi Miller wrote:<br>
>>      >         >> Hi,<br>
>>      >         >><br>
>>      >         >>> On 22 Jun 2018, at 5:51 pm, Florence Savary<br>
>>      >         >>> <florence.savary.fs@gmail.com<br>
>>     <<a href="mailto:florence.savary.fs@gmail.com" id="LPlnk673544" class="OWAAutoLink" previewremoved="true">mailto:florence.savary.fs@gmail.com</a>><br>
>>      >         <<a href="" id="LPlnk452877" class="OWAAutoLink" previewremoved="true"></a>mailto:florence.savary.fs@gmail.com<br>
>>     <<a href="mailto:florence.savary.fs@gmail.com" id="LPlnk179586" class="OWAAutoLink" previewremoved="true">mailto:florence.savary.fs@gmail.com</a>>>> wrote:<br>
>>      >         >>><br>
>>      >         >>> When using taskotop, we can see a line for the<br>
>>     channel-repodata task,<br>
>>      >         >>> we see it is running, but there is never any channel<br>
>>     displayed in the<br>
>>      >         >>> Channel column. We can also see the task marked as<br>
>>     running in the<br>
>>      >         >>> Admin tab of the WebUI, but if we let it, it never<br>
>>     stops. The task<br>
>>      >         >>> runs indefinitely, whithout ever doing anything.<br>
>>      >         >><br>
>>      >         >> If you've never modified the default memory settings,<br>
>>     Taskomatic is<br>
>>      >         >> probably running out of memory and task is crashing.<br>
>>     This is a known<br>
>>      >         >> issue, particularly when you sync large repos.<br>
>>      >         >><br>
>>      >         >> I would suggest increasing the memory assigned to<br>
>>     Taskomatic to see if<br>
>>      >         >> that resolves the issue. You will need to restart it<br>
>>     after making<br>
>>      >         >> these changes:<br>
>>      >         >><br>
>>     <br>
>> <a href="https://docs.oracle.com/cd/E92593_01/E90695/html/swk24-issues-memory.html" id="LPlnk96450" class="OWAAutoLink" previewremoved="true">
https://docs.oracle.com/cd/E92593_01/E90695/html/swk24-issues-memory.html</a><br>
>>      >         >><br>
>>      >         >> Cheers,<br>
>>      >         >> Avi<br>
>>      >         >><br>
>>      >         >> --<br>
>>      >         >> Oracle <<a href="http://www.oracle.com" id="LPlnk533892" class="OWAAutoLink" previewremoved="true">http://www.oracle.com</a>><br>
>>      >         >> Avi Miller | Product Management Director | +61 (3)<br>
>>     8616 3496 <tel:+61%203%208616%203496> <tel:+61%203%208616%203496><br>
>>      >         >> Oracle Linux and Virtualization<br>
>>      >         >> 417 St Kilda Road, Melbourne, Victoria 3004 Australia<br>
>>      >         >><br>
>>      >         >><br>
>>      >         >> _______________________________________________<br>
>>      >         >> Spacewalk-list mailing list<br>
>>      >         >> Spacewalk-list@redhat.com<br>
>>     <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk70187" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>> <<a href="" id="LPlnk136065" class="OWAAutoLink" previewremoved="true"></a>mailto:Spacewalk-list@redhat.com<br>
>>     <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk807980" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>>><br>
>>      >         >> <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk794213" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>>      >         >><br>
>>      >         ><br>
>>      >         > _______________________________________________<br>
>>      >         > Spacewalk-list mailing list<br>
>>      >         > Spacewalk-list@redhat.com<br>
>>     <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk14840" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>> <<a href="" id="LPlnk789902" class="OWAAutoLink" previewremoved="true"></a>mailto:Spacewalk-list@redhat.com<br>
>>     <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk853071" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>>><br>
>>      >         > <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk240153" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>>      ><br>
>>      >         ____<br>
>>      ><br>
>>      ><br>
>>      >         _______________________________________________<br>
>>      >         Spacewalk-list mailing list<br>
>>      > Spacewalk-list@redhat.com <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk146585" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>><br>
>>     <<a href="" id="LPlnk75636" class="OWAAutoLink" previewremoved="true"></a>mailto:Spacewalk-list@redhat.com <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk889241" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>>><br>
>>      > <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk435756" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>>      ><br>
>>      ><br>
>>      >     _______________________________________________<br>
>>      >     Spacewalk-list mailing list<br>
>>      > Spacewalk-list@redhat.com <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk896574" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>><br>
>>     <<a href="" id="LPlnk568960" class="OWAAutoLink" previewremoved="true"></a>mailto:Spacewalk-list@redhat.com <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk42959" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>>><br>
>>      > <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk985414" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>>      ><br>
>>      ><br>
>>      ><br>
>>      > _______________________________________________<br>
>>      > Spacewalk-list mailing list<br>
>>      > Spacewalk-list@redhat.com <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk856217" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>><br>
>>      > <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk176177" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>>      ><br>
>><br>
>>     _______________________________________________<br>
>>     Spacewalk-list mailing list<br>
>>     Spacewalk-list@redhat.com <<a href="mailto:Spacewalk-list@redhat.com" id="LPlnk42965" class="OWAAutoLink" previewremoved="true">mailto:Spacewalk-list@redhat.com</a>><br>
>>     <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk343403" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>><br>
>><br>
>><br>
>> _______________________________________________<br>
>> Spacewalk-list mailing list<br>
>> Spacewalk-list@redhat.com<br>
>> <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk977293" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
>><br>
> <br>
> _______________________________________________<br>
> Spacewalk-list mailing list<br>
> Spacewalk-list@redhat.com<br>
> <a href="https://www.redhat.com/mailman/listinfo/spacewalk-list" id="LPlnk769285" class="OWAAutoLink" previewremoved="true">
https://www.redhat.com/mailman/listinfo/spacewalk-list</a><br>
<br>
<br>
</div>
</span></font></div>
</div>
</div>
</body>
</html>