<html>
  <head>
    <meta content="text/html; charset=UTF-8" http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">On 04/09/2015 07:51 AM, Martin Kosek
      wrote:<br>
    </div>
    <blockquote cite="mid:55261347.2050509@redhat.com" type="cite">
      <pre wrap="">On 04/09/2015 05:59 AM, Alexander Frolushkin wrote:
</pre>
      <blockquote type="cite">
        <pre wrap="">-----Original Message-----
From: thierry bordaz [<a class="moz-txt-link-freetext" href="mailto:tbordaz@redhat.com">mailto:tbordaz@redhat.com</a>]
Sent: Wednesday, April 08, 2015 6:36 PM
To: Alexander Frolushkin (SIB)
Cc: 'Ludwig Krispenz'; Martin Kosek; <a class="moz-txt-link-abbreviated" href="mailto:freeipa-users@redhat.com">freeipa-users@redhat.com</a>
Subject: Re: [Freeipa-users] Accident upgrade 3.3 to 4.1

On 04/08/2015 02:19 PM, Alexander Frolushkin wrote:
</pre>
        <blockquote type="cite">
          <blockquote type="cite">
            <blockquote type="cite">
              <blockquote type="cite">
                <pre wrap="">On one of accidently upgraded server I have following error in dirsrv logs:

[08/Apr/2015:13:24:12 +0300] connection - conn=1095 fd=131 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
[08/Apr/2015:13:24:12 +0300] connection - conn=1094 fd=124 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
[08/Apr/2015:13:24:12 +0300] connection - conn=1096 fd=124 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
[08/Apr/2015:13:24:12 +0300] connection - conn=1097 fd=131 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
</pre>
              </blockquote>
              <pre wrap="">This message is logged if the received message was too large. But here max size was 200Mb.
I can not imagine a such large message.
Being log at the same second, it could be transient error. Have you seen others messages like these ?
</pre>
            </blockquote>
            <pre wrap="">Yes, it still here.

[08/Apr/2015:14:55:01 +0300] connection - conn=1125 fd=130 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
[08/Apr/2015:14:55:01 +0300] connection - conn=1124 fd=126 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
[08/Apr/2015:14:55:01 +0300] connection - conn=1126 fd=126 Incoming BER Element was too long, max allowable is 209715200 bytes. Change the nsslapd-maxbersize attribute in cn=config to increase.
</pre>
          </blockquote>
        </blockquote>
        <pre wrap="">
</pre>
        <blockquote type="cite">
          <pre wrap="">Those logs mean the connection (e.g. conn=1125) got closed.
Would you grep conn=1125 in access log ?
</pre>
        </blockquote>
        <pre wrap="">
[08/Apr/2015:14:55:00 +0300] conn=1125 fd=130 slot=130 connection from 10.99.111.42 to 10.163.129.91
[08/Apr/2015:14:55:00 +0300] conn=1125 op=0 SRCH base="" scope=0 filter="(objectClass=*)" attrs="subschemaSubentry dsservicename namingContexts defaultnamingcontext schemanamingcontext configuratio
nnamingcontext rootdomainnamingcontext supportedControl supportedLDAPVersion supportedldappolicies supportedSASLMechanisms dnshostname ldapservicename servername supportedcapabilities"
[08/Apr/2015:14:55:00 +0300] conn=1125 op=0 RESULT err=0 tag=101 nentries=1 etime=0</pre>
      </blockquote>
    </blockquote>
    No closure log ?<br>
    Possibly the next op=1, triggered the error and the closure of the
    connection.<br>
    Do you know if it exists a kind of keep alive mechanism, that would
    ping the instance with op=0 and then could send some dummy data ?<br>
    <br>
    Looking for periodicity on the 'Incoming BER Element' event could
    help to know who opened that connection <br>
    <blockquote cite="mid:55261347.2050509@redhat.com" type="cite">
      <blockquote type="cite">
        <pre wrap="">

</pre>
        <blockquote type="cite">
          <blockquote type="cite">
            <pre wrap="">[08/Apr/2015:14:55:26 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://cnt-rhidm01.unix.ad.com:389/o%3Dipaca">ldap://cnt-rhidm01.unix.ad.com:389/o%3Dipaca</a>) failed.
[08/Apr/2015:14:55:26 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://cnt-rhidm01.unix.ad.com:389/o%3Dipaca">ldap://cnt-rhidm01.unix.ad.com:389/o%3Dipaca</a>) failed.
[08/Apr/2015:14:55:26 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://cnt-rhidm01.unix.ad.com:389/o%3Dipaca">ldap://cnt-rhidm01.unix.ad.com:389/o%3Dipaca</a>) failed.


</pre>
            <blockquote type="cite">
              <blockquote type="cite">
                <pre wrap="">[08/Apr/2015:13:25:11 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://sib-rhidm01.unix.ad.com:389/o%3Dipaca">ldap://sib-rhidm01.unix.ad.com:389/o%3Dipaca</a>) failed.
[08/Apr/2015:13:25:11 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://sib-rhidm01.unix.ad.com:389/o%3Dipaca">ldap://sib-rhidm01.unix.ad.com:389/o%3Dipaca</a>) failed.
[08/Apr/2015:13:25:11 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://sib-rhidm01.unix.ad.com:389/o%3Dipaca">ldap://sib-rhidm01.unix.ad.com:389/o%3Dipaca</a>) failed.
[08/Apr/2015:13:25:15 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://vlg-rhidm02.unix.ad.com:389/o%3Dipaca">ldap://vlg-rhidm02.unix.ad.com:389/o%3Dipaca</a>) failed.
[08/Apr/2015:13:25:15 +0300] attrlist_replace - attr_replace (nsslapd-referral, <a class="moz-txt-link-freetext" href="ldap://vlg-rhidm02.unix.ad.com:389/o%3Dipaca">ldap://vlg-rhidm02.unix.ad.com:389/o%3Dipaca</a>) failed.
</pre>
              </blockquote>
              <pre wrap="">Here it is likely trigger by RUV containing duplicated values (multiple replica install ?). You may have to use cleanruv after the upgrade.
ipa-replica-manage list-ruv  and ipa-replica-manager clean-ruv
</pre>
            </blockquote>
            <pre wrap="">Do You mean we need to upgrade all 3.3.3 IPA servers to 4.1 first? Or this can be cleaned right now on remaining servers?

BTW:
# ipa-replica-manage list-ruv
Directory Manager password:

sib-rhidm03.unix.ad.com:389: 5
dv-rhidm01.unix.ad.com:389: 17
sib-rhidm02.unix.ad.com:389: 3
sib-rhidm01.unix.ad.com:389: 4
url-rhidm01.unix.ad.com:389: 6
url-rhidm02.unix.ad.com:389: 7
....
nw-rhidm01.unix.ad.com:389: 19

</pre>
          </blockquote>
        </blockquote>
        <pre wrap="">
</pre>
        <blockquote type="cite">
          <pre wrap="">This message is harmless. It means that some values of nsds50ruv in the RUV have identical referral.
This should not occur, but replication is smart enough to just log this warning and continue working.
</pre>
        </blockquote>
        <pre wrap="">
</pre>
        <blockquote type="cite">
          <pre wrap="">I would not recommend cleanup right now. Just clarification of the status.
Would you send all the ruv values returned by 'list-ruv' (here there is no duplicate).
</pre>
        </blockquote>
        <pre wrap="">
Here the full command output from the IPA 4.1 server:

# ipa-replica-manage list-ruv
Directory Manager password:

nw-rhidm01.unix.ad.com:389: 19
dv-rhidm02.unix.ad.com:389: 18
vlg-rhidm03.unix.ad.com:389: 12
sib-rhidm01.unix.ad.com:389: 4
dv-rhidm01.unix.ad.com:389: 17
url-rhidm01.unix.ad.com:389: 6
url-rhidm02.unix.ad.com:389: 7
cnt-rhidm01.unix.ad.com:389: 14
sib-rhidm03.unix.ad.com:389: 5
vlg-rhidm02.unix.ad.com:389: 13
msk-rhidm-03.unix.ad.com:389: 10
msk-rhidm-01.unix.ad.com:389: 9
vlg-rhidm01.unix.ad.com:389: 8
cnt-rhidm02.unix.ad.com:389: 15
sib-rhidm02.unix.ad.com:389: 3
msk-rhidm-02.unix.ad.com:389: 11

I'm planning to upgrade all the remaining IPA 3.3.3 to IPA 4.1.
</pre>
      </blockquote>
      <pre wrap="">
Ok, that should help.

</pre>
      <blockquote type="cite">
        <pre wrap="">Am I undersanding correctly, that upper messages does not mean something is terribly wrong in IPA for now?
</pre>
      </blockquote>
      <pre wrap="">
If you are asking about the attrlist_replace warnings, they should be benign,
caused by the uncleaned RUVs as Thierry indicated. Although the list above
looks OK, without duplicate RUVs.</pre>
    </blockquote>
    I agree, those warnings means something needs to be cleaned but not
    that things are broken.<br>
    Replication should work fine.<br>
    <blockquote cite="mid:55261347.2050509@redhat.com" type="cite">
      <pre wrap="">

Thierry, does this needs to be checked on every IPA server, or are RUVs also
replicated?</pre>
    </blockquote>
    <br>
    I am unsure if list-ruv command is hidding something. The following
    command will dump the RUV of the local instance:<br>
    <blockquote>
      <pre ng-hide="ie8 || ie9" ng-bind-html="comment.text | linky:'_blank'" class="pcmTextBlock browserNotIE ng-binding">ldapsearch -D "cn=directory manager" -W -b "$SUFFIX"  '(&(nsuniqueid=ffffffff-ffffffff-ffffffff-ffffffff)(objectclass=nstombstone))'</pre>
    </blockquote>
    <br>
    The 'attrlist_replace' message means that the local instance
    received a RUV from a remote instance and that remote RUV contained
    duplicated referral.<br>
    If you want to know which server need to be cleaned, you would do
    list-ruv (or the ldapsearch command) on each instance.<br>
    I would expect to see duplicates on some instances RUV, like for
    example:<br>
    <br>
    <pre wrap="">nw-rhidm01.unix.ad.com:389: 19
dv-rhidm02.unix.ad.com:389: 18
vlg-rhidm03.unix.ad.com:389: 12
sib-rhidm01.unix.ad.com:389: 4
dv-rhidm01.unix.ad.com:389: 17
url-rhidm01.unix.ad.com:389: 6
url-rhidm02.unix.ad.com:389: 7
<b>cnt-rhidm01.unix.ad.com:389: 14</b><b>
</b><b>cnt-rhidm01.unix.ad.com:389: 24</b>
sib-rhidm03.unix.ad.com:389: 5
vlg-rhidm02.unix.ad.com:389: 13
msk-rhidm-03.unix.ad.com:389: 10
msk-rhidm-01.unix.ad.com:389: 9
vlg-rhidm01.unix.ad.com:389: 8
cnt-rhidm02.unix.ad.com:389: 15
sib-rhidm02.unix.ad.com:389: 3
msk-rhidm-02.unix.ad.com:389: 11</pre>
    <br>
    <blockquote cite="mid:55261347.2050509@redhat.com" type="cite">
      <pre wrap="">

Martin
</pre>
    </blockquote>
    <br>
  </body>
</html>