<p dir="ltr">Hi ALL.<br></p>
<p dir="ltr">I'm having some problems and could not find solution with technical support.</p>
<p dir="ltr">My server is two multipathd running processes. I noticed that when there is a failure to communicate with the SAN device looks like this:</p>
<p dir="ltr">volclu2 (36000144000000010700aa26e0e57b5b9) dm-36 EMC Invista<br>
size = 1.0G features = '0' hwhandler = '0' wp = rw<br>
`- + - Policy = 'queue-length 0' prio = 0 status = enabled<br>
| - 0: 0: 0: 20 65:64 sdu failed running faulty<br>
| - 0: 0: 1: 20 sdaq 66: 160 failed running faulty<br>
| - 1: 0: 0: 20 sddf 70: 208 failed running faulty<br>
`- 1: 0: 1: 20 sdeb 128: 48 failed running faulty</p>
<p dir="ltr">And then the communication is re-established looks like this:</p>
<p dir="ltr">volclu2 (36000144000000010700aa26e0e57b5b9) dm-36 EMC Invista<br>
size = 1.0G features = '0' hwhandler = '0' wp = rw<br>
`- + - Policy = 'queue-length 0' prio = 1 Status = enabled<br>
| - 0: 0: 0: 20 65:64 sdu failed running ready<br>
| - 0: 0: 1: 20 sdaq 66: 160 failed running ready<br>
| - 1: 0: 0: 20 sddf 70: 208 failed running ready<br>
`- 1: 0: 1: 20 sdeb 128: 48  failed running ready</p>
<p dir="ltr">The failback is not being automatic. The status of the device is "enable" rather than "active".</p>
<p dir="ltr">The status only changes to "active" when I run "multipath -v3".</p>
<p dir="ltr">- What can cause the creation of two daemon multipathd?</p>
<p dir="ltr">Regards,<br>
    Juliano.</p>