<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">Wow some great discussion.<br>
      <br>
      I'm with Paul. Lets look at some real SAN hardware for big I/O at
      the moment. A lot of customers already have that for their
      existing VMware / RHEV backends.<br>
      <br>
      Then RHS (Gluster) is a great fit for object and other lower I/O
      use cases.<br>
      <br>
      After being at Linux.conf.au back in January there was a great
      deal of perception that Ceph is the default or is required for
      OpenStack and it can be quite a struggle to overcome that
      perception once it takes hold.<br>
      <br>
      I'm open to other suggestions for positioning RHOS on different
      storage backends.<br>
      <br>
      Steve<br>
      <br>
      On 04/20/2013 06:16 AM, Paul Robert Marino wrote:<br>
    </div>
    <blockquote cite="mid:517189fe.c893e00a.7d48.ffffd6f0@mx.google.com"
      type="cite">Um hum<br>
      If you want hi block level IO performance why not use one of the
      many SAN or NAS drivers? Grizzly has quite a few of them, and
      honestly that's the only way you will get any real IO performance.<br>
      <br>
      <span style="font-family:Prelude, Verdana, san-serif;"><br>
        <br>
      </span><span id="signature">
        <div style="font-family: arial, sans-serif; font-size:
          12px;color: #999999;">-- Sent from my HP Pre3</div>
        <br>
      </span><span style="color:navy; font-family:Prelude, Verdana,
        san-serif; ">
        <hr style="width:75%" align="left">On Apr 19, 2013 1:11 PM, Joey
        McDonald <a class="moz-txt-link-rfc2396E" href="mailto:joey@scare.org"><joey@scare.org></a> wrote: <br>
        <br>
      </span>
      <div dir="ltr">Simply enabling support for it is not the same as
        supporting it. Ceph is already supported via the cephfs
        fuse-based file system. I think the concepts are similar.
        <div><br>
        </div>
        <div>Two things are needed: kernel module for rbd and ceph hooks
          in kvm. Then, let the ceph community offer 'support'.</div>
        <div><br>
        </div>
        <div>Is this not what was done for gluster before they were
          acquired? It is Linux after all... kumbaya. <br>
          <div style=""><br>
          </div>
        </div>
      </div>
      <div class="gmail_extra"><br>
        <br>
        <div class="gmail_quote">On Fri, Apr 19, 2013 at 10:36 AM, Pete
          Zaitcev <span dir="ltr"><<a moz-do-not-send="true"
              href="mailto:zaitcev@redhat.com" target="_blank">zaitcev@redhat.com</a>></span>
          wrote:<br>
          <blockquote class="gmail_quote" style="margin:0 0 0
            .8ex;border-left:1px #ccc solid;padding-left:1ex">
            <div class="im">On Fri, 19 Apr 2013 18:03:12 +1200<br>
              Steven Ellis <<a moz-do-not-send="true"
                href="mailto:sellis@redhat.com">sellis@redhat.com</a>>
              wrote:<br>
              <br>
              > One of their key questions is when (note when, not
              if) will Red Hat be<br>
              > shipping Ceph as part of their Enterprise Supported
              Open Stack<br>
              > environment. From their perspective RHS isn't a
              suitable scalable<br>
              > backend for all their Open Stack use cases, in
              particular high<br>
              > performance I/O block<br>
              <br>
            </div>
            Okay, since you ask, here's my take, as an engineer.<br>
            <br>
            Firstly, I would be interested in hearing more. If someone
            made up their<br>
            mind in such terms there's no dissuading them. But if they
            have a rational<br>
            basis for saying that "high performance I/O block" in
            Gluster is somehow<br>
            deficient, it would be very interesting to learn the
            details.<br>
            <br>
            My sense of this is that we're quite unlikely to offer a
            support<br>
            for Ceph any time soon. First, nobody so far presented a
            credible case<br>
            for it, as far as I know, and second, we don't have the
            expertise.<br>
            <br>
            I saw cases like that before, in a sense that customers come
            to us and<br>
            think they have all the answers and we better do as we're
            told.<br>
            This is difficult because on the one hand customer is always
            right,<br>
            but on the other hand we always stand behind our supported
            product.<br>
            It happened with reiserfs and XFS. But we refused to support
            reiserfs,<br>
            while we support XFS. The key difference is that reiserfs
            was junk,<br>
            and XFS is not.<br>
            <br>
            That said, XFS took a very long time to establish -- years.
            We had to<br>
            hire Dave Cinner to take care of it. Even if the case for
            Ceph gains<br>
            arguments, it takes time to establish in-house expertise
            that we can<br>
            offer as a valuable service to customers. Until that time
            selling<br>
            Ceph would be irresponsible.<br>
            <br>
            The door is certainly open to it. Make a rational argument,
            be patient,<br>
            and see what comes out.<br>
            <br>
            Note that a mere benchmark for "high performance I/O block"
            isn't going<br>
            to cut it. Reiser was beating our preferred solution, ext3.
            But in the<br>
            end we could not recommend a filesystem that ate customer
            data, and stuck<br>
            with ext3 despite the lower performance. Not saying Ceph is
            junk at all,<br>
            but you need a better argument against GlusterFS.<br>
            <span class="HOEnZb"><font color="#888888"><br>
                -- Pete<br>
              </font></span>
            <div class="HOEnZb">
              <div class="h5"><br>
                _______________________________________________<br>
                rhos-list mailing list<br>
                <a moz-do-not-send="true"
                  href="mailto:rhos-list@redhat.com">rhos-list@redhat.com</a><br>
                <a moz-do-not-send="true"
                  href="https://www.redhat.com/mailman/listinfo/rhos-list"
                  target="_blank">https://www.redhat.com/mailman/listinfo/rhos-list</a><br>
              </div>
            </div>
          </blockquote>
        </div>
        <br>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
rhos-list mailing list
<a class="moz-txt-link-abbreviated" href="mailto:rhos-list@redhat.com">rhos-list@redhat.com</a>
<a class="moz-txt-link-freetext" href="https://www.redhat.com/mailman/listinfo/rhos-list">https://www.redhat.com/mailman/listinfo/rhos-list</a></pre>
    </blockquote>
    <br>
    <br>
    <div class="moz-signature">-- <br>
      <span style="font-size: 12pt; font-weight: bold; color: gray;">Steven
        Ellis
      </span><br>
      <span style="font-size: 10pt; font-weight: bold; color: gray;">
        Solution Architect - <a href="http://www.redhat.co.nz/">Red Hat
          New Zealand</a><br>
      </span>
      <span style="font-size: 9pt; color: gray; font-family: monospace">
        <b>T:</b> +64 9 927 8856<br>
        <b>M:</b> +64 21 321 673<br>
        <b>E:</b> <a href="mailto:sellis@redhat.com">sellis@redhat.com</a><a><br>
        </a></span><a>
      </a></div>
  </body>
</html>