<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=us-ascii"><meta name=Generator content="Microsoft Word 12 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:Wingdings;
        panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
        {font-family:Wingdings;
        panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:Tahoma;
        panose-1:2 11 6 4 3 5 4 4 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman","serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
p.MsoListParagraph, li.MsoListParagraph, div.MsoListParagraph
        {mso-style-priority:34;
        margin-top:0cm;
        margin-right:0cm;
        margin-bottom:0cm;
        margin-left:36.0pt;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman","serif";}
span.EmailStyle17
        {mso-style-type:personal-reply;
        font-family:"Calibri","sans-serif";
        color:#1F497D;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
/* List Definitions */
@list l0
        {mso-list-id:1324626662;
        mso-list-type:hybrid;
        mso-list-template-ids:837431734 1293181762 201916419 201916421 201916417 201916419 201916421 201916417 201916419 201916421;}
@list l0:level1
        {mso-level-start-at:0;
        mso-level-number-format:bullet;
        mso-level-text:-;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        font-family:"Calibri","sans-serif";
        mso-fareast-font-family:Calibri;
        mso-bidi-font-family:"Times New Roman";}
ol
        {margin-bottom:0cm;}
ul
        {margin-bottom:0cm;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-AU link=blue vlink=purple><div class=WordSection1><p class=MsoNormal><span style='font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D'>Customer’s requirements drive the solution, there are many ways to achieve HA storage.  I don’t know your exact setup and resources but I reckon iSCSI will be just an unnecessary overhead layer if you are using GlusterFS. You can use DRBD with a clustered file system (e.g. gfs, ocfs, ..) or with  xfs/ext3/4 + NFS, you may consider using G/NBD as well. Again, the solution is driven by the customer’s  requirements and the available resources.  GlusterFS is an awesome solution, provides HA & performance but it has some limited capabilities too, like it doesn’t support POSIX ACL. Lastly my 2cents for a clustered file system, it sounds like a sexy solution but if it’s deployed in a small scale (e.g. < 5 nodes) it might easily become a nightmare. For small scales HA storage without losing stability I’d recommend DRBD + XFS/EXT3/4 + NFS. <o:p></o:p></span></p><p class=MsoNormal><span style='font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D'><o:p> </o:p></span></p><p class=MsoNormal><span style='font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D'><o:p> </o:p></span></p><div style='border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0cm 0cm 0cm'><p class=MsoNormal><b><span lang=EN-US style='font-size:10.0pt;font-family:"Tahoma","sans-serif"'>From:</span></b><span lang=EN-US style='font-size:10.0pt;font-family:"Tahoma","sans-serif"'> linux-cluster-bounces@redhat.com [mailto:linux-cluster-bounces@redhat.com] <b>On Behalf Of </b>chenzp<br><b>Sent:</b> Sunday, 3 April 2011 2:43 PM<br><b>To:</b> linux clustering<br><b>Subject:</b> Re: [Linux-cluster] Replication for iSCSI target?<o:p></o:p></span></p></div><p class=MsoNormal><o:p> </o:p></p><div><p class=MsoNormal>use drbd!<o:p></o:p></p></div><div><p class=MsoNormal><br><br> <o:p></o:p></p></div><div><p class=MsoNormal>2011/4/2 Michael McGlothlin <<a href="mailto:michaelm@plumbersstock.com">michaelm@plumbersstock.com</a>><o:p></o:p></p><p class=MsoNormal>I'm experimenting with setting up an iSCSI target that has data<br>replication between three nodes. Right now I'm trying Glusterfs which<br>seems workable but I'm not sure how it'll handle it if more than one<br>node is trying to access the same target device (1TB sparse file) at<br>the same time. Has anyone set something like this up before and can<br>give me some hints? I was looking at GFS before but it appeared to not<br>do replication? DRBD seemed like a possibility but having more than<br>two nodes sounded as if it might be an issue.<br><br>Each server has dual quad-core Xeon processors, 64GB RAM, 8 2TB<br>drives, and 10Gb Ethernet so I hope hardware won't be a limitation.<br>We've constantly had trouble with every iSCSI, SAN, NAS, etc we've<br>tried so I want to make something that is completely void of any<br>single point of failure.<br><br><br>Thanks,<br>Michael McGlothlin<br><span style='color:#888888'><br>--<br>Linux-cluster mailing list<br><a href="mailto:Linux-cluster@redhat.com">Linux-cluster@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/linux-cluster" target="_blank">https://www.redhat.com/mailman/listinfo/linux-cluster</a></span><o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p></div></body></html>