Hello all,<br>
<br>
I've got a a 80GB HD partitioned automatically during Fedora Core 4
setup. That is the disk carries 8 partitions where the first to 4th i.e
(/dev/hda1  to /dev/hda4) are dedicated to windows OS and
(/dev/hda5) is mounted as /boot and (/dev/sda6) as /home (/dev/hda7) as
swap & (/dev/hda8) as /.<br><br>
I have lvm2 installed on my system.<br>
<br>
Now can i use lvm2 on the top of all and if yes how?<br>
<br>
When i issued the command:<br>
<br>
lvm> pvcreate /dev/hda5<br>
<br>
the following message was displayed:<br>
<br>
  /var/lock/lvm/P_orphans: open failed: Permission denied<br>
  Can't get lock for orphan PVs<br>
<br>
please reply.<br>
<br>
Thanks & regards <br>
neelima<br><div><span class="gmail_quote">On 12/12/05, <b class="gmail_sendername"><a href="mailto:linux-lvm-request@redhat.com">linux-lvm-request@redhat.com</a></b> <<a href="mailto:linux-lvm-request@redhat.com">linux-lvm-request@redhat.com
</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Send linux-lvm mailing list submissions to<br>        <a href="mailto:linux-lvm@redhat.com">
linux-lvm@redhat.com</a><br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>        <a href="https://www.redhat.com/mailman/listinfo/linux-lvm">https://www.redhat.com/mailman/listinfo/linux-lvm</a><br>or, via email, send a message with subject or body 'help' to
<br>        <a href="mailto:linux-lvm-request@redhat.com">linux-lvm-request@redhat.com</a><br><br>You can reach the person managing the list at<br>        <a href="mailto:linux-lvm-owner@redhat.com">linux-lvm-owner@redhat.com
</a><br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of linux-lvm digest..."<br><br><br>Today's Topics:<br><br>   1. Re: LVM onFly features (Michael Loftis)<br>   2. Re: LVM onFly features (Nathan Scott)
<br>   3. Converting LVM back to Ext2? (Andrey Subbotin)<br>   4. Re: Converting LVM back to Ext2? (Anil Kumar Sharma)<br>   5. Re: Newbie of LVM (Alasdair G Kergon)<br><br><br>----------------------------------------------------------------------
<br><br>Message: 1<br>Date: Sun, 11 Dec 2005 18:14:39 -0700<br>From: Michael Loftis <<a href="mailto:mloftis@wgops.com">mloftis@wgops.com</a>><br>Subject: Re: [linux-lvm] LVM onFly features<br>To: Nathan Scott <<a href="mailto:nathans@sgi.com">
nathans@sgi.com</a>><br>Cc: <a href="mailto:linux-xfs@oss.sgi.com">linux-xfs@oss.sgi.com</a>, <a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br>Message-ID: <<a href="mailto:9CD94D4B0F3B63057B4C2BC0@dhcp-2-206.wgops.com">
9CD94D4B0F3B63057B4C2BC0@dhcp-2-206.wgops.com</a>><br>Content-Type: text/plain; charset=us-ascii; format=flowed<br><br><br><br>--On December 12, 2005 9:15:39 AM +1100 Nathan Scott <<a href="mailto:nathans@sgi.com">nathans@sgi.com
</a>><br>wrote:<br><br><br>>> XFS has terrible unpredictable performance in production.  Also it has<br>>> very<br>><br>> What on earth does that mean?  Whatever it means, it doesn't<br>> sound right - can you back that up with some data please?
<br><br>The worst problems we had we're likely most strongly related to running out<br>of journal transaction space.  When XFS was under high transaction load<br>sometimes it would just hang everything syncing meta-data.  From what I
<br>understand this has supposedly been dealt with, but we were still having<br>these issues when we decommissioned the last XFS based server a year ago.<br>Another datapoint is the fact we primarily served via NFS, which XFS
<br>(atleast at the time) still didn't behave great with, I never did see any<br>good answers on that as I recall.<br><br>><br>>> bad behavior when recovering from crashes,<br>><br>> Details?  Are you talking about this post of yours:
<br>> <a href="http://oss.sgi.com/archives/linux-xfs/2003-06/msg00032.html">http://oss.sgi.com/archives/linux-xfs/2003-06/msg00032.html</a><br><br>That particular behavior happened a lot.  And it wasn't annoying that it
<br>happened, so much so that it happened after the system claimed it was<br>clean.  Further, yes, that hardware has been fully checked out.  There's<br>nothing wrong with the hardware.  I wish there was, that'd make me feel
<br>better honestly.  The only thing I can reason is bugs in the XFS<br>fsck/repair tools, or *maybe* an interaction with XFS and the DAC960<br>controller, or NFS.  The fact that XFS has weird interactions with NFS at<br>
all bugs me, but I don't understand the code involved well enough.  There<br>might be a decent reason.<br><br>><br>> There have been several fixes in this area since that post.<br>><br>>> often times it's tools totally fail to clean the filesystem.
<br>><br>> In what way?  Did you open a bug report?<br>><br>>> It also needs larger kernel stacks because<br>>> of some of the really deep call trees,<br>><br>> Those have been long since fixed as far as we are aware.  Do you
<br>> have an actual example where things can fail?<br><br>We pulled it out of production and replaced XFS with Reiser.  At the time<br>Reiser was far more mature on Linux.  XFS Linux implementation (in<br>combination with other work in the block layer as you mention later) may
<br>have matured to atleast a similar (possibly moreso) point now.  I've just<br>personally lost more data due to XFS than Reiser.  I've also had problems<br>with ext3 in the (now distant) past while it was teething still.
<br><br><br>>> so when you use it with LVM or MD it<br>>> can oops unless you use the larger kernel stacks.<br>><br>> Anything can oops in combination with enough stacked device drivers<br>> (although there has been block layer work to resolve this recently,
<br>> so you should try again with a current kernel...).  If you have an<br>> actual example of this still happening, please open a bug or at least<br>> let the XFS developers know of your test case.  Thanks.<br>
<br>That was actually part of the problem.  There was no time, and no hardware,<br>to try to reproduce the problem in the lab.  This isn't an XFS problem<br>specifically, this is an Open Source problem really....If you encounter a
<br>bug, and you're unlucky enough to be a bit of an edge case, you better be<br>prepared to pony up with hardware and mantime to diagnose and reproduce it<br>or it might not get fixed.  Again though, this is common to the whole open
<br>source community, and not XFS, Linux, LVM, or any other project specific.<br><br>Having said that, if you can reproduce it, and get good details, the open<br>source community has a far better track record of *really* fixing and
<br>addressing bugs than any commercial software.<br><br>><br>>> We also have had<br>>> problems with the quota system but the details on that have faded.<br>><br>> Seems like details of all the problems you described have faded.
<br>> Your mail seems to me like a bit of a troll ... I guess you had a<br>> problem or two a couple of years ago (from searching the lists)<br>> and are still sore.  Can you point me to mailing list reports of<br>
> the problems you're refering to here or bug reports you've opened<br>> for these issues?  I'll let you know if any of them are still<br>> relevent.<br><br>No, we had dozens actually.  The only ones that were really crippling were
<br>when XFS would suddenly unmount in the middle of the business day for no<br>apparent reason.  Without details bug reports are ignored, and we couldn't<br>really provide details or filesystem dumps because there was too much data,
<br>and we had to get it back online.  We just moved as fast as we could away<br>from XFS.  It wasn't just a one day thing, or a week, there was a trail of<br>crashes with XFS at the time.  Sometimes the machine was so locked up from
<br>XFS pulling the rug out that the console was wedged up pretty badly too.<br><br>I wanted to provide the information as a data point from the other side as<br>it were not get into a pissing match with the XFS developers and community.
<br>XFS is still young, as is ReiserFS.  and while Reiser is a completely new<br>FS and XFS has roots in IRIX and other implementations, their age is<br>similar since XFS' Linux implementation is around the same age.  If the
<br>state has change in the last 6-12 months then so much the better.  The<br>facts are that XFS during operation had many problems, and as we pulled it<br>out still had many unresolved problems as we replaced it with ReiserFS.
<br>And Reiser has been flawless except for one problem already mentioned on<br>Linux-LVM very clearly caused by an external SAN/RAID problem which EMC has<br>corrected (completely as an aside -- anyone running a CX series REALLY
<br>needs to be on the latest code rev, you might never run into the bug, and<br>i'm still not sure exactly which one we hit, there were atleast two that<br>could have caused the data corruption, but if you do, it can be ugly).
<br><br><br>The best guess that I have as to why we had such a bad time with XFS was<br>the XFS+NFS interaction and possibly an old (unknown to me -- this is just<br>a guess) bug that may have created some minor underlying corruption that
<br>the repair tools couldn't fully fix or diagnose may have caused our<br>continual (seemingly random) problems.  I don't believe in really random<br>problems, atleast not in computers anyway.<br><br>><br>> cheers.
<br>><br>> --<br>> Nathan<br>><br><br><br><br>--<br>"Genius might be described as a supreme capacity for getting its possessors<br>into trouble of all kinds."<br>-- Samuel Butler<br><br><br><br>------------------------------
<br><br>Message: 2<br>Date: Mon, 12 Dec 2005 13:28:30 +1100<br>From: Nathan Scott <<a href="mailto:nathans@sgi.com">nathans@sgi.com</a>><br>Subject: Re: [linux-lvm] LVM onFly features<br>To: Michael Loftis <<a href="mailto:mloftis@wgops.com">
mloftis@wgops.com</a>><br>Cc: <a href="mailto:linux-xfs@oss.sgi.com">linux-xfs@oss.sgi.com</a>, <a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br>Message-ID: <<a href="mailto:20051212132830.A7432365@wobbly.melbourne.sgi.com">
20051212132830.A7432365@wobbly.melbourne.sgi.com</a>><br>Content-Type: text/plain; charset=us-ascii<br><br>On Sun, Dec 11, 2005 at 06:14:39PM -0700, Michael Loftis wrote:<br>> --On December 12, 2005 9:15:39 AM +1100 Nathan Scott <
<a href="mailto:nathans@sgi.com">nathans@sgi.com</a>><br>> The worst problems we had we're likely most strongly related to running out<br>> of journal transaction space.  When XFS was under high transaction load<br>
<br>Can you define "high load" for your scenario?<br><br>> sometimes it would just hang everything syncing meta-data.  From what I<br><br>There is no situation in which XFS will "hang everything".  A process
<br>that is modifying the filesystem may be paused briefly waiting for space<br>to become available in the log, and that involves flushing the in-core<br>log buffers.  But only processes that need log space will be paused
<br>waiting for that (relatively small) write to complete.  This is also not<br>a behaviour peculiar to XFS, and with suitable tuning in terms of mkfs/<br>mount/sysctl parameters, it can be completely controlled.<br><br>> understand this has supposedly been dealt with, but we were still having
<br>> these issues when we decommissioned the last XFS based server a year ago.<br><br>I'd like some more information describing your workload there if<br>you could provide it.  Thanks.<br><br>> Another datapoint is the fact we primarily served via NFS, which XFS
<br>> (atleast at the time) still didn't behave great with, I never did see any<br>> good answers on that as I recall.<br><br>Indeed.  Early 2.6 kernels did have XFS/NFS interaction problems,<br>with NFS using generation number zero as "magic", and XFS using
<br>that as a valid gen number.  That was fixed a long time ago.<br><br>> controller, or NFS.  The fact that XFS has weird interactions with NFS at<br>> all bugs me, but I don't understand the code involved well enough.  There
<br>> might be a decent reason.<br><br>No, there's no reason, and XFS does not have "wierd interactions"<br>with NFS.<br><br>> >> It also needs larger kernel stacks because<br>> >> of some of the really deep call trees,
<br>> ><br>> > Those have been long since fixed as far as we are aware.  Do you<br>> > have an actual example where things can fail?<br>><br>> We pulled it out of production and replaced XFS with Reiser.  At the time
<br>> Reiser was far more mature on Linux.  XFS Linux implementation (in<br><br>Not because of 4K stacks though surely?  That kernel option wasn't around<br>then I think, and the reiserfs folks have also had a bunch of work to do
<br>in that area too.<br><br>> > Seems like details of all the problems you described have faded.<br>> > Your mail seems to me like a bit of a troll ... I guess you had a<br>> > problem or two a couple of years ago (from searching the lists)
<br>> > and are still sore.  Can you point me to mailing list reports of<br>> > the problems you're refering to here or bug reports you've opened<br>> > for these issues?  I'll let you know if any of them are still
<br>> > relevent.<br>><br>> No, we had dozens actually.  The only ones that were really crippling were<br>> when XFS would suddenly unmount in the middle of the business day for no<br>> apparent reason.  Without details bug reports are ignored, and we couldn't
<br><br>The NFS issue had the unfortunate side effect of causing filesystem<br>corruption and hence forced filesystem shutdowns would result.  There<br>were also bugs on that error handling path, so probably you hit two<br>
independent XFS bugs on a pretty old kernel version.<br><br>> I wanted to provide the information as a data point from the other side as<br>> it were not get into a pissing match with the XFS developers and community.
<br><br>You were claiming long-resolved issues that existed in an XFS version<br>from an early 2.6 kernel as still relevent.  That is quite misleading,<br>and doesn't provide useful information to anyone.<br><br>cheers.<br>
<br>--<br>Nathan<br><br><br><br>------------------------------<br><br>Message: 3<br>Date: Mon, 12 Dec 2005 15:25:23 +0700<br>From: Andrey Subbotin <<a href="mailto:eploko@gmail.com">eploko@gmail.com</a>><br>Subject: [linux-lvm] Converting LVM back to Ext2?
<br>To: <a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br>Message-ID: <<a href="mailto:45980936.20051212152523@gmail.com">45980936.20051212152523@gmail.com</a>><br>Content-Type: text/plain; charset=us-ascii
<br><br>Hello all.<br><br>I've
got a 200GB HD partitioned automatically during Fedora Core 4 setup.
That is the disk carries 2 partitions where the first one (/dev/sda1)
is ext3 mounted as /boot and the second one (/dev/sda2) is an LVM.<br><br>That
is all clear and fancy but the problem is I'm faced with the fact I
need to migrate the HD to Ext2 FS, so I could convert it to FAT32
later, so I could access it from a copy of the Windows OS I happen to
boot recently to do some work. The LVM on /dev/sda2 is full of data I
need to save and the problem is I don't have a spare HD to temporarily
copy all those 200GB to.<br><br>If I had a spare HD I would eventually
mount it, make a new Ext2 partition on it and then copy all the data
from the LogicalVolume to the new partition. Then I would fire up fdisk
and kill the LVM, thus freeing the space on the drive. Then, moving the
data back to the first HD would be a snap. But without a spare disk I
face a real challenge.<br><br>My initial idea was to reduce the FS
inside the LogicalVolume (it has ~40GB free of space) and then reduce
the size of the LogicalVolume and then reduce the PhysicalVolume
/dev/sda2 by the freed number of cylinders. Then, I would create an
ext2 partition over the freed cylinders and move some files from the
LogicalVolume onto it. Then I thought I would repeat the process
several times effectively migrating my data from the ever-shrinking LVM
to the ever-growing plain Ext2 FS.<br><br>The problem is I have little
idea how I can shrink an LVM partition on /dev/sda2. And there seem to
be very little information on this on the net.<br><br>So far, I have
lvreduce'd the FS inside the LogicalVolume and the LogicalVolume
itselft to 35700000 4k blocks. Now, how do I redeuce the number of
cyllinders occupied by the LVM on /dev/sda?<br><br>I would really apreciate any help or ideas.<br>Thanks a lot in advance.<br><br>--<br>See you,<br>Andrey<br><br>ICQ UIN: 114087545<br>Journal: <a href="http://www.livejournal.com/users/e_ploko/">
http://www.livejournal.com/users/e_ploko/</a><br><br><br><br>------------------------------<br><br>Message: 4<br>Date: Mon, 12 Dec 2005 19:50:30 +0530<br>From: Anil Kumar Sharma <<a href="mailto:xplusaks@gmail.com">xplusaks@gmail.com
</a>><br>Subject: Re: [linux-lvm] Converting LVM back to Ext2?<br>To: Andrey Subbotin <<a href="mailto:eploko@gmail.com">eploko@gmail.com</a>>, LVM general discussion and<br>        development <<a href="mailto:linux-lvm@redhat.com">
linux-lvm@redhat.com</a>><br>Message-ID:<br>        <<a href="mailto:52fe6b680512120620m2d9d462erdc37b7f3d79183de@mail.gmail.com">52fe6b680512120620m2d9d462erdc37b7f3d79183de@mail.gmail.com</a>><br>Content-Type: text/plain; charset="iso-8859-1"
<br><br>U may reduce LV size and get some free space but that still will be lying on<br>PV and there is no pvreduce (afaik).<br><br>So, I think (I may be wrong), U are out of luck. Get your luck back, have<br>same temporary storage for your data to change the size or convert PV.
<br><br>UC, LVM is good for multi-partitions and multi-disks, everything in<br>multiples. That's the playground for LVM.<br>When U (re)start for FC4 or FC5, have your linux space on multiple PV's.<br>I will suggest utilize all 4 primary  partitions,
<br>1. boot, 2. dual boot (if required) else PV and 3.& 4 also PV's. Swap goes<br>in LVM.<br>LVM can make them look like one or as desired partitions (LV's), which U can<br>change as per your requirements, even for dual boot.
<br><br> Hard luck with "auto partition" - it is good for itself! smart fellow not<br>caring for our moods.<br><br><br><br><br>On 12/12/05, Andrey Subbotin <<a href="mailto:eploko@gmail.com">eploko@gmail.com</a>
> wrote:<br>><br>> Hello all.<br>><br>> I've got a 200GB HD partitioned automatically during Fedora Core 4 setup.<br>> That is the disk carries 2 partitions where the first one (/dev/sda1) is<br>> ext3 mounted as /boot and the second one (/dev/sda2) is an LVM.
<br>><br>> That is all clear and fancy but the problem is I'm faced with the fact I<br>> need to migrate the HD to Ext2 FS, so I could convert it to FAT32 later, so<br>> I could access it from a copy of the Windows OS I happen to boot recently to
<br>> do some work. The LVM on /dev/sda2 is full of data I need to save and the<br>> problem is I don't have a spare HD to temporarily copy all those 200GB to.<br>><br>> If I had a spare HD I would eventually mount it, make a new Ext2 partition
<br>> on it and then copy all the data from the LogicalVolume to the new<br>> partition. Then I would fire up fdisk and kill the LVM, thus freeing the<br>> space on the drive. Then, moving the data back to the first HD would be a
<br>> snap. But without a spare disk I face a real challenge.<br>><br>> My initial idea was to reduce the FS inside the LogicalVolume (it has<br>> ~40GB free of space) and then reduce the size of the LogicalVolume and then
<br>> reduce the PhysicalVolume /dev/sda2 by the freed number of cylinders. Then,<br>> I would create an ext2 partition over the freed cylinders and move some<br>> files from the LogicalVolume onto it. Then I thought I would repeat the
<br>> process several times effectively migrating my data from the ever-shrinking<br>> LVM to the ever-growing plain Ext2 FS.<br>><br>> The problem is I have little idea how I can shrink an LVM partition on<br>
> /dev/sda2. And there seem to be very little information on this on the net.<br>><br>> So far, I have lvreduce'd the FS inside the LogicalVolume and the<br>> LogicalVolume itselft to 35700000 4k blocks. Now, how do I redeuce the
<br>> number of cyllinders occupied by the LVM on /dev/sda?<br>><br>> I would really apreciate any help or ideas.<br>> Thanks a lot in advance.<br>><br>> --<br>> See you,<br>> Andrey<br>><br>> ICQ UIN: 114087545
<br>> Journal: <a href="http://www.livejournal.com/users/e_ploko/">http://www.livejournal.com/users/e_ploko/</a><br>><br>> _______________________________________________<br>> linux-lvm mailing list<br>> <a href="mailto:linux-lvm@redhat.com">
linux-lvm@redhat.com</a><br>> <a href="https://www.redhat.com/mailman/listinfo/linux-lvm">https://www.redhat.com/mailman/listinfo/linux-lvm</a><br>> read the LVM HOW-TO at <a href="http://tldp.org/HOWTO/LVM-HOWTO/">
http://tldp.org/HOWTO/LVM-HOWTO/</a><br>><br><br><br><br>--<br>Anil Kumar Shrama<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <a href="https://www.redhat.com/archives/linux-lvm/attachments/20051212/312e7a1b/attachment.html">
https://www.redhat.com/archives/linux-lvm/attachments/20051212/312e7a1b/attachment.html</a><br><br>------------------------------<br><br>Message: 5<br>Date: Mon, 12 Dec 2005 15:21:26 +0000<br>From: Alasdair G Kergon <<a href="mailto:agk@redhat.com">
agk@redhat.com</a>><br>Subject: Re: [linux-lvm] Newbie of LVM<br>To: LVM general discussion and development <<a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a>><br>Message-ID: <<a href="mailto:20051212152126.GA25866@agk.surrey.redhat.com">
20051212152126.GA25866@agk.surrey.redhat.com</a>><br>Content-Type: text/plain; charset=us-ascii<br><br>On Fri, Dec 09, 2005 at 02:12:43PM -0500, Matthew Gillen wrote:<br>> Way Loss wrote:<br><br>>
>
/dev/md5              153G  119G  
27G  82% /www<br><br>> >     My md5 is almost full and I wanna use LVM to merge<br>> > my md5 with a new partition from a new hdd. I wanna<br>> > ask if this possible for LVM to merge 2 partition<br>> > together while one of them have data on it? I can't
<br>> > suffer any data loss and want to make sure that LVM<br>> > works perfectly to what I want.<br><br>> You're out of luck.  You can't take an existing partition and keep the<br>> data yet switch it over to LVM.
<br><br>See also:<br>  <a href="https://www.redhat.com/archives/linux-lvm/2005-October/msg00110.html">https://www.redhat.com/archives/linux-lvm/2005-October/msg00110.html</a><br><br>Alasdair<br>--<br><a href="mailto:agk@redhat.com">
agk@redhat.com</a><br><br><br><br>------------------------------<br><br>_______________________________________________<br>linux-lvm mailing list<br><a href="mailto:linux-lvm@redhat.com">linux-lvm@redhat.com</a><br><a href="https://www.redhat.com/mailman/listinfo/linux-lvm">
https://www.redhat.com/mailman/listinfo/linux-lvm</a><br><br>End of linux-lvm Digest, Vol 22, Issue 12<br>*****************************************<br></blockquote></div><br>