From doomrunner.lists at gmail.com Thu Jan 18 15:36:12 2007 From: doomrunner.lists at gmail.com (Anton Hofmann) Date: Thu, 18 Jan 2007 16:36:12 +0100 Subject: [redhat-list-de] =?iso-8859-15?q?Platten=FCberlauf_durch_/proc/k?= =?iso-8859-15?q?core_=3F?= Message-ID: <45AF93EC.8070204@gmail.com> Hallo allerseits, zZ. habe ich ein seltsames Problem bei einem Oracle RAC auf einem RH ES4 und dem ?berlaufen der Systemplatte auf einem Cluster-Node. Hier einen auszug von df -h [root at icw1 ~]# df -h Dateisystem Gr??e Benut Verf Ben% Eingeh?ngt auf /dev/mapper/VG0-Vol00 37G 10G 25G 29% / /dev/mapper/VG0-Vol03 5,5G 67M 5,2G 2% /tmp /dev/mapper/VG0-Vol01 9,7G 188M 9,0G 3% /var /dev/sdk 269G 91G 165G 36% /mnt/backup Wie Ihr seht ist zZ. alles ok, jedoch nach 1-2 Wochen Laufzeit geht / auf 100%. Als das Problem gestern zum 2 mal auftrat, vor rund 4 wochen hatte ich das gleich schon einmal, machte ich einen "du -cks *" und Z?hlte alle Verzeichnissgr??en unter Mountpoint / zusammen. Das Resultat war viel kleiner als die Anzeige von "df -h", rund 18 GB wurden ?ber df -h mehr angezeigt als beim zusammenz?hlen der verschiedenen Ordnergr??en ?ber "du -cks *", selbstverst?ndlich habe ich die virtuellen Filesysteme ala /proc nicht mitgez?hlt. Jedoch viel mir auf das die Datei /proc/kcore genau diese 18 GB gr??e hatte, es ist mir bewusst das die kcore nur ein virtuelles Speicherabbild ist, etwas seltsam fand ich es aber schon. Desweiteren viel mir auf das der ES4 proc als none /proc proc defaults 0 0 mounted. Als ich das sah habe ich den Lable-Eintrag in der fstab auf proc /proc proc defaults 0 0 umgestellt, so wie es mir eigentlich aus den meisten Distributionen bekannt ist. Nach einem Neustart hatte ich dann wieder 18 GB mehr platz als zuvor. Ist es m?glich das durch diesen Lable-Eintrag in der fstab "df" eine falsche Auswertung macht und /proc mitz?hlt? Ich kann das Lable leider nicht wieder auf none setzen da der RAC Produktiv l?uft und durch das zZ. noch m?rrische Failover-Switching jeder 10 reboot eines Master-Nodes in einer nicht zu erreichenen Datenbank endet, und bei bis zu 200 Datenbankoperationen pro Sekunde sitzen mir dann sehr wahrscheinlich viele leute im Nacken. Gru? Anton