【51CTO.com 独家特稿】尽管现在的磁盘容量越来越大,但它终究有被塞满的可能,如果遇上粗枝大叶的系统管理员,磁盘被塞满的时间将变得更短。一个unix/linux运行环境,一旦遇到某个分区(也称文件系统)被塞满,后果也许会十分糟糕。我曾有过在凌晨2点起来干活的经历,分区/tmp满了,导致某个守护进程不能写入磁盘而异常终止。想必也有其他人遇到相似的情况,怎样处理和避免这样的麻烦呢?这里有些意见供大家参考。
先谈非技术方面的因素,简单的讲就是规章制度。Linux/unix大多是公共服务器,应该禁止上传与工作无关的私人数据。某人买了一个NAS(网络附属存储)设备,4个73G的硬盘,本来打算做web的后台数据存储,但是据我所知,这个大容量磁盘不到2个月所剩空间不到20G,私下浏览,嘿!大部分数据是他私人的,他本来有收藏废品的习惯呢,难怪。因此在这个方面,制度应该严厉一些,避免同事放垃圾数据在公共空间。
磁盘上的数据可能随时增长,任何人不可能24小时盯着它,因此实现自动化监控手段是十分必要的,对于更大规模的网络环境,这也许是唯一的途径。下面是一个用perl写的监控磁盘容量的脚本(大宇对此有贡献):
#!/usr/bin/perl -w # this program will check disk capacity $full and send the warning message # to $email_address # (set the threshold to 90 and check it in the daytime so no paging # is needed) my $email_address = 'sa@yourcom.com'; my $hostname = `/sbin/ifconfig -a|grep inet|head -1|cut -f2 -d":"|cut -f1 -d" "`; my $dmesg = `dmesg`; chomp(my $now = `date +"%x %X"`); my $full = 90; # the threshold to send the warning my $warn = 95; my $count = 0; my ($dev,$total,$used); my @df_messages = `df|grep -v proc`; print @df_messages; shift(@df_messages); foreach $message (@df_messages) { chomp($message); ($dev, $total, $used, $available, $capacity, $mount) = split(/\s+/, $message); $capacity =~ s/(\d+)\%/$1/; if ($capacity > $full) { $available[$count] = $available; $capacity[$count] = $capacity; $mount[$count] = $mount; ++$count; $email_address = 'sa@yourcom.com' if ($capacity > $warn); } } if ($count > 0) { open(MAIL, "|/usr/sbin/sendmail -t"); print MAIL "To: $email_address \n"; print MAIL "Subject: Disk almost full on $hostname ($now)\n"; print MAIL "\n"; for ($i = 0; $i < $count; ++$i) { print MAIL "There are only $available[$i] KB ($capacity[$i]\% full) |
把这个脚本放在定时任务crontab里即可实现自动监控,只要某个分区的容量达到脚本中阀值,系统就会发送报警邮件到管理员信箱,更进一步还可设定发送手机短信报警。
知道某个分区快要被塞满的情况后,接下来的事情就是清理它了。登陆系统,然后使用命令df –h察看具体的磁盘使用情况(老一点版本的solaris不支持选项-h,请用-k这个选项),
磁盘的利用率是以百分比的方式显示的,非常直观。找到快要被塞满的分区之后,应该先着手查找占用空间大的最大的文件,然后处理这个占用空间最大的文件。这里我用一个实例(根分区/root)来演示这个过程。
1、 进入目录/root,执行命令 du –h | sort –n 就把当前目录下目录以及文件所占的大小按顺序排列出来了,一屏显示不完的话再用加一个管道 du –h | sort –n | more 就好了。
-bash-3.00# du -h | sort -n| more 1K ./.dt/appmanager 1K ./.dt/help 1K ./.dt/icons 1K ./.dt/tmp ……….(省略若干行) 914K ./mysql-5.0.37/zlib 933K ./mysql-5.0.37/ndb/src/kernel/blocks/dblqh 938K ./mysql-5.0.37/scripts 945M . //这个东西占太大的空间 957K ./mysql-5.0.37/extra/yassl/taocrypt 959K ./vsftpd-2.0.5 1002K ./mysql-5.0.37/ndb/src/common -bash-3.00# |
有上面的输出,我们可以知道在当前目录里有大文件,但是看不出是哪个文件。
2、 再执行命令 ls –al | grep ^- |more 就可以看见每个文件的大小。
-bash-3.00# ls -al | grep ^-|more -rw------- 1 root root 810 Apr 29 09:59 .ICEauthority -rw------- 1 root root 98 Apr 29 09:59 .Xauthority -rw------- 1 root root 730 Apr 30 07:52 .bash_history -rwxr-xr-x 1 root root 5111 Apr 29 08:30 .dtprofile -rw-r--r-- 1 root root 81 Apr 29 08:30 .gtkrc-1.2-gnome2 -rw------- 1 root root 0 Apr 29 08:30 .recently-used -rw-r--r-- 1 root root 681090961 Feb 28 12:29 10202_database_solx 86.zip ……….(省略若干) -rw-r--r-- 1 root root 3069440 Apr 29 11:31 tar-1.16-sol10-x86-lo cal -rw-r--r-- 1 root root 10895360 Oct 22 2006 tar-1.16.tar -rw-r--r-- 1 root root 155985 Jul 3 2006 vsftpd-2.0.5.tar.gz -bash-3.00# |
-bash-3.00# du -h 10202_database_solx86.zip 650M 10202_database_solx86.zip |
大家看一看,找大文件是不是很简单?!当然如果使用awk这样的工具写shell脚本更是方便的法门,还有一个方法是用find加选项 –size,请大家自己去试验。