我需要在 Perl 脚本中打开 10,000 多个文件,因此我要求系统管理员将我的帐户限制更改为 14,000。 ulimit -a
现在显示这些设置:
core file size (blocks, -c) unlimited
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
open files (-n) 14000
pipe size (512 bytes, -p) 10
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 29995
virtual memory (kbytes, -v) unlimited
更改后,我运行了一个测试 Perl 程序,该程序在脚本末尾打开/创建 256 个文件并关闭 256 个文件句柄。当它创建 253 个文件时,程序会死掉,说打开的文件太多。我不明白为什么我会收到这个错误。
我正在 Solaris 10 平台上工作。这是我的代码
my @list;
my $filename = "test";
for ($i = 256; $i >= 0; $i--) {
print "$i " . "\n";
$filename = "test" . "$i";
if (open my $in, ">", ${filename}) {
push @list, $in;
print $in $filename . "\n";
}
else {
warn "Could not open file '$filename'. $!";
die;
}
}
for ($i = 256; $i >= 0; $i--) {
my $retVal = pop @list;
print $retVal . "\n";
close($retVal);
}
最佳答案
According to this article这是 32 位 Solaris 的默认限制。程序通常仅限于使用前 256 个文件编号。 STDIN、STDOUT 和 STDERR 取 0、1 和 2,剩下 253。解决它不是一个简单的过程,ulimit 不会这样做,我不知道 Perl 是否会尊重它。
Here's a discussion about it on Perlmonks有一些建议的解决方法,例如 FileCache .
虽然 Solaris 的限制是不可原谅的,但通常有数百个打开的文件句柄表明您的程序可以设计得更好。
关于perl - 在 Perl 中打开超过 10,000 个文件的问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13409037/