/proc/sys/fs/file-max VS ulimit -n

来源:互联网 发布:精通java设计模式 编辑:程序博客网 时间:2024/06/08 10:33
一直在google上搜file-max和 ulimit -n的区别, 发现老外的回答也是这样那样的, 有的这种解释有的那中解释, 其实简单的找下man, 就可以知道的很清楚。
简单的说, max-file表示系统级别的能够打开的文件句柄的数量, 而ulimit -n控制进程级别能够打开的文件句柄的数量。 

man 5 proc, 找到file-max的解释:
    file-max中指定了系统范围内所有进程可打开的文件句柄的数量限制(系统级别, kernel-level)。 (The value in file-max denotes the maximum number of file handles that the Linux kernel will allocate)。当收到"Too many open files in system"这样的错误消息时, 就应该增加这个值了。
    # cat /proc/sys/fs/file-max
    4096
    # echo 100000 > /proc/sys/fs/file-max  --立即生效,重启后失效(其值恢复为sysctl.conf值或默认参数)

    或者
    # echo ""fs.file-max=65535" >> /etc/sysctl.conf  --修改后需要重新加载参数文件 sysctl -p
    # sysctl -p


    file-nr 可以查看系统中当前打开的文件句柄的数量。 他里面包括3个数字: 第一个表示已经分配了的文件描述符数量, 第二个表示空闲的文件句柄数量, 第三个表示能够打开文件句柄的最大值(跟file-max一致)。  内核会动态的分配文件句柄, 但是不会再次释放他们(这个可能不适应最新的内核了, 在我的file-nr中看到第二列一直为0, 第一列有增有减)


man bash, 找到说明ulimit的那一节:
    提供对shell及其启动的进程的可用资源(包括文件句柄, 进程数量, core文件大小等)的控制。 这是进程级别的, 也就是说系统中某个session及其启动的每个进程能打开多少个文件描述符, 能fork出多少个子进程等... 
    当达到上限时, 会报错"Too many open files"或者遇上Socket/File: Can’t open so many files等
    
    另外需要注意的是, 每种资源都有相关的软硬限制, 软限制是内核强加给相应资源的限制值,硬限制是软限制的最大值。 非授权调用进程只可以将其软限制指定为0~硬限制范围中的某个值,同时能不可逆转地降低其硬限制。授权进程可以任意改变其软硬限制。RLIM_INFINITY的值表示不对资源限制。
    分别使用-H和-S选项来指定需要对资源是做硬限制/软限制的设置。 如果都不指定, 硬限制和软限制同时设置。 
    打印资源的限制值, 如果不明确指定-H, 打印的是-S
   
    要改apache的ulimit, 可以在 /usr/sbin/apachectl 这个脚本中修改 ULIMIT_MAX_FILES 这个值


    可打开文件句柄数设置的太大, 有那些危害:
    If the file descriptors are tcp sockets, etc, then you risk using up a large amount of memory for the socket buffers and other kernel objects; this memory is not going to be swappable.
    另外要记得的是socket connection也是文件。 
0 0