NFS搭建、配置及故障排除详解

来源:互联网 发布:stc单片机元件库 编辑:程序博客网 时间:2024/05/01 12:35

1.什么是NFS?

NFS(Network File System)即网络文件系统,是FreeBSD支持的文件系统中的一种,它允许网络中的计算机之间通过TCP/IP网络共享资源。在NFS的应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样。就是通过网络共享目录,让网络上的其他服务器能够挂载访问共享目录内的数据。

2.NFS的挂载原理

NFS分为客户端与服务器端,一般设置为一个Server端,多个客户端,也可设置为多对多,当服务器端设置好共享目录/data后,客户端通过相应的访问权限,将共享目录挂载到本地系统的某个目录下,就可以透明的看到共享目录里的文件了,依据服务器制定的相应权限做操作。

3.NFS服务器与客户端的通信原理

NFS服务器和客户端是通过网络进行数据传输的,网络传输必然要通过指定的端口。然而,NFS服务器是随机选择端口进行传输的,这样NFS客户端就无法知道NFS服务器的端口了。就好像两个小伙伴不认识又想做朋友,不知道怎么开口。为了解决这个问题,RPC(Remote Procedure Control)这个小伙伴来了,他说我给你们搭个线。NFS服务器在启动时会向RPC注册,告诉RPC自己启动了哪些端口,而NFS客户端发送请求时,先向RPC询问NFS服务器的开放端口,这样,NFS客户端拿到了服务器的端口后,再想NFS服务器发送真实的数据传输请求。这两个小伙伴有个共同的朋友,这个朋友讲两人介绍认识了,就是这么一个过程。

客户端NFS和服务端NFS通讯过程
1)首先服务器端启动RPC服务,并开启111端口
2)启动NFS服务,并向RPC注册端口信息
3)客户端启动RPC(portmap服务),向服务端的RPC(portmap)服务请求服务端的NFS端口
4)服务端的RPC(portmap)服务反馈NFS端口信息给客户端。
5)客户端通过获取的NFS端口来建立和服务端的NFS连接并进行数据的传输。

4.NFS服务器搭建
服务器端:
1)查看系统版本
[root@nfs_server ~]# uname -a
Linux nfs_server 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux
[root@nfs_server ~]# cat /etc/redhat-release
CentOS release 6.5 (Final)
关闭Linux防火墙:service iptables stop

2)软件安装
服务器端安装nfs-utils和rpcbind两个服务
查看系统是否安装这两个软件
[root@nfs_server ~]# rpm -qa|egrep “nfs-utils|rpcbind”
nfs-utils-lib-1.1.5-13.el6.x86_64
rpcbind-0.2.0-13.el6_9.1.x86_64
nfs-utils-1.2.3-75.el6.x86_64
我的系统上已经安装,如果没安装,可以使用
yum install rpcbind nfs-utils -y 来安装

3)启动rpcbind和nfs服务
在这里,要先启动rpcbind,后启动nfs服务,因为nfs服务要向rpcbind注册的,这样rpcbind才能获取到nfs的开放端口,因此无论是启动或者重启,都要先启动rpcbind,后启动nfs服务
/etc/init。关闭NFS服务时,先关闭nfs服务,后关闭rpcbind
[root@nfs_server ~]# /etc/init.d/rpcbind start

[root@nfs_server ~]# /etc/init.d/nfs start

4)配置开机自启动
chkconfig nfs on
chkconfig –list nfs
chkconfig rpcbind on
chkconfig –list rpcbind

5)配置共享目录
创建共享目录
mkdir /data
服务器的共享目录属主和属组应改成匿名用户
chown -R nfsnobody:nfsnobody /data
编辑nfs配置文件
vi /etc/exports
/data 192.168.200.0/24(rw,sync)

说明:/data为共享目录
192.168.200.0/24为允许访问的网段
常用参数;
ro:为可读
rw:为可写
sync:同步到磁盘后才返回请求,性能没有异步好,数据可靠性提高
async:异步模式,先写到缓存,返回用户请求,提高性能,但可能丢失数据
root_squash:对于访问NFS server共享目录的用户,如果是root的话会被压缩成匿名用户身份
no_root_squash:访问nfs server共享目录的用户如果是root的话,它对该目录具有root权限。这个配置原本为无盘用户准备的。用户应避免使用!
anonuid:anonuid就是匿名的uid和gid。说明客户端以什么权限来访问服务端,在默认情况下是nfsnobody。Uid65534.
anongid:同anongid,就是把uid换成gid而已。
all_squash:所有访问共享目录的用户压缩成匿名用户,拥有相同的权限

或者cat >> /etc/exports << EOF
/data 192.168.200.0/24(rw,sync)
EOF

配置完/etc/exports不要忘记重新加载一下
/etc/init.d/nfs reload 或者exportfs -r
客户端:
1)安装并启动rpcbind
客户端安装rpcbind,也可rpcbind,nfs-utils都安装
客户端也要有和服务器相同的匿名用户,否则不同的客户端进行数据修改会有问题。
yum install rpcbind nfs-utils
rpm -qa | egrep “rpcbind|nfs-utils”
/etc/init.d/rpcbind start
ps -ef |grep rpcbind
chkconfig rpcbind on
chkconfig –list rpcbind

2).查看服务器端的共享信息
[root@nfs_client ~]# showmount -e 192.168.200.128
Export list for 192.168.200.128:
/data 192.168.200.0/24

3).客户端挂载服务器的共享目录
mount -t nfs 192.168.200.128:/data /mnt
这样搭建NFS服务就完成了

5.NFS服务调优
1).客户端优化
客户端优化主要是挂载优化,主要参数有:
rw:读写权限
ro:只读权限

suid:允许设置suid
nosuid:不允许设置suid

exec:允许在共享文件系统中直接执行任何二进制文件
noexec:不允许在共享文件系统中直接执行任何二进制文件

user:允许用户去挂载和卸载这个共享目录。并且这个选项也意味着noexec, nosuid, and nodev这个选项,除非后面有覆盖指定。
nouser:不允许用户去挂载和卸载这个共享目录

fg | bg 当执行挂载时,该挂载行为是在前台(fg)还是在后台(bg)执行。若在前台执行,则mount会持续尝试链接,直到成功或time out为止。若为在后台执行,则mount会在后台持续多次进行mount,而不会影响到前台的程序操作。如果网络联机不稳定,或是服务器常常需要开关机。建议使用bg比较妥当。

soft| hard :使用挂载时会使用RPC呼叫。如果是hard的情况,那么当两者之间有任何一台主机离线,那RPC会持续呼叫,直到对方恢复联机为止。而soft,只是在RPC time out后重复呼叫。而非持续呼叫。因此系统的延迟会不这么明显,如果服务器经常开开关关的话,建议使用soft。在生产环境中推荐使用hard,intr这样的方式来挂载。
intr 当使用hard方式挂载时,若加上intr参数,则RPC的持续呼叫是可以被中断的

rsize|wsize :读出(rsize)和写入(wsize)的区块大小。这个设置值可以影响客户端与服务器端传输数据的缓冲存储容量。一般来说,如果在局域网内(LAN),并且客户端与服务器都具有足够的内存,这个值可以设置大一点,比如说32768,提升缓冲区块将可提升NFS文件系统的传输能力。但设置的值也不要太大,最好是实现网络能够传输的最大值为限。

推荐挂载参数:
umount -lf /mnt 强制卸载
Centos5.8 x86_64客户端挂载优化
mount -t nfs -o noatime,nodiratime,nosuid,noexec,nodev,rw,bg,soft,rsize=32768,wsize=32768 192.168.200.128:/data /mnt
Centos6.5 x86_64客户端挂载优化
mount -t nfs -o noatime,nodiratime,nosuid,noexec,nodev,rw,bf,hard,intr 192.168.200.128:/data /mnt
最佳性能挂载;mount -t nfs - noatime,nodiratime,rsize=131072,wsize=131072 192.168.200.128:/data /mnt

如何设置开机自动挂载

特别说明:我们重新启动客户端之后,我们要重新去挂载nfs,我们可以有两种方式来实现。

<1>通过把mount–t nfs 192.168.200.128:/data /mnt这条命令写到/etc/rc.local中,让它开机就执行。

<2>在/etc/fstab(系统开机启动分区加载项)添加我们的NFS配置:

192.168.200.128:/data /mnt nfs defaults 0 0 。

但在生产环境中,对于共享的NFS目录,一般不会配置到/etc/fstab里。因为在客户端主机重启时如果由于网络等原因连接不上nfs server时,就会导致客户机无法启动的厄运发生。一般是通过把mount -t nfs 192.168.200.128:/data /mnt命令放到rc.local中来实现开机自动挂载NFS。

2)服务器端优化
NFS内核调优;调整接收/发送套接字缓冲区大小
cat /proc/sys/net/core/rmem_default
cat /proc/sys/net/core/rmem_max

echo 262144 > /proc/sys/net/core/rmem_default
echo 262144 > /proc/sys/net/core/rmem_max

写入文件
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
sysctl -p

6NFS综述

NFS优点

1、简单容易掌握

2、方便快速部署简单维护容易

3、可靠—从软件层面上看,数据可靠性高,经久耐用

NFS局限

1、局限性是存在单点故障,如果NFSserver宕机了所有客户端都不能访问共享目录,#####我们可以通过rsync来进行数据的同步。或者是通过负载均衡的高可用方案。######

2、在高并发的场合,NFS效率性能有限(一般几千万以下pv的网站不是瓶颈,除非网站架构太差。)

3、服务器共享文件的客户端认证是基于IP和主机名的安全性一般(但用于内网则问题不大)

4、NFS数据是明文的,对数据完整性不做验证(一般是存放于内网,提供内网的服务器使用。所以安全性相对不是一个问题)

5、多机器挂载服务器时,连接管理维护麻烦。尤其NFS服务端出问题后,所有客户端都挂掉状态(可使用autofs自动挂载解决。)

生产应用场景

中小型网站(2000万pv以下)线上应用,都有用武之地。门户网站也会有其他方面的应用,。因为门户网站的并发量是超级的大。所以有更加会用专业的存储来做这件事情。