由于NFS
支持的功能比较多,而不同的功能都会使用不同的程序来启动,每启动一个功能就会启用一些端口来传输数据,因此NFS
的功能所对应的端口并不固定,而是随机取用一些未被使用的小于
1024
的端口用于传输。 如此一来就会产生客户端连接服务器的问题,因为客户端需要知道服务器端的相关端口才能够连接。
此时就需要RPC
(Remote Procedure Call
,远程过程调用)的服务。
2、PRC服务:
由于当服务器在启动NFS
时会随机选取数个端口号,并主动向RPC
注册,所以
RPC
知道每个
NFS
功能所对应的端口号,
RPC将端口号通知给客户端,让客户端可以连接到正确的端口。
RPC采用固定端口号port 111
来监听客户端的需求并向客户端响应正确的端口号。
注:在启动
NFS
之前,要先启动
RPC
,否则
NFS
会无法向
RPC
注册。另外,
RPC
若重新启动,原来注册的数据会消失不见,因此RPC
重启后,它管理的所有服务都需要重新启动以重新向
RPC
注册。
二、NFS配置
#下载nfs相关包
[root@localhost ~]# yum install rpcbind
[root@localhost ~]# yum install nfs-utils
#相关文件
/etc/exports 主配置文件(文件不一定存在)
/usr/sbin/showmount 该命令主要用在client端。这个命令可以查看NFS共享出来的目录资源
共享文件:
服务端:
[root@server data]# mkdir /data
#server 给了 192.168.168.140 /data 目录的读写权限
[root@server data]# cat /etc/exports
/data 192.168.168.140(rw)
#共享目录 主机名(权限)
#可以使用完整的IP或者是网络号,例如172.24.8.128或172.24.8.0/24或者
172.24.8.128/255.255.255.0;也可以使用*表示所有主机
#添加权限
[root@server data]# chmod o+w /data/
#关闭防火墙和selinux
[root@server data]# systemctl disable firewalld --now
[root@server data]# getenforce
Enforcing
[root@server data]# setenforce 0
#重启服务
[root@server data]# systemctl restart nfs-server
#用showmount -e 查看nfs共享的相关文件
[root@server data]# showmount -e 192.168.168.128
Export list for 192.168.168.128:
/data 192.168.168.140
客户端:
#客户端(192.168.168.140)
[root@client ~]# showmount -e 192.168.168.128
Export list for 192.168.168.128:
/data 192.168.168.140
[root@client ~]# mkdir -p /nfsclient/client-data/
[root@client ~]# mount 192.168.168.128:/data /nfsclient/client-data/
[root@client ~]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 898M 0 898M 0% /dev
tmpfs 910M 0 910M 0% /dev/shm
tmpfs 910M 9.6M 901M 2% /run
tmpfs 910M 0 910M 0% /sys/fs/cgroup
/dev/mapper/centos-root 37G 1.8G 36G 5% /
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 182M 0 182M 0% /run/user/0
192.168.168.128:/data 40G 6.2G 34G 16% /nfsclient/client-data
权限相关参数(多个参数之间用逗号隔开):
参数值 | 说明 |
rw, ro | 该目录共享的权限是可读写还是只读,但最终能否读写,还是与 文件系统的rwx有关 |
sync,async | sync代表数据会同步写入到内存与硬盘中,async则代表数据会先暂存于内存当中,而非直接写入硬盘 |
no_root_squash root_squash |
若客户端在共享目录里创建的文件的所属者和所属组是root用户和root组,那么显示文件的属主和属组时有以下两种情况: no_root_squash表示,文件的所属者和所属组是root用户和root组;root_squash表示将root用户和组映射为匿名用户和组(默认设置)。 |
all_squash no_all_squash |
all_squash:客户端所有用户创建文件时,客户端会将文件的用户 和组映射为匿名用户和组no_all_squash:客户端普通用户创建的 文件的UID和GID是多少,服务端就显示为多少(默认设置) |
anonuid= anongid= |
将文件的用户和组映射为指定的UID和GID,若不指定默认为65534(nfsnobody) |
三、配置autofs自动挂载
在一般NFS 文件系统的使用过程中,如果客户端要使用服务端所提供的文件系统,可在/etc/rc.d/rc.local 中设置开机时自动挂载( /etc/rc.d/rc.local 文件中写入的命令,在每次启动系统用户 登录之前都会执行一次); 也可以在登录系统后手动利用 mount 来挂载。
由于网络的问题,NFS 服务器与客户端的连接不会一直存在,当我们挂载了 NFS 服务器之后,任何一方 脱机都可能造成另外一方等待超时。为了解决这样的问题,就出现了下面的想法:
- 当客户端在有使用 NFS文件系统的需求时才让系统自动挂载;
- 当 NFS 文件系统使用完毕后,让 NFS 自动卸载。
于是就产生了autofs 这个服务。
autofs这个服务是在客户端的上面,它会持续的检测某个指定的目录,并预先设置当使用到该目录的某 个子目录时,将会取得来自服务器端的NFS 文件系统资源,并进行自动挂载的操作。
#客户端配置autofs
[root@client ~]# yum install autofs -y
[root@client ~]# grep suibian /etc/auto.master
/client /etc/auto.suibian
#本地端目录 具体挂载配置文件
[root@client ~]# cat /etc/auto.suibian
upload 192.168.168.128:/nfs/upload
#本地端子目录 挂载参数 服务器:服务器对应目录
[root@client ~]# systemctl restart autofs
#触发自动挂载
[root@client ~]# cd /client
[root@client ~]# cd upload