nfs服务器

时间:2024-11-03 19:23:12
        由于NFS 支持的功能比较多,而不同的功能都会使用不同的程序来启动,每启动一个功能就会启用一些端口来传输数据,因此NFS 的功能所对应的端口并不固定,而是随机取用一些未被使用的小于 1024 的端口用于传输。 如此一来就会产生客户端连接服务器的问题,因为客户端需要知道服务器端的相关端口才能够连接。
        此时就需要RPC Remote Procedure Call ,远程过程调用)的服务

2、PRC服务:

        由于当服务器在启动NFS 时会随机选取数个端口号,并主动向RPC 注册,所以 RPC 知道每个 NFS 功能所对应的端口号, RPC将端口号通知给客户端,让客户端可以连接到正确的端口。
         RPC采用固定端口号port 111 来监听客户端的需求并向客户端响应正确的端口号。
注:在启动 NFS 之前,要先启动 RPC ,否则 NFS 会无法向 RPC 注册。另外, RPC 若重新启动,原来注册的数据会消失不见,因此RPC 重启后,它管理的所有服务都需要重新启动以重新向 RPC 注册。

二、NFS配置

#下载nfs相关包
[root@localhost ~]# yum install rpcbind
[root@localhost ~]# yum install nfs-utils
 
#相关文件
/etc/exports 主配置文件(文件不一定存在)
/usr/sbin/showmount 该命令主要用在client端。这个命令可以查看NFS共享出来的目录资源

共享文件:

服务端:
[root@server data]# mkdir /data
 
#server 给了 192.168.168.140 /data 目录的读写权限
[root@server data]# cat /etc/exports
/data 192.168.168.140(rw)
#共享目录 主机名(权限)
#可以使用完整的IP或者是网络号,例如172.24.8.128或172.24.8.0/24或者
172.24.8.128/255.255.255.0;也可以使用*表示所有主机
 
#添加权限
[root@server data]# chmod o+w /data/
#关闭防火墙和selinux
[root@server data]# systemctl disable firewalld --now
[root@server data]# getenforce
Enforcing
[root@server data]# setenforce 0
#重启服务
[root@server data]# systemctl restart nfs-server
#用showmount -e 查看nfs共享的相关文件
[root@server data]# showmount -e 192.168.168.128
Export list for 192.168.168.128:
/data 192.168.168.140
客户端:
#客户端(192.168.168.140)
[root@client ~]# showmount -e 192.168.168.128
Export list for 192.168.168.128:
/data 192.168.168.140
[root@client ~]# mkdir -p /nfsclient/client-data/
[root@client ~]# mount 192.168.168.128:/data /nfsclient/client-data/
[root@client ~]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 898M 0 898M 0% /dev
tmpfs 910M 0 910M 0% /dev/shm
tmpfs 910M 9.6M 901M 2% /run
tmpfs 910M 0 910M 0% /sys/fs/cgroup
/dev/mapper/centos-root 37G 1.8G 36G 5% /
/dev/sda1 1014M 150M 865M 15% /boot
tmpfs 182M 0 182M 0% /run/user/0
192.168.168.128:/data 40G 6.2G 34G 16% /nfsclient/client-data

权限相关参数(多个参数之间用逗号隔开):

参数值 说明
rw, ro 该目录共享的权限是可读写还是只读,但最终能否读写,还是与 文件系统的rwx有关
sync,async sync代表数据会同步写入到内存与硬盘中,async则代表数据会先暂存于内存当中,而非直接写入硬盘

no_root_squash

root_squash

若客户端在共享目录里创建的文件的所属者和所属组是root用户和root组,那么显示文件的属主和属组时有以下两种情况: no_root_squash表示,文件的所属者和所属组是root用户和root组;root_squash表示将root用户和组映射为匿名用户和组(默认设置)。

all_squash

no_all_squash

all_squash:客户端所有用户创建文件时,客户端会将文件的用户 和组映射为匿名用户和组no_all_squash:客户端普通用户创建的 文件的UID和GID是多少,服务端就显示为多少(默认设置)

anonuid=

anongid=

将文件的用户和组映射为指定的UID和GID,若不指定默认为65534(nfsnobody)

三、配置autofs自动挂载

        在一般NFS 文件系统的使用过程中,如果客户端要使用服务端所提供的文件系统,可在/etc/rc.d/rc.local 中设置开机时自动挂载( /etc/rc.d/rc.local 文件中写入的命令,在每次启动系统用户 登录之前都会执行一次); 也可以在登录系统后手动利用 mount 来挂载。
        
        由于网络的问题,NFS 服务器与客户端的连接不会一直存在,当我们挂载了 NFS 服务器之后,任何一方 脱机都可能造成另外一方等待超时。为了解决这样的问题,就出现了下面的想法:

  • 当客户端在有使用 NFS文件系统的需求时才让系统自动挂载;
  • 当 NFS 文件系统使用完毕后,让 NFS 自动卸载。

        于是就产生了autofs 这个服务。
        autofs这个服务是在客户端的上面,它会持续的检测某个指定的目录,并预先设置当使用到该目录的某 个子目录时,将会取得来自服务器端的NFS 文件系统资源,并进行自动挂载的操作。

#客户端配置autofs
[root@client ~]# yum install autofs -y
[root@client ~]# grep suibian /etc/auto.master
/client /etc/auto.suibian
#本地端目录 具体挂载配置文件
[root@client ~]# cat /etc/auto.suibian
upload 192.168.168.128:/nfs/upload
#本地端子目录 挂载参数 服务器:服务器对应目录
[root@client ~]# systemctl restart autofs
#触发自动挂载
[root@client ~]# cd /client
[root@client ~]# cd upload