广州网站设计教程,网络营销常用工具,网站建设要求,深圳效果图制作公司NFS服务器 一、简介1、NFS背景介绍2、生产应用场景 二、NFS工作原理1、示例图2、流程 三、NFS的使用1、安装2、配置文件3、主配置文件分析3.1 实验1 4、NFS账户映射4.1 实验24.2 实验3 四、autofs自动挂载服务1、产生原因2、安装3、配置文件分析4、实验45、实验5 一、简介
1、… NFS服务器 一、简介1、NFS背景介绍2、生产应用场景 二、NFS工作原理1、示例图2、流程 三、NFS的使用1、安装2、配置文件3、主配置文件分析3.1 实验1 4、NFS账户映射4.1 实验24.2 实验3 四、autofs自动挂载服务1、产生原因2、安装3、配置文件分析4、实验45、实验5 一、简介
1、NFS背景介绍
NFS是一种古老的用于在UNIX/Linux主机之间进行文件共享的协议。它古老到你必须穿着白大褂才能接近一台计算机的年代。在那个年代所有的联网计算机都被认为是可信的而不像现今这样任何人都有多种多样方法能连接到你的计算机。因此NFS在开发的时候专注于快速及易用的文件共享而忽视了其安全性设计NFSNetwork File System网络文件系统是FreeBSD支持的文件系统中的一种它允许网络中的计算机不同的计算机、不同的操作系统之间通过TCP/IP网络共享资源主要在unix系列操作系统上使用。NFS服务器可以让PC将网络中的NFS服务器共享的目录挂载到本地端的文件系统中而在本地端的系统中看来那个远程主机的目录就好像是自己的一个磁盘分区一样。由于NFS支持的功能比较多而不同的功能都会使用不同的程序来启动每启动一个功能就会启用一些端口来传输数据因此NFS的功能所对应的端口并不固定而是随机取用一些未被使用的小于1024的端口用于传输。但如此一来就会产生客户端连接服务器的问题因为客户端需要知道服务器端的相关端口才能够连接。此时就需要RPCRPCRemote Procedure Call远程过程调用由于服务器在启动NFS时会随机选取数个端口号并主动向RPC注册所以RPC知道每个NFS功能所对应的端口号RPC将端口号通知给客户端让客户端可以连接到正确的端口上去。RPC采用固定端口号port 111来监听客户端的需求并向客户端响应正确的端口号。注在启动NFS之前要先启动RPC否则NFS会无法向RPC注册。另外RPC若重新启动原来注册的数据会消失不见因此RPC重启后它管理的所有服务都需要重新启动以重新向RPC注册。
2、生产应用场景 NFS网络文件系统很像windows系统的网络共享、安全功能、网络驱动器映射这也和linux系统里的Samba服务器类似。只不过一般情况下windows网络共享服务或Samba服务用于办公局域网共享而互联网中小型网站集群架构后端常用NFS进行数据共享如果是大型网站那可能会用到更复杂的分布式文件系统。 在企业集群架构的工作场景中NFS作为所有前端web服务的共享存储存储的内容一般包括网站用户上传的图片、附件、头像等注意网站的程序代码就不要放在NFS共享里了因为网站程序是开发运维人员统一发布不存在发布延迟问题直接批量发布到web节点提供访问比共享到NFS里访问效率会更高些。 NFS是当前互联网系统架构中常用的数据存储服务之一中小型网站2000万pv(页面浏览量)以下公示应用频率居高大公司或门户除了使用NFS外还可能会使用更为复杂的分布式文件系统
二、NFS工作原理
1、示例图 2、流程
首先服务器端启动RPC服务并开启111端口服务器端启动NFS服务并向RPC注册端口信息客户端启动RPCportmap服务向服务端的RPC(portmap)服务请求服务端的NFS端口服务端的RPC(portmap)服务反馈NFS端口信息给客户端。服务器搭建成功后可以使用下列命令查看,一般都是2049
三、NFS的使用
1、安装
[rootserver ~]# yum install nfs-utils -y
[rootserver ~]# yum install rpcbind -y # 默认已安装2、配置文件
主配置文件/etc/exports , 文件不一定存在/usr/sbin/exportfs : 该文件是维护NFS共享目录资源的命令文件可以使用命令重新共享/etc/exports的目录资源、卸载共享目录日志目录/var/lib/nfs权限设置文件/var/lib/nfs/etab
3、主配置文件分析 /etc/exports 文件默认为空文件需要输入nfs共享命令 格式共享目录的路径 允许访问的NFS客户端(共享权限参数) 分析 允许访问的NFS客户端可以写完整的IP地址或IP网段如 192.168.48.130/24192.168.48.130/255.255.255.0192.168.48.0/24*: 允许所有主机都可以访问 权限参数必须卸载园括号中且括号是紧挨着主机名的全选的相关参数如下多个参数之间使用逗号隔开
权限参数作用ro只读rw读写最终还要看文件系统rwx权限root_squash当NFS客户端以root账户访问时映射为NFS服务器端的匿名账户nobodyno_root_squash当NFS客户端以root账户访问时映射为root账户不推荐、不安全all_squash无论NFS客户端使用什么账户访问均映射为NFS 服务器的匿名账户nobody,推荐no_all_squash客户端普通账户访问服务器的数据时实际的信息原样显示anonuid anongid将文件的用户和工作组映射为指定UID和GID若不指定则默认为65534nobodysync同步同时将数据写入内存与硬盘中保证数据不会丢失推荐async异步优先将数据保存到内存然后在写入硬盘效率高但可能会数据丢失
exports文件内容示例/home/public *(rw,sync) : 对所有主机共享/home/public目录可读可写同步传输 /home/public 192.168.48.131/24(ro,all_squash,sync) : 只对131主机开发共享/home/public 只读权限客户端映射为nobody账户同步传输/home/public 192.168.48.0/24(rw , sync , all_squash , anonuid2000, anongid2000): 对192.168.48.0网段中所有主机开放/home/public 目录可读可写同步传输客户端映射为nobodyuid为2000gid为2000
3.1 实验1
建立NFS服务器使用客户端访问第一步服务端server操作完成准备工作
rootserver ~]# setenforce 0
[rootserver ~]# systemctl stop firewalld
[rootserver ~]# yum install nfs-utils -y 第二步客户端node1操作完成准备工作
rootserver ~]# setenforce 0
[rootserver ~]# systemctl stop firewalld
[rootserver ~]# yum install nfs-utils -y 第三步服务端server操作新建共享目录并设置权限
[rootserver ~]# mkdir /nfsfile
[rootserver ~]# echo www.openlab.com /nfsfile/redme
[rootserver ~]# ls /nfsfile/
redme
[rootserver ~]# cat /nfsfile/redme
www.openlab.com
[rootserver ~]# chmod -Rf 777 /nfsfile/第四步服务端server操作修改nfs配置文件
[rootserver ~]# vim /etc/exports
/nfsfile 192.168.13.135/24(rw,all_squash,sync)第五步服务端server操作先启动rpc服务后启动nfs服务
[rootserver ~]# systemctl start rpcbind
[rootserver ~]# systemctl start nfs-server
[rootserver ~]# systemctl enable rpcbind
[rootserver ~]# systemctl enable nfs-server# 注意启动rpcbind服务时若启动失败可以先停止服务在重新启动
systemctl stop rpcbind
systemctl start rpcbind第六步客户端node1操作通过命令查询共享数据并远程挂载使用
# 查询远程共享信息showmount -参数 服务器IP地址
# 参数# -e显示NFS服务器的共享列表# -a显示本地挂载的文件资源列表# -v显示版本号[rootnode1 ~]# showmount -e 192.168.48.130 # 查询130的共享信息
Export list for 192.168.48.130:
/nfsfile 192.168.48.131/24[rootnode1 ~]# mkdir /nfs1 # 新建本地挂载目录
[rootnode1 ~]# mount -t nfs 192.168.48.130:/nfsfile /nfs1 # 远程挂载
[rootnode1 ~]# cd /nfs1/ # 通过本地目录查看远程共享数据
[rootnode1 nfs1]# ls
redme
[rootnode1 nfs1]# cat redme
www.openlab.com第七步客户端node1操作设置开机挂载实现挂载永久性
[rootnode1 nfs1]# vim /etc/fstab # 添加如下
192.168.48.130:/nfsfile /nfs1 nfs defaults 0 0
# 重启后测试原文件 更改后
4、NFS账户映射
4.1 实验2
基于上例将/nfsfile权限进行修改查看客户端是够可以访问是否可以写入数据
# 定位server端[rootserver ~]# vim /etc/exports # 确认是否为rw写权限
[rootserver ~]# cd /nfsfile/
[rootserver nfsfile]# ll
总用量 4
-rwxrwxrwx 1 root root 16 8月 28 09:29 redme
[rootserver nfsfile]# chmod -Rf 444 /nfsfile/ # 修改权限
[rootserver nfsfile]# ll
总用量 4
-r--r--r-- 1 root root 16 8月 28 09:29 redme# 定位node1端
rootnode1 nfs1]# cd ~
[rootnode1 ~]# cd /nfs1
-bash: cd: /nfs1: 权限不够# 定位server端
[rootserver nfsfile]# chmod -Rf 777 /nfsfile/ # 多执行几次可能有延迟
[rootserver nfsfile]# chmod -Rf 777 /nfsfile/
[rootserver nfsfile]# chmod -Rf 777 /nfsfile/# 定位node1端
[rootnode1 ~]# cd /nfs1
[rootnode1 nfs1]# 4.2 实验3
客户端访问服务端演示账户映射
# 定位node1端
[rootnode1 nfs1]# touch test.txt# 定位server端
[rootserver nfsfile]# ll
总用量 4
-rwxrwxrwx 1 root root 16 8月 28 09:29 redme
-rw-r--r-- 1 nobody nobody 0 8月 28 10:18 test.txt # 注意账户及工作组
[rootserver nfsfile]# vim /etc/exports
/nfsfile 192.168.48.131/24(rw,root_squash,sync)
[rootserver nfsfile]# exportfs -arv # 不卸载即可让配置文件生效
exporting 192.168.48.131/24:/nfsfile# 定位node1端
[rootnode1 nfs1]# cd /
[rootnode1 /]# su fox
[foxnode1 /]$ cd /nfs1
[foxnode1 nfs1]$ ls
redme test2.txt test.txt
[foxnode1 nfs1]$ touch test3.txt
[foxnode1 nfs1]$ ll
总用量 4
-rwxrwxrwx 1 root root 16 8月 28 09:29 redme
-rw-r--r-- 1 nobody nobody 0 8月 28 10:23 test2.txt
-rw-rw-r-- 1 fox fox 0 8月 28 10:25 test3.txt # 注意账户映射名称
-rw-r--r-- 1 nobody nobody 0 8月 28 10:18 test.txt
[foxnode1 nfs1]$ su root
密码
[rootnode1 nfs1]# # 定位server端
[rootserver nfsfile]# vim /etc/exports
/nfsfile 192.168.48.131/24(rw,all_squash,sync,anonuid3000,anongid3000)
[rootserver nfsfile]# exportfs -arv # 信配置生效
exporting 192.168.48.131/24:/nfsfile# 定位node1端
[rootnode1 nfs1]# touch test4.txt
[rootnode1 nfs1]# ll
总用量 4
-rwxrwxrwx 1 root root 16 8月 28 09:29 redme
-rw-r--r-- 1 nobody nobody 0 8月 28 10:23 test2.txt
-rw-rw-r-- 1 fox fox 0 8月 28 10:25 test3.txt
-rw-r--r-- 1 3000 3000 0 8月 28 10:29 test4.txt # 注意uid和guid
-rw-r--r-- 1 nobody nobody 0 8月 28 10:18 test.txt四、autofs自动挂载服务
1、产生原因 在一般NFS文件系统的使用过程中如果客户端要使用服务端所提供的文件系统可以在 /etc/fstab中设置开机时自动挂载也可以在登录系统后手动利用mount来挂载。 由于网络的问题NFS服务器与客户端的连接不会一直存在当我们挂载了NFS服务器之后任何一方脱机都可能造成另外一方等待超时如果在资源挂载后长期不使用也会造成服务器硬件资源的浪费。 为了解决这样的问题就出现了下面的想法 当客户端在有使用NFS文件系统的需求时才让系统自动挂载。 当NFS文件系统使用完毕后autofs默认自动卸载时间为300s即5分钟让NFS自动卸载。 autofs 自动挂载服务可以帮我们解决这一问题该服务是运行在客户端的一种 Linux 系统守护进程在用户需要使用该文件系统时才去动态挂载从而节约了网络资源和服务器的硬件资源。
2、安装
[rootnode1 ~]# yum install autofs -y # 客户端安装3、配置文件分析 配置文件路径/etc/auto.master 作用处于生产环境中的 Linux 服务器一般会同时管理许多设备的挂载操作。如果把这些设备挂载信息都写入到 autofs 服务的主配置文件中无疑会让主配置文件臃肿不堪不利于服务执行效率也不利于日后修改里面的配置内容则需要将挂载的设备独立配置形成子文件主配置文件只存储配置挂载设置的文件名 /etc/auto.master文件内容格式挂载目录 子配置文件 挂载目录不需要事先存在因为autofs会主动建立该目录子配置文件文件名可自定义例/nfs /etc/auto.nfs 子配置文件由自己创建内容格式 本地挂载子目录 [-挂载参数] 服务器地址目录例testmnt 192.168.48.130:/data挂载参数:
参数功能fg/bg当执行挂载时该挂载行为会在前台fg还是后台bg执行若在前台执行则mount会持续尝试挂载直到成功或time out为止若为后台执行则mount会在后台持续多次进行mount而不会影响到前台的程序运行。soft/hardhard表示当两者之间的任何一台主机脱机则RPC会持续地呼叫直到对方恢复连接为止。如果是soft的话那RPC会在time out后重复呼叫而非持续呼叫intr当使用上面提到的hard方式挂载时若加上intr这个参数则当RPC持续呼叫时该次的呼叫是可以被中断的rsize/wsize读出rsize与写入wsize的区块大小。这个设置值可以影响客户端与服务器
4、实验4
服务器创建共享目录客户端实现自动挂载第一步服务器与客户端都恢复快照关闭安全软件第二步安装软件
# 定位server端
[rootserver ~]# yum install nfs-utils -y
[rootserver ~]# yum install rpcbind -y# 定位node1端
[rootnode1 ~]# yum install nfs-utils -y
[rootnode1 ~]# yum install autofs -y第三步定位server端新建共享目录编辑nfs配置文件设置权限
rootserver ~]# mkdir /data
[rootserver ~]# vim /etc/exports
/data *(ro,sync,all_squash)[rootserver ~]# echo this is test /data/file.txt
[rootserver ~]# chmod -Rf 777 /data第四步定位server端启动服务必须先启动rpcbind
[rootserver ~]# systemctl start rpcbind
[rootserver ~]# systemctl start nfs-server
[rootserver ~]# systemctl enable rpcbind
[rootserver ~]# systemctl enable nfs-server 第五步定位node1端编辑自动挂载主配置文件
# 计划node1端挂载目录为/nfs/testmnt
[rootnode1 ~]# vim /etc/auto.master #定位第7行添加一行
/nfs /etc/auto.nfs # 挂载的父目录及子配置文件子配置文件自行命名[rootnode1 ~]# vim /etc/auto.nfs # 编辑子配置文件
testmnt 192.168.48.130:/data # 挂载目录的子目录 nfs服务器参数第六步定位node1端启动服务
[rootnode1 /]# systemctl start autofs
[rootnode1 /]# systemctl enable autofs第七步定位node1端测试
[rootnode1 /]# cd /nfs
[rootnode1 nfs]# ls
[rootnode1 nfs]# cd testmnt # 进入挂载目录时testmnt自动创建
[rootnode1 testmnt]# ls
file.txt
[rootnode1 testmnt]# cat file.txt
this is test
[rootnode1 testmnt]# df -h
文件系统 容量 已用 可用 已用% 挂载点
devtmpfs 4.0M 0 4.0M 0% /dev
tmpfs 968M 0 968M 0% /dev/shm
tmpfs 388M 9.4M 378M 3% /run
/dev/mapper/rhel-root 16G 4.2G 12G 27% /
/dev/nvme0n1p1 395M 235M 160M 60% /boot
tmpfs 194M 92K 194M 1% /run/user/0
/dev/sr0 8.5G 8.5G 0 100% /run/media/root/RHEL-9-1-0-BaseOS-x86_64
192.168.48.130:/data 16G 4.2G 12G 27% /nfs/testmnt5、实验5 自动挂载光驱 第一步定位server恢复快照关闭安全软件安装autofs软件
[rootserver ~]# yum install autofs -y第二步计划光驱本地挂载目录为/media/cdrom第三步编辑主配置文件
[rootserver ~]# vim /etc/auto.master
/media /etc/iso.aa# /media 为最终挂载目录的父目录
# /etc/iso.aa为子配置文件第四步编写子配置文件
[rootserver ~]# vim /etc/iso.aa
cdrom -fstypeiso9660,ro,nosuid,nodev :/dev/sr0 # 注意冒号前有空格第五步启动服务
[rootserver ~]# systemctl start autofs
[rootserver ~]# systemctl enable autofs第六步测试
[rootserver ~]# umount /dev/sr0 # 先卸载设备[rootserver ~]# df -h # 查看已挂载的设备信息
文件系统 容量 已用 可用 已用% 挂载点
devtmpfs 4.0M 0 4.0M 0% /dev
tmpfs 968M 0 968M 0% /dev/shm
tmpfs 388M 9.5M 378M 3% /run
/dev/mapper/rhel-root 16G 4.2G 12G 27% /
/dev/nvme0n1p1 395M 235M 160M 60% /boot
tmpfs 194M 104K 194M 1% /run/user/0[rootserver ~]# cd /media
[rootserver media]# ls
[rootserver media]# cd cdrom # 触发自动挂载
[rootserver cdrom]# ls
AppStream EFI extra_files.json images media.repo RPM-GPG-KEY-redhat-release
BaseOS EULA GPL isolinux RPM-GPG-KEY-redhat-beta
[rootserver cdrom]# df -h
文件系统 容量 已用 可用 已用% 挂载点
devtmpfs 4.0M 0 4.0M 0% /dev
tmpfs 968M 0 968M 0% /dev/shm
tmpfs 388M 9.5M 378M 3% /run
/dev/mapper/rhel-root 16G 4.2G 12G 27% /
/dev/nvme0n1p1 395M 235M 160M 60% /boot
tmpfs 194M 104K 194M 1% /run/user/0
/dev/sr0 8.5G 8.5G 0 100% /media/cdrom