1.修改hadoop配置如下内容,并同步到其它节点
core-site.xml新增配置项
<!-- 允许hadoop用户代理任何其它用户组 -->
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
<!-- 允许代理任意服务器请求 -->
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
以及hdfs-site.xml新增配置项
<!-- nfs操作hdfs系统,所使用的超级用户 -->
<property>
<name>nfs.superuser</name>
<value>hadoop</value>
</property>
<!-- nfs接收数据上传时使用的临时目录 -->
<property>
<name>nfs.dump.dir</name>
<value>/tmp/.hdfs-nfs</value>
</property>
<!-- nfs允许连接的客户端IP和权限,rw表示读写,IP整体或部分可以用*代替 -->
<property>
<name>nfs.exports.allowed.hosts</name>
<value>192.168.123.251 rw</value>
</property>
2.开启portmap,nfs3两个新进程
先停止系统的nfs相关进程
#重启集群
stop-dfs.sh
start-dfs.sh
#关闭系统nfs
systemctl stop nfs
systemctl disable nfs
#卸载系统自带rpcbing
yum remove -y rpcbind
#必须以root执行
sudo hdfs --daemon start portmap
#必须以hadoop执行
hdfs --daemon start nfs3
3.window映射nfs
net use y: \\hadoop1\!