问题展示:
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/cl-root 50G 50G 0 100% /
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9.0M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/sda1 1014M 140M 875M 14% /boot
/dev/mapper/cl-home 1.6T 305G 1.3T 20% /home
tmpfs 6.3G 0 6.3G 0% /run/user/0
这是在centos服务器上,/dev/mapper/cl-root挂载的根目录
首先查找了一下大文件的 find / -xdev -size +100M -exec ls -l {} \; 示例如下:
-rw-r--r--. 1 root root 106070960 9月 27 2018 /usr/lib/locale/locale-archive
-rw-r--r--. 1 7161 31415 212993992 2月 26 2018 /usr/local/mysql/lib/
-rw-r--r--. 1 7161 31415 179833560 2月 26 2018 /usr/local/mysql/lib/
-rw-r--r--. 1 root root 133663105 7月 4 2018 /apps/software/hadoop-2.7.4/tmp/dfs/data/current/BP-1638267876-10.11.100.102-1530617910507/current/finalized/subdir0/subdir0/blk_1073741850
-rw-r--r--. 1 root root 268435571 1月 6 08:23 /apps/software/hadoop-2.7.4/logs/.4
-rw-r--r--. 1 root root 268435550 11月 5 2018 /apps/software/hadoop-2.7.4/logs/.13
其次切换到/apps/software目下查看一下du -sh *
5.9G hadoop-2.7.4
353M jdk1.8.0_65
207M spark-2.0.0-bin-hadoop2.7
29G spark-2.0.2
39M zookeeper-3.4.5
找到问题,一共50G 这个就占用了36G,
/home目录下磁盘空余大,直接把software移动到/home目录下了,为了不改变环境变量,直接建立软连接
ln -s /home/software /apps
再次查看文件系统df -lh
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/cl-root 50G 3.4G 47G 7% /
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 9.0M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/sda1 1014M 140M 875M 14% /boot
/dev/mapper/cl-home 1.6T 305G 1.3T 20% /home
tmpfs 6.3G 0 6.3G 0% /run/user/0
到此问题解决。
从度娘上也找到一个方法动态扩展根目录的文件系统(没时间尝试,有兴趣的朋友们可以试一下!!链接此下)
/u013431916/article/details/80548069