/dev/mapper/cl-root 100%满了

时间:2024-10-22 08:51:58

问题展示:

文件系统             容量  已用  可用 已用% 挂载点
/dev/mapper/cl-root   50G  50G   0    100% /
devtmpfs              32G     0   32G    0% /dev
tmpfs                 32G     0   32G    0% /dev/shm
tmpfs                 32G  9.0M   32G    1% /run
tmpfs                 32G     0   32G    0% /sys/fs/cgroup
/dev/sda1           1014M  140M  875M   14% /boot
/dev/mapper/cl-home  1.6T  305G  1.3T   20% /home
tmpfs                6.3G     0  6.3G    0% /run/user/0
 

这是在centos服务器上,/dev/mapper/cl-root挂载的根目录

首先查找了一下大文件的 find / -xdev -size +100M -exec ls -l {} \; 示例如下:

-rw-r--r--. 1 root root 106070960 9月  27 2018 /usr/lib/locale/locale-archive
-rw-r--r--. 1 7161 31415 212993992 2月  26 2018 /usr/local/mysql/lib/
-rw-r--r--. 1 7161 31415 179833560 2月  26 2018 /usr/local/mysql/lib/
-rw-r--r--. 1 root root 133663105 7月   4 2018 /apps/software/hadoop-2.7.4/tmp/dfs/data/current/BP-1638267876-10.11.100.102-1530617910507/current/finalized/subdir0/subdir0/blk_1073741850
-rw-r--r--. 1 root root 268435571 1月   6 08:23 /apps/software/hadoop-2.7.4/logs/.4
-rw-r--r--. 1 root root 268435550 11月  5 2018 /apps/software/hadoop-2.7.4/logs/.13

其次切换到/apps/software目下查看一下du -sh *

5.9G    hadoop-2.7.4
353M    jdk1.8.0_65
207M    spark-2.0.0-bin-hadoop2.7
29G    spark-2.0.2
39M    zookeeper-3.4.5
 

找到问题,一共50G 这个就占用了36G,

/home目录下磁盘空余大,直接把software移动到/home目录下了,为了不改变环境变量,直接建立软连接

ln -s /home/software /apps

再次查看文件系统df -lh

文件系统             容量  已用  可用 已用% 挂载点
/dev/mapper/cl-root   50G  3.4G   47G    7% /
devtmpfs              32G     0   32G    0% /dev
tmpfs                 32G     0   32G    0% /dev/shm
tmpfs                 32G  9.0M   32G    1% /run
tmpfs                 32G     0   32G    0% /sys/fs/cgroup
/dev/sda1           1014M  140M  875M   14% /boot
/dev/mapper/cl-home  1.6T  305G  1.3T   20% /home
tmpfs                6.3G     0  6.3G    0% /run/user/0
 

到此问题解决。

从度娘上也找到一个方法动态扩展根目录的文件系统(没时间尝试,有兴趣的朋友们可以试一下!!链接此下)

/u013431916/article/details/80548069