Вопрос или проблема
Да! Еще один скучный вопрос о монтировании 🙂 :
Мой домашний сервер упал — вероятно, потому что один из жестких дисков вышел из строя — после его удаления сервер снова заработал без проблем. Обратите внимание, что в сервере также есть 2 других диска:
Disk2_1TB
Disk4_1TB
И новый диск:
Disk3_500GB (который заменяет Disk3_250GB)
Теперь начинается веселье.
Сломанный диск был жестким диском на 250 ГБ — новый диск является SSD диском.
Вставил его — отформатировал в NTFS, создал метку, изменил детали в smb.conf — добавил запись в /etc/fstab для монтирования при загрузке, и с серверной стороны все в порядке.
**запись в Fstab (сервер):**
UUID=67EAAB18626D809E /mnt/rabbithole/Disk3_500GB auto defaults 0 0
**Запись в smb.conf**
comment = Disk3_500GB
path = /mnt/rabbithole/Disk3_500GB
browseable = yes
read only = no
writeable = yes
valid users = me, you,
create mask = 0700
directory mask = 0700
**lsblk**
sdb 8:16 0 931.5G 0 диск
└─sdb1 8:17 0 931.5G 0 часть /mnt/rabbithole/Disk2_1TB
sdc 8:32 0 931.5G 0 диск
└─sdc1 8:33 0 931.5G 0 часть /mnt/rabbithole/Disk4_1TB
sdd 8:48 0 465.8G 0 диск
└─sdd1 8:49 0 465.8G 0 часть /mnt/rabbithole/Disk3_500GB
**sudo blkid -o list**
/dev/sdd1 ntfs Disk3_500GB /mnt/rabbithole/Disk3_500GB 67EAAB18626D809E
/dev/sdb1 ntfs sdb_1 /mnt/rabbithole/Disk2_1TB 3DF5D0052AA8C8AB
/dev/sdc1 ntfs SDD_1 /mnt/rabbithole/Disk4_1TB 54D70D411ABCA6A2
Вы можете увидеть здесь, что (меняя местами SATA-кабели внутри сервера) sdc1 БЫЛ SDD_1 — но я не могу представить, чтобы метка диска делала всю разницу.
ls -l
drwxrwxrwx 1 root root 4096 Dec 24 13:09 Disk2_1TB
drwxrwxrwx 1 root root 4096 Dec 30 11:31 Disk3_500GB
drwxrwxrwx 1 root root 4096 Nov 21 2023 Disk4_1TB
теперь с клиентской стороны:
**/etc/fstab**
192.168.178.100:/mnt/rabbithole/Disk2_1TB /mnt/rabbithole/Disk2_1TB nfs4 defaults,x-systemd.after=wait-for-ping.service 0 0
192.168.178.100:/mnt/rabbithole/Disk4_1TB /mnt/rabbithole/Disk4_1TB nfs4 defaults,x-systemd.after=wait-for-ping.service 0 0
192.168.178.100:/mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB nfs4 defaults,x-systemd.after=wait-for-ping.service 0 0
**вывод sudo mount -a**
mount.nfs4: монтирование 192.168.178.100:/mnt/rabbithole/Disk3_500GB не удалось, причина, указанная сервером: Нет такого файла или каталога
Теперь, когда я использую Dolphin и иду в ‘Shared Folders (SMB)’ и иду в smb//192.168.178.100, он находит диск прекрасно, и я могу просматривать файлы внутри.
Теперь, будучи такая умник, я попытался использовать командную строку, чтобы посмотреть, смогу ли я немного поиграть с командой mount — но безуспешно.
326 sudo mount -t nfs4 //192.168.178.100/mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB/
327 sudo mount -t nfs4 //192.168.178.100/mnt/rabbithole/Disk3_500GB/ /mnt/rabbithole/Disk3_500GB/
328 sudo mount -t nfs //192.168.178.100/mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB/
329 sudo mount -t nfs4 //192.168.178.100:mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB/
330 sudo mount -t nfs4 192.168.178.100:mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB/
331 sudo mount 192.168.178.100:mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB/
все безуспешно — где-то я получил ошибку -2, но не уверен, когда именно получил ее.
затем у меня появилась идея смонтировать на уровне выше:
192.168.178.100:/mnt/rabbithole/ /mnt/rabbithole/ nfs4 defaults,x-systemd.after=wait-for-ping.service 0 0
Что дает мне диски Disk2 и Disk4 в Долфине (но не 500GB диск)
Итак — я думаю, что сделал все правильно — но по какой-то (вероятно глупой) причине диск не может быть смонтирован, так как он как будто не существует.
Надеюсь, кто-нибудь сможет мне помочь.
С уважением,
Дит
Ответ или решение
Ваша проблема связана с подключением сетевого диска через NFS, и сообщение об ошибке “No such file or directory” указывает на то, что путь на сервере, указанный в NFS, не может быть найден. Рассмотрим шаги по выявлению и устранению проблемы.
Шаг 1: Проверьте Конфигурацию Сервера
Начнем с проверки конфигурации сервера. Удостоверимся, что точка монтирования на сервере действительно существует и правильно настроена:
- Проверьте файл
/etc/fstab
на сервере. В этом файле прописаны настройки монтирования нового SSD. Исправьте возможные опечатки в пути дляUUID=67EAAB18626D809E /mnt/rabbithole/Disk3_500GB
. - Убедитесь, что директория
/mnt/rabbithole/Disk3_500GB
действительно присутствует на сервере и доступна для монтирования.
Шаг 2: Проверьте Настройки NFS
Поскольку ошибка возникает при монтировании через NFS, нужно удостовериться, что директория экспортируется правильно:
- Проверьте файл
/etc/exports
на сервере. Должна быть строка, описывающая экспортируемый каталог. Например:/mnt/rabbithole/Disk3_500GB 192.168.178.0/24(rw,sync,no_subtree_check)
- Обновите экспорт, применив изменения командой
exportfs -ra
. - Убедитесь, что NFS-сервис работает нормально:
systemctl status nfs-server
Шаг 3: Диагностика на Клиенте
После того как вы убедились, что настройки сервера корректны, проверьте клиентскую часть:
- Удостоверьтесь, что на клиенте путь
/mnt/rabbithole/Disk3_500GB
существует и доступен для записи. - Проверьте, что вы использовали правильный путь в
/etc/fstab
на клиенте:192.168.178.100:/mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB nfs4 defaults,x-systemd.after=wait-for-ping.service 0 0
Шаг 4: Тестирование и Отладка
Чтобы понять, где именно возникает проблема, используйте команды для ручного монтирования и получите больше информации для анализа:
- Попробуйте выполнить монтирование вручную, чтобы проверить детализированный вывод ошибки:
sudo mount -v -t nfs 192.168.178.100:/mnt/rabbithole/Disk3_500GB /mnt/rabbithole/Disk3_500GB/
- Проверьте логи сервера и клиента:
journalctl -xe
dmesg | tail
Итог
Если описанные шаги не помогли, вероятно, проблема связана с сетевой конфигурацией или правами доступа. Проверьте наличие сети на клиенте и сервере, а также права пользователей на экспортируемые директории. Обратитесь к документации по NFS для более глубокой отладки. Удачи в решении проблемы!