Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    ошибка монтирования: код выхода 16 (500) при монтировании cephfs

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    ошибка монтирования: код выхода 16 (500) при монтировании cephfs, Proxmox Виртуальная Среда
     
    ronweister
    Guest
    #1
    0
    12.01.2019 13:05:00
    Ошибка монтирования: код выхода 16 (500). Получаю эту ошибку при монтировании внешнего cephfs с ec datapool. Может кто-нибудь помочь?
     
     
     
    wahmed
    Guest
    #2
    0
    08.02.2019 19:40:00
    Если у вас все еще есть эта проблема, просто обновите ваш узел Proxmox, и все исправится.
     
     
     
    Whatever
    Guest
    #3
    0
    07.05.2019 13:46:00
    Я сталкиваюсь с такой же проблемой в последнем 5.4 syslog. Код: May 7 14:44:27 pve-node4 pvestatd[2269]: Файловая система уже смонтирована на /mnt/pve/cephfs-backup May 7 14:44:27 pve-node4 pvestatd[2269]: ошибка монтирования: код выхода 16 May 7 14:44:37 pve-node4 pvestatd[2269]: Файловая система уже смонтирована на /mnt/pve/cephfs-backup May 7 14:44:37 pve-node4 pvestatd[2269]: ошибка монтирования: код выхода 16 Код: root@pve-node4:~# df -h файловая система Размер Использовано Доступно Использовано % Смонтировано на udev 63G 0 63G 0% /dev tmpfs 13G 266M 13G 3% /run /dev/mapper/pve-root 15G 3.0G 11G 22% / tmpfs 63G 63M 63G 1% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs 63G 0 63G 0% /sys/fs/cgroup /dev/fuse 30M 44K 30M 1% /etc/pve /dev/sde1 94M 5.5M 89M 6% /var/lib/ceph/osd/ceph-28 /dev/sdf1 94M 5.5M 89M 6% /var/lib/ceph/osd/ceph-29 /dev/sdd1 94M 5.5M 89M 6% /var/lib/ceph/osd/ceph-27 10.10.10.101:6789,10.10.10.102:6789,10.10.10.103:6789,10.10.10.104:6789:/ 7.2T 4.2T 3.0T 59% /mnt/pve/cephfs-backup /dev/sda1 94M 5.5M 89M 6% /var/lib/ceph/osd/ceph-30 /dev/sdb1 94M 5.5M 89M 6% /var/lib/ceph/osd/ceph-31 /dev/sdc1 94M 5.5M 89M 6% /var/lib/ceph/osd/ceph-32 tmpfs 13G 0 13G 0% /run/user/0 Если я "cd" в "/mnt/pve/cephfs-backup", я могу видеть все данные (так что этот ресурс уже смонтирован, но не распознан pvestat). Есть идеи?
     
     
     
    Alwin
    Guest
    #4
    0
    07.05.2019 14:29:00
    Как выглядит ваш storage.cfg? И пытались ли вы размонтировать хранилище, чтобы проверить, смонтируется ли оно само?
     
     
     
    Whatever
    Guest
    #5
    0
    07.05.2019 14:47:00
    Код: root@pve-node2:~# cat /etc/pve/storage.cfg  
    dir: local  
           отключено  
           путь /var/lib/vz  
           содержание изображения  
           макс. файлов 0  
           общий 0  

    zfspool: local-zfs  
           отключено  
           пул rpool/data  
           размер блока 8k  
           содержание изображения  
           узлы pve-node2,pve-node3,pve-node1  
           разреженный 0  

    zfspool: data-zfs  
           отключено  
           пул tank/data  
           размер блока 8k  
           содержание изображения,rootdir  
           узлы pve-node2,pve-node3,pve-node1  
           разреженный 0  

    rbd: rbd  
           содержание изображения  
           krbd 0  
           пул rbd  

    cephfs: cephfs-backup  
           путь /mnt/pve/cephfs-backup  
           содержание резервная копия,vztmpl,iso  
           макс. файлов 3
     
     
     
    Whatever
    Guest
    #6
    0
    07.05.2019 14:50:00
    размонтирование "/mnt/pve/cephfs-backup" работает (временное) для всех узлов, кроме одного. Код: root@pve-node3:~# umount /mnt/pve/cephfs-backup umount: /mnt/pve/cephfs-backup: целевой ресурс занят (В некоторых случаях полезную информацию о процессах, использующих устройство, можно найти с помощью lsof(8) или fuser(1).) Однако через несколько часов ошибка возвращается на всех остальных узлах.
     
     
     
    Alwin
    Guest
    #7
    0
    07.05.2019 14:53:00
    На node3 что-то все еще обращается к монтированию, не мог бы ты выяснить, что это такое? И можешь, пожалуйста, выложить 'pveversion -v'?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры