Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не удалось перевести текст: Mount external CephFS - no fsname in /etc/pve/storage.cfg

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не удалось перевести текст: Mount external CephFS - no fsname in /etc/pve/storage.cfg, Proxmox Виртуальная Среда
     
    tidnab
    Guest
    #1
    0
    26.05.2023 09:37:00
    Привет, я пытаюсь добавить внешнее хранилище cephfs прямо в /etc/pve/storage.cfg, потому что мне нужно указать "subdir". (Это невозможно сделать через интерфейс) Но мне также нужно указать 'FS name', так как это не стандартная файловая система cephfs. Могу ли я добавить 'FS name' в etc/pve/storage.cfg и как именно?
     
     
     
    abufrejoval
    Guest
    #2
    0
    28.06.2023 20:56:00
    Если я добавлю 'images' в условие контента, смогу ли я тогда также хранить ВМ на CephFS? Потому что я совсем не понимаю, почему ВМ не поддерживаются на CephFS, и в чем могут быть недостатки этого... P.S. Я использовал oVirt HCI в последние годы, пробовал Xcp-ng и все еще в основном в недоумении.
     
     
     
    aaron
    Guest
    #3
    0
    28.06.2023 22:05:00
    Это не сработает, так как мы этого не разрешаем. Создайте новый пул Ceph, и если флажок "Добавить хранилище" включен, соответствующее хранилище будет добавлено в конфигурацию Proxmox VE. Это будет тип RBD (блок устройства rados) — функциональность блокового устройства поверх Ceph, предназначенная для виртуальных машин. CephFS имеет несколько особенностей, которые делают его неподходящим для хранения виртуальных машин. Во-первых, хранение QCOW2 файлов, например, добавляет лишний уровень, который не нужен. Однако главная проблема в том, что если MDS (сервер метаданных, обеспечивающий функциональность файловой системы) выходит из строя и резервный MDS должен взять на себя его функции, может пройти немного времени, прежде чем CephFS снова станет доступен. На крупных системах это может занять даже несколько минут. Это не то, что можно использовать для образов виртуальных машин.
     
     
     
    abufrejoval
    Guest
    #4
    0
    28.06.2023 22:41:00
    Сам по себе это не самый приятный аргумент. Я делал то же самое, в основном в процессе тестирования импорта виртуальных машин из других гипервизоров мне стало ясно, что файловая система может сэкономить время на копирование, особенно с 'огромными' дисками, которые на самом деле довольно разреженные (я так привык добавлять ТБ-диски в ВМ и потом не использовать их, полагаясь на разреженность и обрезку, чтобы они оставались маленькими). Это могло бы попасть в вашу отличную документацию (возможно, с большим количеством данных), поскольку для меня, как пользователя RHV/oVirt GlusterFS, это не так очевидно: GlusterFS не славится высокой скоростью, но если речь не идет об Infiniband, другой слой без перехода между ядром и пользовательским пространством не должен быть слишком дорогим. oVirt/RHV на самом деле накладывает еще один уровень блоков/чанков на файловую систему, но это в основном сделано для обеспечения некоторой распределенности в противном случае монолитных файлов дисков. И это также связано с тем, что oVirt/RHV изначально проектировался для SAN-хранилищ. С одной стороны, это еще одно полезное понимание, с другой стороны, 'минуты' определенно звучат катастрофически в контексте хранения. Так переводит ли помещение узла, на котором работает активный MDS, в режим обслуживания эту роль на резервный MDS без таких дорогих арбитражей? Уменьшает ли запуск резервного сервера текущий активный до резервного? (Думаю, мне стоит начать читать документацию по Ceph...) Опять же, возможно, я немного избалован тем, насколько толерантен Gluster к сбоям одного узла в хранении, но моя мотивация перейти на Proxmox и Ceph заключается в отсутствии будущего для Gluster и oVirt теперь, когда все downstream коммерческие продукты исчезли.
     
     
     
    aaron
    Guest
    #5
    0
    05.07.2023 15:22:00
    Это определенно неплохая идея. Ceph сам по себе является объектным хранилищем. Все данные хранятся в виде объектов. То, как объект хранится физически, зависит от типа OSD. Раньше существовал тип OSD Filestore, который просто хранил каждый объект как файл на XFS. Filestore сейчас устарел. В настоящее время по умолчанию используется Bluestore, который хранит объекты напрямую на блочном устройстве, обычно на LV. На верхнем уровне прямого объектного хранилища (rados) есть разные слои, предлагающие разную функциональность. Rados Gateway — это совместимый с S3 API (не полезен для Proxmox VE). CephFS предлагает файловую систему, а слой RBD (блочное устройство rados) предоставляет семантику блочного устройства, которую гипервизоры используют для хранения образов дисков. Все части диска, а также вся метадата представляют собой объекты в Ceph. Чтобы взаимодействовать с образами дисков напрямую, вы бы использовали команду rbd. Надеюсь, это даст вам общее представление. Если вас действительно интересует, как слой RBD хранит данные в объектах, вы можете найти полезным этот блог (беспощадная самореклама). Ceph будет справляться с потерей диска или целого узла без проблем и, при наличии достаточных ресурсов, обеспечит восстановление данных до полной избыточности даже без возвращения потерянного узла/OSD в онлайн. Чем больше ресурсов вы дадите Ceph, тем легче ему будет восстановиться -> меньше, но больше OSD, больше узлов и так далее. Кластеры Proxmox VE с гиперсущностями Ceph обычно находятся на (очень) маленьком уровне по сравнению с другими кластерами Ceph, которые запускают крупные организации.
     
     
     
    abufrejoval
    Guest
    #6
    0
    17.07.2023 14:31:00
    Спасибо за ссылку. Я только надеюсь, что мы не столкнемся с RDP напрямую, потому что когда речь шла о том, чтобы исправить настоящие ошибки, то и с Gluster дела обстояли не лучше: к счастью, ничего не ломалось так, чтобы это нельзя было просто решить заменой целого блока.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры