Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    В кластере из 3 узлов, как в худшем случае повлияет на пул дисков, если добавить в него более старый клон HDD?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    В кластере из 3 узлов, как в худшем случае повлияет на пул дисков, если добавить в него более старый клон HDD?, Proxmox Виртуальная Среда
     
    FSNaval
    Guest
    #1
    0
    28.06.2025 18:26:00
    Привет, реддиторы!

    В моём трёхузловом кластере CEPH есть NVME-пул, в котором один узел показывает износ в 35%. Я вывел этот узел из эксплуатации, удалил NVME-диск, и мой план такой, чтобы использовать диски до тех пор, пока они не выйдут из строя:

    1.  Клонировать этот диск на другой, той же или большей ёмкости.
    2.  Установить старый диск обратно в кластер до полного отказа.
    3.  Заменить вышедший из строя диск новым клонированным диском.

    Недостаток этого метода в том, что при установке старого диска обратно в пул и до его полного отказа данные будут записываться в пул. Если я правильно понимаю, при установке нового клонированного диска CEPH начнёт восстановление пула, то есть начнёт добавлять отсутствующие данные с двух других дисков пула на новый. Я правильно понимаю? Или я всё испорчу?
     
     
     
    alexskysilk
    Guest
    #2
    0
    28.06.2025 18:48:00
    Это не совсем то, как работает Ceph. Каждый OSD содержит доли групп размещения, которые сами по себе не очень полезны. Первый уровень восстановления после сбоя — перераспределение данных на доступное пространство на других OSD, поэтому "запасные диски" в этом контексте не имеют смысла. Просто используйте свои диски и заменяйте их, когда они выходят из строя, и перестаньте беспокоиться об этом.
     
     
     
    FSNaval
    Guest
    #3
    0
    28.06.2025 19:20:00
    Понял, что ты имеешь в виду. С моим методом, описанным выше, я хочу избежать всей этой мороки с удалением/добавлением OSD и, возможно, сэкономить время на перебалансировке, потому что часть данных уже будет на месте (моя локальная сеть всего 1 Гбит). Так ты думаешь, что это не сработает или не имеет никакой практической пользы?
     
     
     
    alexskysilk
    Guest
    #4
    0
    28.06.2025 21:24:00
    Подумай, что любая запись на странице, в которой есть "старый" участник и "новый" участник, по сути дела делает "старого" неактуальным. Так что, единственный способ, чтобы это имело какой-то смысл, – это не писать ничего на затронутые страницы. Ну, а это, конечно, сводит на нет всю идею.
     
     
     
    FSNaval
    Guest
    #5
    0
    29.06.2025 15:36:00
    Мой предложенный метод не сэкономит мне время, раз мне не придется вынимать сломанный диск, ждать ребалансировку, вставлять новый диск и снова ждать ребалансировку? Я разве не получу одну Ceph ребалансировку, вставив клонированный диск?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры