Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Рекомендации по настройке дисков для нового кластера.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Рекомендации по настройке дисков для нового кластера., Proxmox Виртуальная Среда
     
    silke
    Guest
    #1
    0
    16.04.2025 08:54:00
    Привет! Я тут обновил железо и хотел бы получить рекомендации по организации дисковой системы. Моя пока ещё очень неинформированная (нет опыта, только куча обрывочных знаний из интернета) идея выглядит так: у меня три новых машины с тремя слотами для NVMe каждый и несколько старых Intel NUC.

    - установить 1 ТБ в любую из трёх новых машин для ОС (Proxmox)
    - дополнительные 2x4 ТБ в первые две из них, либо с ZFS, либо с Ceph для виртуальных машин и контейнеров
    - дополнительные 2x2 ТБ в третью новую машину с той же файловой системой, что и в первых двух
    - старый NUC в качестве сервера резервного копирования с внешним хранилищем (USB и NAS)

    Идея в том, чтобы в основном использовать первые две новые машины для моих ВМ с возможностью их перемещения для обслуживания. Третья нужна для обеспечения высокой доступности и некоторой избыточности, у неё немного меньше вычислительной мощности и оперативной памяти. Вы считаете, что это разумная идея? Конечно, я открыт для предложений по улучшению. Но даже если это нормально как задумано, у меня ещё несколько вопросов:

    - Установка Proxmox также создаст хранилище для ВМ на первом диске. Есть ли простой способ просто сделать резервное копирование ОС?
    - Какое полезное назначение для дополнительного пространства на первом диске? Можно ли его включить в настройку HA?
    - ZFS или Ceph? Можете порекомендовать хороший учебник по настройке HA с использованием любого из них?
    - Представим масштабную катастрофу: возможно ли установить портативную систему Proxmox (и сервер резервного копирования?) на USB диск? Если всё рабочее будет потеряно, я хотел бы подключить этот USB диск к любому компьютеру, загрузиться, возможно, задать IP, восстановить несколько действительно важных ВМ с USB диска или удалённой резервной копии и вернуться к работе — хотя бы с аварийной системой?
     
     
     
    UdoB
    Guest
    #2
    0
    16.04.2025 16:32:00
    Моя рекомендация: сначала возникни проблему. Потом ищи решения. Потом выбери одно решение. Потом покупай железо. Ну, можно и с конца начать тоже ZFS! [ТУТОРИАЛ] Тред 'FabU: это небольшая настройка с ограниченными ресурсами и всего несколько дисков, стоит ли мне вообще использовать ZFS?' 3 января 2025 года Стоит ли мне вообще использовать ZFS? Для начала требуется дисклеймер: я использую ZFS почти везде, где это возможно, хотя исключения и бывают. В любом случае я, безусловно, предвспрятствован в пользу ZFS. Что ж..., очевидный ответ — "Да, конечно" ;-) Целостность ZFS гарантирует целостность. Он доставит вам абсолютно те же данные, когда вы их прочитаете, что и когда они были записаны в прошлом. "Но все файловые системы это делают, верно?" Ну, тут есть нюансы. ZFS активно работает над тем, чтобы убедиться в правильности. An... UdoB потребительский класс корпоративный класс целостности зеркало raidz хранилище zfs Ответы: 1 Форум: Proxmox VE: Установка и настройка Чтобы Ceph был полезен и стабилен, вам нужно больше трех нод: [ТУТОРИАЛ] Тред 'FabU: могу ли я использовать Ceph в _очень_ маленьком кластере?' 26 декабря 2024 года Ceph великолепен, но для надежной работы ему нужны ресурсы выше теоретического минимума. Мои предположения для следующего текста: вы хотите использовать Ceph, потому что... почему бы и нет? вы хотите использовать Высокую Доступность – что требует Общего Хранилища (отмечу, что для полного решения нужно больше вещей, таких как избыточная сетевая инфраструктура и блоки питания); вы планируете начать с самого малого (и самого дешевого), потому что это... "всего лишь" Homelab. Вы планируете три ноды. Каждая нода имеет один выделенный диск для использования в качестве "OSD". Это задокументировано... UdoB ceph кластер мини-пк минимизировать общее файловое хранилище Ответы: 30 Форум: Proxmox VE: Установка и настройка
     
     
     
    waltar
    Guest
    #3
    0
    16.04.2025 16:44:00
    Супер подход!! Даааа
     
     
     
    silke
    Guest
    #4
    0
    16.04.2025 18:01:00
    Что заставило тебя прийти к выводу, что я не следовал этой последовательности? – Проблема: получить быструю и надежную систему виртуализации – Решение: современное оборудование с proxmox и как минимум три узла для высокой доступности (HA). – Купить оборудование – Установить Proxmox – Настроить его наилучшим образом, чтобы соответствовать предполагаемому решению.

    Именно на последнем пункте я сейчас и завис. Раньше у меня было несколько стареньких (7-го поколения) NUC с VMware Workstation. Поскольку это (полу-)коммерческое окружение, а не просто домашняя лаборатория, мне нужна была большая скорость, а после нескольких сбоев оборудования я хотел меньше простоев в случае проблем. Решение на базе VMware оказалось либо недостаточно хорошим, либо слишком дорогим. Поэтому вышеописанное решение показалось мне естественным. Но даже с общим решением урегулированным, есть куча проблем, касающихся деталей. Вот почему я надеюсь получить здесь помощь. Спасибо за совет по файловой системе. Какие еще идеи по поводу моих других вопросов?
     
     
     
    UdoB
    Guest
    #5
    0
    16.04.2025 19:37:00
    Ну, первое предложение в посте #1 ;-) Нижний блок в #1? Нет. Официально нет. Резервное копирование узлов в планах уже давно, возможно, появится в следующем релизе. Можно найти скрипты и клиент командной строки для PBS. Лично я их не использую. Почему? Настройка по умолчанию создаст хранилище с именем "local-zfs" непосредственно на ZFS пуле с именем "rpool". Его можно использовать для ВМ (и для контейнеров), и их можно реплицировать по расписанию. Я делаю это для большинства ВМ каждые два часа. Нормальной документации должно быть достаточно. Нет. У вас есть кластер. Когда один узел умирает, просто добавьте еще один (новый). И уберите "мертвый" узел. Просто начните экспериментировать. Начните с мысли, что эта конструкция чисто для обучения. Тестируйте. Повреждайте, восстанавливайте. Делайте резервные копии; восстанавливайте резервные копии. Ищите подводные камни. Убедитесь, что это делает то, что вам нужно. Не забудьте систему резервного копирования, следуя стратегии 3-2-1. По возможности используйте один или несколько PBS с SSD. Убедитесь, что резервные копии создаются автоматически. Проверьте их, фактически восстановив некоторые. Пока вы не сделали этого, все резервные копии – это "резервные копии Гейзенберга" с неизвестным состоянием = неизвестно, работает ли восстановление.
     
     
     
    waltar
    Guest
    #6
    0
    16.04.2025 19:47:00
    Нельзя было сказать лучше! И восстановление нужно периодически проверять и перепроверять на работоспособность.
     
     
     
    silke
    Guest
    #7
    0
    16.04.2025 20:21:00
    Я всё ещё не понимаю, как отсутствие истории решений может подразумевать, что никаких мыслей раньше не было – но вижу, что ты улыбнулся. Твои ответы действительно очень полезны, спасибо большое! Я уже собираюсь (и уже начал) экспериментировать так, как ты описал. Раз кластер пока не продуктивный, я могу всё тщательно тестировать, как ты и предлагал, а потом планирую полную переустановку для рабочей среды. Остался ещё один вопрос, потому что только что посмотрел видео на YouTube про ZFS репликацию, где репликация не работала для локального хранилища, а только после того, как ВМ перенесли на кластер-ZFS, появилась возможность выбрать целевой диск для репликации. Как ты настроил локальное хранилище для репликации? И ещё один вопрос: у меня есть три слота NVMe, думаешь, хорошая идея установить Proxmox на один диск (без RAID), а оставшиеся два использовать для RAID1 как хранилище кластера для ВМ? Или использовать только два диска с RAID1 и всё размещать на них (если смогу разобраться, как там настроить репликацию, как я писал выше)?
     
     
     
    UdoB
    Guest
    #8
    0
    16.04.2025 20:59:00
    Все узлы должны иметь одинаковую конфигурацию хранилища. После нормальной установки каждый из них имеет "rpool" = три экземпляра, по одному на каждом узле. Существует только одно определение хранилища для этого "rpool", названное "local-zfs". Это хранилище объявлено как доступное на всех узлах, оно "shared". Имена должны быть согласованными на всех участниках узла. При этом условии можно реплицировать ВМ с одного узла на другой. И можно перемещать ВМ с одного узла на другой, как в автономном режиме (с остановленной ВМ), так и в онлайн-режиме = пока ВМ работает непрерывно. Всё вышеперечисленное "работает как ожидалось". Затем есть вероятность аппаратного сбоя – и вот тут "High Availability", "HA" вступает в игру. Ему требуется "Shared Storage". ZFS-репликация принимается как есть – хотя это и не совсем "shared". В случае катастрофы, когда узел падает "в нокаут", настроенная ВМ перезапускается на другом узле. Это, по сути, всё, что он делает. Данные на "мертвом" узле были реплицированы некоторое время назад (дни, часы, минуты – на ваш выбор). Данные, изменившиеся после этой последней репликации, теряются. Для некоторых сценариев использования это критично. Для моих ВМ это приемлемо, как на работе, так и в Homelab. Хороший вопрос, на который у меня нет хорошего ответа. В моем Homelab у меня есть несколько мини-ПК с одинаковыми опциями: два *SATA + один одиночный NVMe. Я действительно хочу иметь избыточность, и поэтому выбрал 2*SATA для основной ОС и упомянутый "rpool" с одним зеркальным vdev. В этой конфигурации всё хранится в этом единственном ZFS-пуле. У меня нет хороших рекомендаций, что делать с единственным NVMe. Я не могу использовать его как "Special Device" без избыточности. А дешевый NVMe в качестве кэша (или SLOG) не имеет смысла для Enterprise SSD. (( Анекдот, а не рекомендация: тогда у меня были эти неиспользуемые, но одиночные на узел NVMe. Это было два года назад, и это было начало моего пути с Ceph. Я хотел использовать эти три одиночных NVMe и пошел по пути, описанному в моем связанном "FabU" ... "потому что... почему бы и нет?". В итоге получилось шесть узлов с 12 OSD (плюс три узла без OSD). Мой медленный Homelab (2.5 GBit/s действительно слишком медленно!) и высокие затраты энергии заставили меня отказаться от этого подхода некоторое время назад. Сейчас я снова уменьшаю количество узлов и возвращаюсь только к ZFS, выкидывая Ceph из своей лодки. ))
     
     
     
    silke
    Guest
    #9
    0
    16.04.2025 21:40:00
    Твоя байка подтолкнула меня к новой идее: возможно ли репликацию между Ceph storage и ZFS? Тогда я мог бы использовать третий отдельный диск для Ceph и настроить репликацию с этого Ceph storage на ZFS storage. Ожидаемый результат: пока Ceph работает, у меня будет настоящая отказоустойчивость. Если он где-то сломается (хотя он не очень надёжен в такой минимальной конфигурации), у меня всё равно будет "почти отказоустойчивость" на ZFS, полученная при последней репликации. Бред или реализуемо? Скорость сети не должна быть проблемой. У меня на каждой машине по два порта 10G. С их помощью можно настроить достаточно быструю сеть между нодами. А если даже этого будет недостаточно, я нашёл туториал, как настроить USB4 Thunderbolt порты для сети со скоростью не менее 20G.
     
     
     
    UdoB
    Guest
    #10
    0
    17.04.2025 12:52:00
    Нет, извините. Термин "replication" описывает исключительно возможность копирования ZFS, используя механизм send/receive для минимизации реального трафика.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры