Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Задержка.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Задержка., Proxmox Виртуальная Среда
     
    toto-ets
    Guest
    #1
    0
    11.05.2025 12:52:00
    Я использую Proxmox VE 8.4.1. У меня 2 ноды: одна с 24 x INTEL® XEON® SILVER 4510 CPU и 128G RAM, другая с 20 x Intel® Xeon® Silver 4210 CPU @ 2.20GHz и 256G RAM. На обеих нодах по 4 x 2TB HDD в RAID5 ZFS. На ноде с 24 x INTEL® XEON® SILVER 4510 CPU и 128G RAM у меня очень большие задержки ввода-вывода. На обеих нодах только одна ВМ, которую я переключаю между нодами, но на ноде с более производительным процессором эти задержки очень высокие, даже во время миграции они сильно увеличиваются. Что может быть не так?
     
     
     
    toto-ets
    Guest
    #2
    0
    11.05.2025 13:45:00
    Я тоже пробовал без ZFS или с одним диском, но результат один и тот же.
     
     
     
    UdoB
    Guest
    #3
    0
    11.05.2025 21:01:00
    Из этого предложения неясно, есть ли у вас аппаратный RAID5 с ZFS поверх него, или RaidZ1, что-то вроде RAID5. В любом случае — это не работает хорошо. Никаких шансов! Моя рекомендация, как я уже много раз упоминал здесь на форуме: используйте HBA, а не аппаратный RAID — убедитесь, что PVE видит все физические диски во время установки, создайте один ZFS пул из зеркальных vdev (похоже на RAID10) — и используйте все HDD для этого; в итоге каждый диск будет загрузочным, что очень удобно, правда ведь? После первоначальной настройки добавьте быструю "специальную конфигурацию", хотя бы зеркальную. Это критически важно! Используйте два NVMe, если возможно, или два SATA. Используйте устройства "корпорационного класса" с PLP для этого. Это нужно делать в командной строке, насколько я знаю. Вы найдете туториалы, если поищете... Это единственный подход, который я знаю, который потенциально (!) может обеспечить приемлемую производительность для общих задач. Обратите внимание, что только HDD сейчас просто недостаточно.
     
     
     
    toto-ets
    Guest
    #4
    0
    12.05.2025 02:03:00
    До использования ZFS я использовал Ceph, но через месяц у меня начались серьезные проблемы с IO. Хотел бы вернуться к Ceph и использовать 4 жестких диска на 16 ТБ плюс дополнительный SSD на 1 ТБ для DB/WAL. Как думаешь?
     
     
     
    Neobin
    Guest
    #5
    0
    12.05.2025 04:24:00
    Все восемь - точно одна и та же модель? Контроллеры, к которым они подключены, идентичные? Думал ли ты о том, что HDD-шки просто могут оказаться недостаточно мощными для твоей нагрузки?
     
     
     
    UdoB
    Guest
    #6
    0
    12.05.2025 08:57:00
    Ну и ладно, нет! Для нормальной работы нужно несколько нод и несколько OSD на каждую ноду, помимо других вещей, таких как быстрая (>=10GBit/s) и резервная сеть. Я использовал Ceph больше года в своем "рабочем Homelab(!)" – начиная с самого минимального. Вот несколько заметок: [TUTORIAL] Тред 'FabU: могу ли я использовать Ceph во _очень_ маленьком кластере?' 26 декабря 2024 г. Ceph великолепен, но ему требуются ресурсы больше теоретического минимума для надежной работы. Мои предположения относительно следующего текста: вы хотите использовать Ceph... почему бы и нет? Вы хотите использовать высокую доступность – что требует общего хранилища (обратите внимание, что полное решение требует больше вещей, таких как резервная сетевая структура и источники питания). Вы хотите начать с самого малого (и дешевого), потому что это... всего лишь "Homelab". Вы планируете три ноды. Каждая нода имеет отдельный выделенный диск для использования в качестве OSD. Это задокументированный... UdoB ceph cluster mini pc minimize shared filesystem storage. Ответов: 30 Форум: Proxmox VE: Установка и настройка.
     
     
     
    toto-ets
    Guest
    #7
    0
    12.05.2025 10:30:00
    Я читал, что для Ceph рекомендуют использовать несколько HDD, но большей емкости, а не много маленьких. И там говорится как минимум о 3 нодах. Честно говоря, в интернете я нахожу разные мнения на этот счет.
     
     
     
    toto-ets
    Guest
    #8
    0
    12.05.2025 10:31:00
    Да, это идентичные близнецы.
     
     
     
    toto-ets
    Guest
    #9
    0
    12.05.2025 10:32:00
    На самом деле, я подумывал о том, чтобы добавить SSD для DB/WAL, что, как я понимаю, должно увеличить производительность.
     
     
     
    UdoB
    Guest
    #10
    0
    12.05.2025 10:57:00
    При каких конкретно обстоятельствах? Мне это кажется просто неправильным. Особенно когда речь идёт о HDD, хочется миллион независимых, а не всего несколько. Отказ от ответственности, как уже отмечал: я отказался от Ceph.
     
     
     
    toto-ets
    Guest
    #11
    0
    12.05.2025 13:29:00
    Мне кажется, что лучше использовать ZFS в RAID10, а не Ceph?
     
     
     
    UdoB
    Guest
    #12
    0
    12.05.2025 14:16:00
    Да. Отказ от ответственности: я известный фанат ZFS... ;-) [ТУТОРИАЛ] Тред 'FabU: Это просто небольшая настройка с ограниченными ресурсами и всего несколько дисков, стоит ли мне вообще использовать ZFS?' 3 января 2025 года Стоит ли мне вообще использовать ZFS? Для начала требуются отказ от ответственности: я использую ZFS почти везде, где это возможно, хотя исключения и бывают. В любом случае, я однозначно настроен в пользу ZFS. Но, если говорить по делу..., правильный ответ очевиден: «Да, конечно» ;-) Целостность ZFS обеспечивает целостность. Оно будет выдавать ровно те же данные, когда вы их читаете, что и было записано в какой-то момент в прошлом. "Но все файловые системы это делают, верно?" Что ж, тут есть нюансы. ZFS активно следит за правильностью данных. An... UdoB потребительского класса корпоративного класса целостность зеркало raidz хранилище zfs Ответы: 1 Форум: Proxmox VE: Установка и настройка
     
     
     
    toto-ets
    Guest
    #13
    0
    12.05.2025 15:38:00
    Я бы хотел сделать ZFS raid 10 пул из 4 жестких дисков на 16 ТБ, а затем добавить 1 ТБ SSD для bd/wal, чтобы увеличить производительность. Возможно ли это сделать с ZFS?
     
     
     
    toto-ets
    Guest
    #14
    0
    12.05.2025 16:03:00
    Когда я создаю ZFS пул, я не могу найти опцию "добавить диск в качестве кэша (L2ARC) или лога (SLOG)". Почему?
     
     
     
    UdoB
    Guest
    #15
    0
    12.05.2025 16:03:00
    Ладно. Это некорректная терминология. В ZFS есть необязательный CACHE, который является "только для чтения" устройством кэширования. И есть SLOG, "Separate LOG для ZIL (ZFS-Intention Log)". Оба обычно НЕ рекомендуются, так как работают не так, как ожидается - чаще всего. Cache — это расширение второго уровня для ARC (adaptive replacement cache), который всегда находится в оперативной памяти. Когда вы создаете вторичный Cache, ему также нужна оперативная память. Эта оперативная память отнимается у системы --> остается меньше оперативной памяти для обычного ARC. Добавление большого Cache может замедлить работу вашей системы. Рекомендация: увеличьте оперативную память до максимально возможного объема. Только после этого переоцените (научитесь читать вывод arc_summary) полезность второго уровня Cache. SLOG часто понимают как кэш для записи, чем он и не является. SLOG обычно работает только на запись. Данные с него никогда не считываются. Единственное исключение: если произошла потеря питания, и данные были записаны в SLOG, но еще не на основной диск. В этом случае данные считываются при следующей загрузке при импорте пула. Еще один аспект: SLOG ускоряет только SYNC записи. "Обычные" записи асинхронны, и SLOG тут ни при чем. Стоит отметить, что ZIL существует и с выделенным SLOG, и без него. Без выделенного SLOG ZIL находится на данных-дисках. Это основная причина, по которой SYNC записи работают медленно, и отдельный SLOG мог бы помочь с этим. В #3 я уже упоминал "Special Device". Это моя рекомендация. Оно должно быть хорошего качества (зеркальное и с PLP) поскольку потеря такого устройства означает потерю всего пула.
     
     
     
    UdoB
    Guest
    #16
    0
    12.05.2025 16:06:00
    Только сотрудники могут вам это сказать. Очень много вещей работает только в CLI… и с знаниями, которые не представлены в документации PVE…
     
     
     
    toto-ets
    Guest
    #17
    0
    12.05.2025 22:45:00
    Интересно, почему они спонсируют Ceph, если он не делает то, что обещают? Но даже используя диски Dichi SDD серии enterprise ситуация всегда трагичная?
     
     
     
    toto-ets
    Guest
    #18
    0
    15.05.2025 08:48:00
    Заметил, что когда начинается бэкап, возрастает количество задержек ввода-вывода. Есть ли способ ограничить пропускную способность ввода-вывода для одного бэкапа?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры