Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    zfs учитывает двойное количество пространства

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    zfs учитывает двойное количество пространства, Proxmox Виртуальная Среда
     
    picateclas
    Guest
    #1
    0
    17.06.2020 14:00:00
    Привет! Здесь происходит что-то странное, я не уверен, что полностью понимаю zfs, или что-то не так с моим настроением. У меня есть несколько машин: одна с 450ГБ и другая с 32ГБ. Но Proxmox показывает, что используется 883ГБ, и при исследовании сервера я вижу следующее: Есть идеи, что может происходить? Почему машина занимает в два раза больше места? Моя конфигурация пула выглядит так: Код: zpool status -v rpool
     pool: rpool
     state: ONLINE
     scan: scrub repaired 0B in 0 days 00:01:48 with 0 errors on Sun Jun 14 00:25:49 2020
    config:
       NAME                                                     STATE     READ WRITE CKSUM
       rpool                                                    ONLINE       0     0     0
         raidz2-0                                               ONLINE       0     0     0
           ata-Samsung_SSD_850_EVO_500GB_S21JNXAG908145B-part3  ONLINE       0     0     0
           ata-Samsung_SSD_850_EVO_500GB_S21JNXAG578103D-part3  ONLINE       0     0     0
           ata-Samsung_SSD_850_EVO_500GB_S21JNXAG570527A-part3  ONLINE       0     0     0
           ata-Samsung_SSD_850_EVO_500GB_S21JNSAG500441R-part3  ONLINE       0     0     0
           ata-Samsung_SSD_850_EVO_500GB_S21JNSAG121223P-part3  ONLINE       0     0     0
           ata-Samsung_SSD_850_EVO_500GB_S2RBNB0J633402B-part3  ONLINE       0     0     0
    errors: No known data errors Код: pveversion -v
    proxmox-ve: 6.2-1 (running kernel: 5.4.41-1-pve)
    pve-manager: 6.2-6 (running version: 6.2-6/ee1d7754)
    pve-kernel-5.4: 6.2-2
    pve-kernel-helper: 6.2-2
    pve-kernel-5.4.41-1-pve: 5.4.41-1
    pve-kernel-5.4.34-1-pve: 5.4.34-2
    ceph-fuse: 12.2.11+dfsg1-2.1+b1
    corosync: 3.0.3-pve1
    criu: 3.11-3
    glusterfs-client: 5.5-3
    ifupdown: 0.8.35+pve1
    ksm-control-daemon: 1.3-1
    libjs-extjs: 6.0.1-10
    libknet1: 1.15-pve1
    libproxmox-acme-perl: 1.0.4
    libpve-access-control: 6.1-1
    libpve-apiclient-perl: 3.0-3
    libpve-common-perl: 6.1-3
    libpve-guest-common-perl: 3.0-10
    libpve-http-server-perl: 3.0-5
    libpve-storage-perl: 6.1-8
    libqb0: 1.0.5-1
    libspice-server1: 0.14.2-4~pve6+1
    lvm2: 2.03.02-pve4
    lxc-pve: 4.0.2-1
    lxcfs: 4.0.3-pve2
    novnc-pve: 1.1.0-1
    proxmox-mini-journalreader: 1.1-1
    proxmox-widget-toolkit: 2.2-7
    pve-cluster: 6.1-8
    pve-container: 3.1-8
    pve-docs: 6.2-4
    pve-edk2-firmware: 2.20200229-1
    pve-firewall: 4.1-2
    pve-firmware: 3.1-1
    pve-ha-manager: 3.0-9
    pve-i18n: 2.1-3
    pve-qemu-kvm: 5.0.0-4
    pve-xtermjs: 4.3.0-1
    qemu-server: 6.2-3
    smartmontools: 7.1-pve2
    spiceterm: 3.1-1
    vncterm: 1.6-1
    zfsutils-linux: 0.8.4-pve1 Спасибо!
     
     
     
    Basti-Fantasti
    Guest
    #2
    0
    23.05.2021 13:27:00
    У меня такая же проблема. Я все правильно понял? Raidz2: у меня есть 10 ТБ (5x2TB SSD). После учета четности остается примерно 5 ТБ. Теперь моя виртуальная машина занимает в два раза больше места: например, образ виртуальной машины размером 300 ГБ использует 600 ГБ. Я думал, это часть "потери четности", а не сверху. Так что из 10 ТБ у меня остается usable space 2.5 ТБ. И это нормально? Или я что-то упустил? Читал много, но так и не нашел ясного ответа. Кто-нибудь может помочь?
     
     
     
    fabian
    Guest
    #3
    0
    25.05.2021 09:28:00
    Да, это вполне ожидаемо, когда смешиваешь raidz с zvol и используешь маленькие размеры блоков.
     
     
     
    Basti-Fantasti
    Guest
    #4
    0
    25.05.2021 10:13:00
    Хорошо, спасибо за ответ. Я изменил размер блока на 16k, теперь с размером ВМ, похоже, всё в порядке. Есть ли какие-то проблемы, которые могут возникнуть с размером блока 16k?
     
     
     
    Dunuin
    Guest
    #5
    0
    25.05.2021 10:21:00
    Имей в виду, что volblocksize можно установить только при создании zvol. Поэтому 16K будет использован только для новых zvol. Если у тебя уже есть существующие zvol с volblocksize 8K, их нужно уничтожить и создать заново. Вероятно, это приведет к большему уровню избыточности записи и накладным расходам.
     
     
     
    Basti-Fantasti
    Guest
    #6
    0
    25.05.2021 10:53:00
    Я уничтожил виртуальную машину и восстановил её на новом 16k zvol, после этого: 300 ГБ вместо 600 ГБ. Похоже, пока всё в порядке. Когда я использую блоки размером 8K, ZFS всегда записывает вдвое больше, чем реально нужно по дисковому пространству. Не появляется ли у меня при этом большая накладка и износ SSD? Действительно ли большее количество записей и накладка на 16K - это проблема или просто факт? Потому что, когда я использую 2.5 ТБ из 10 ТБ, это действительно проблема, и, по сути, это просто невыгодное предложение. Извините, просто немного запутался, но буду благодарен за дальнейшее объяснение.
     
     
     
    fabian
    Guest
    #7
    0
    25.05.2021 10:59:00
    Использование пространства (накладные расходы) и усиление чтения/записи — это две отдельные проблемы. Если увеличить volblocksize, то первое уменьшится — отношение пользовательских данных к служебным данным станет лучше, но второе увеличится, поскольку теперь небольшие чтения/записи будут требовать чтения/записи 16k данных вместо 8k, что обычно означает снижение производительности (поскольку вы тратите время на чтение/запись данных, которые вас даже не интересуют).
     
     
     
    Basti-Fantasti
    Guest
    #8
    0
    25.05.2021 11:20:00
    Хорошо, спасибо за объяснение. Думаю, теперь понимаю. Но около 25-30 % реального usable пространства — это ведь не вариант для никого, правда? Так что варианты такие: (как вы частично упомянули ранее) смириться с 16k и не самой лучшей производительностью (действительно плохой? В тестовой среде кажется нормальным)? (и, возможно, более ранний выход SSD из строя?) Или использовать ZFS Raid10 с проблемой "правильный диск должен сломаться"... тоже не очень "привлекательно". Или я упустил какие-то лучшие практики? Ещё раз спасибо за ваше время.
     
     
     
    fabian
    Guest
    #9
    0
    25.05.2021 11:37:00
    в основном это и есть варианты — какой из них подходит именно для вашего случая, решать вам, конечно.
     
     
     
    Dunuin
    Guest
    #10
    0
    25.05.2021 11:51:00
    Если вам нужна производительность raid10 (заставленный в зеркале) и возможность "выхода из строя любых 2 дисков", как в raid6 (raidz2), вы также можете настроить несколько 3-way зеркал. Но при этом вы тоже потеряете 66% своей емкости.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры