Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Команда завершилась ошибкой с кодом 5 при попытке изменить режим кэша в writeback.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Команда завершилась ошибкой с кодом 5 при попытке изменить режим кэша в writeback., Proxmox Виртуальная Среда
     
    elcaribou12
    Guest
    #1
    0
    28.03.2025 15:00:00
    Привет, я не особо продвинутый пользователь Proxmox, но пытаюсь оптимизировать хранилище, используя SSD в качестве кэша. Мне удалось это сделать, но режим кэширования установлен как writethrough, и я хочу переключить его на writeback. Но когда я делаю: `lvchange --cachemode writeback vg_data/lv_data` Ответ: `Command failed with status code 5`. Вот моя конфигурация хранилища:

    ```
    root@pve:~# lvs -o+cache_mode,cache_settings
    LV              VG      Attr       LSize   Pool              Origin          Data%  Meta%  Move Log Cpy%Sync Convert CacheMode    CacheSettings
    data            pve     twi-aotz-- <49.34g                                   32.42  2.11
    root            pve     -wi-ao---- <37.70g
    swap            pve     -wi-ao----   8.00g
    vm-100-disk-0   pve     Vwi-a-tz--   4.00g
    data                              29.20
    vm-101-disk-0   pve     Vwi-a-tz--   8.00g
    data                              36.24
    vm-102-disk-0   pve     Vwi-a-tz--   8.00g
    data                              22.00
    vm-103-disk-0   pve     Vwi-a-tz--   8.00g
    data                              21.54
    vm-104-disk-0   pve     Vwi-a-tz--   8.00g
    data                              16.25
    vm-105-disk-0   pve     Vwi-a-tz--   8.00g
    data                              16.65
    vm-106-disk-0   pve     Vwi-a-tz--   8.00g
    data                              19.93
    vm-107-disk-0   pve     Vwi-a-tz--   8.00g
    data                              15.43
    vm-108-disk-0   pve     Vwi-a-tz--   8.00g
    data                              37.32
    lv_data         vg_data Cwi---C--- 200.00g [cachepool_cpool] [lv_data_corig] writethrough
    lv_data_storage vg_data -wi-a----- <17.29t
    lv_data_storage vg_data -wi-a----- <17.29t
    ```

    Можете ли вы сказать, почему я не могу изменить режим кэширования на writeback?

    Спасибо.
     
     
     
    dakralex
    Guest
    #2
    0
    28.03.2025 16:40:00
    Привет! Проверял, есть ли какие-нибудь ошибки в syslog/dmesg? Какой вывод команды lvs -ao+devices?
     
     
     
    elcaribou12
    Guest
    #3
    0
    28.03.2025 16:51:00
    Спасибо за помощь! Ничего релевантного в syslog/dmesg. Вот вывод, к сожалению, с плохим форматированием:

    ```
    root@pve:~# lvs -ao+devices
    LV                      VG      Attr       LSize   Pool              Origin          Data%  Meta%  Move Log Cpy%Sync Convert Devices
    data                    pve     twi-aotz-- <49.34g                                   32.44  2.11
    data_tdata(0) [data_tdata] pve Twi-ao---- <49.34g /dev/sdc3(11698)
    data_tmeta(0) [data_tmeta] pve ewi-ao---- 1.00g /dev/sdc3(24329)
    [lvol0_pmspare] pve ewi------- 1.00g /dev/sdc3(24585)
    root                    pve     -wi-ao---- <37.70g                                                                           /dev/sdc3(2048)
    swap                    pve     -wi-ao----   8.00g                                                                           /dev/sdc3(0)
    vm-100-disk-0           pve     Vwi-aotz--   4.00g data                              29.21
    vm-101-disk-0           pve     Vwi-aotz--   8.00g data                              36.25
    vm-102-disk-0           pve     Vwi-aotz--   8.00g data                              22.03
    vm-103-disk-0           pve     Vwi-a-tz--   8.00g data                              21.54
    vm-104-disk-0           pve     Vwi-aotz--   8.00g data                              16.25
    vm-105-disk-0           pve     Vwi-aotz--   8.00g data                              16.67
    vm-106-disk-0           pve     Vwi-a-tz--   8.00g data                              19.93
    vm-107-disk-0           pve     Vwi-a-tz--   8.00g data                              15.43
    vm-108-disk-0           pve     Vwi-a-tz--   8.00g data                              37.36
    [cachepool_cpool] vg_data Cwi---C--- 190.00g
    cachepool_cpool_cdata(0) [cachepool_cpool_cdata] vg_data Cwi------- 190.00g
    /dev/sdb(0)
    [cachepool_cpool_cmeta] vg_data ewi------- 10.00g
    /dev/sdb(48640)
    lv_data                 vg_data Cwi---C--- 200.00g [cachepool_cpool] [lv_data_corig]
    lv_data_corig(0) [lv_data_corig] vg_data owi---C--- 200.00g
    /dev/sda(0)
    lv_data_storage         vg_data -wi-ao---- <17.29t                                                                          
    /dev/sda(51200)
    lv_data_storage         vg_data -wi-ao---- <17.29t                                                                          
    /dev/sdd(0)
    [lvol0_pmspare] vg_data ewi------- 10.00g
    /dev/sdd(2674679)
    ```
     
     
     
    elcaribou12
    Guest
    #4
    0
    01.04.2025 16:59:00
    Может, если я приложу это как скриншот:
     
     
     
    elcaribou12
    Guest
    #5
    0
    02.04.2025 15:05:00
    @dakralex, что думаешь о выводе lvs -ao+devices?
     
     
     
    dakralex
    Guest
    #6
    0
    02.04.2025 18:07:00
    Привет! Есть ли вообще какой-нибудь другой вывод, кроме этой строки? Код статуса 5 — это абсолютно общая ошибка для lvchange и не указывает ни на что, кроме того, что команда не удалась. Можно попробовать добавить флаг --verbose к команде. Иначе, мне интересно, что делает LV lv_data_storage, так как он находится на том же дисковом устройстве, что и устройство кэширования, и находится в состоянии active и открыт? Ты пробовал (временно) отключить его, если в данный момент ничего не читает/записывает из/в LV?
     
     
     
    elcaribou12
    Guest
    #7
    0
    03.04.2025 12:00:00
    Привет! Флаг verbose добавляет "Archiving volume group "vg_data" metadata (seqno 22)." к статусному коду 5. lv_data_storage – основной накопитель, и, насколько я понимаю, lv_data – это кэш для lv_data_storage, но, возможно, я делаю что-то не так.
     
     
     
    elcaribou12
    Guest
    #8
    0
    09.04.2025 11:21:00
    @dakralex, ты думаешь, моя конфигурация неверная?
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры