Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Дублированный набор дисков на VM.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Дублированный набор дисков на VM., Proxmox Виртуальная Среда
     
    369
    Guest
    #1
    0
    20.02.2020 10:26:00
    Привет! Я довольно нов в Proxmox и сейчас тестирую, можно ли его использовать как альтернативу VMWare. Недавно обнаружил странную вещь в одной тестовой VM. У VM три диска: 32GB - Ubuntu Server, 1TB ZFS для данных одного отдела, 2TB ZFS для другого отдела. У всех дисков discard=on (тонкое выделение). VM была создана на PVE хосте 1. Базовая настройка (ОС, обновления, файловые системы) была сделана там. Затем VM перенесли на PVE хост 2. На хосте 2 я заполнил диски данными с помощью rsync с наших продакшн-систем (500GB & 1.3TB). Затем попытался перенести VM обратно на хост 1. Это не удалось, потому что на хосте 1 закончилось свободное место (4TB ZFS локальное хранилище).

    Оказалось, что для этой VM отображается 9 дисков: vm-104-disk-0 до vm-104-disk-8. Каждый диск встречается три раза. Последние три подключены к VM. Что там произошло? И может ли быть так, что при миграции VM теряется настройка discard? Флаг sparse установлен для каждого ZFS хранилища.

    Спасибо.
     
     
     
    greenie
    Guest
    #2
    0
    29.07.2023 21:43:00
    Всё ещё поднимаю этот вопрос, проблема с big не исчезла. Сейчас добавлю свою конфигурацию, чтобы доказать, что проблема всё ещё актуальна. Ошибка после миграции 3 диска с одного VM и 2 с другого. Отправляю конфиги и данные для VM 200: Попытка удалить это даёт следующее: Содержимое файла /etc/pve/storage.cfg: ``` nodes pve1 sparse 1 zfspool: Local_NVME pool Local_NVME content rootdir,images mountpoint /Local_NVME nodes pve3 sparse 0 cifs: Proxmox-VMs-Server1 path /mnt/pve/Proxmox-VMs-Server1 server 192.168.0.35 share Proxmox-VMs-Server1 content vztmpl,snippets,iso,backup,images,rootdir prune-backups keep-last=3 username admin cifs: Proxmox-VMs-Server2 path /mnt/pve/Proxmox-VMs-Server2 server 192.168.0.35 share Proxmox-VMs-Server2 content vztmpl,iso,snippets,images,backup,rootdir prune-backups keep-all=1 username admin zfspool: Local-NVME pool Local-NVME content images,rootdir mountpoint /Local-NVME nodes pve1,pve4,pve2 ``` Конфигурация VM: ``` #192.168.0.5 agent: 1 balloon: 8192 boot: order=scsi0;net0 cores: 10 memory: 32768 meta: creation-qemu=6.1.0,ctime=1648391148 name: Game-Server-V1 net0: virtio=A6:E7:9A:F6:B9:FE,bridge=vmbr0,firewall=1 numa: 0 onboot: 1 ostype: l26 scsi0: Local-NVME:vm-200-disk-2,cache=writeback,discard=on,size=300G,ssd=1 scsihw: virtio-scsi-pci smbios1: uuid=07ee633b-4540-4d6a-9577-8346efc6e5f3 sockets: 1 startup: order=9,up=5,down=10 tags: gamehosting vmgenid: 379324ef-6379-4a92-996e-9db6c155c049 ```
     
     
     
    gpsantos
    Guest
    #3
    0
    12.04.2021 20:02:00
    Привет, сообщество Proxmox. Я столкнулся с похожей проблемой при миграции одной ВМ с одним диском на другой узел. Только для этой машины система, кажется, находит другие диски, как видно из следующего лога:

    Code: task started by HA resource agent
    2021-04-12 14:28:04 starting migration of VM 104 to node 'pve2' (172.27.132.22)
    2021-04-12 14:28:04 found local disk 'local-zfs:vm-104-disk-0' (via storage)
    2021-04-12 14:28:04 found local, replicated disk 'local-zfs:vm-104-disk-1' (in current VM config)
    2021-04-12 14:28:04 found local disk 'local-zfs:vm-104-disk-2' (via storage)
    2021-04-12 14:28:04 found local disk 'local-zfs:vm-104-disk-3' (via storage)
    2021-04-12 14:28:04 scsi0: start tracking writes using block-dirty-bitmap 'repl_scsi0'
    2021-04-12 14:28:04 replicating disk images
    2021-04-12 14:28:04 start replication job
    ... Только первый объявлен в конфигурации машины: Bash: root@pve2:~# qm config 104
    agent: 1
    bootdisk: scsi0
    cores: 6
    ide2: none,media=cdrom
    memory: 15251
    name: airis-pais-prod-worker-02
    net0: virtio=36:50:0F:EF:C3:A3,bridge=vmbr0,firewall=1
    numa: 0
    onboot: 1
    ostype: l26
    scsi0: local-zfs:vm-104-disk-1,format=raw,size=100G
    scsihw: virtio-scsi-pci
    smbios1: uuid=64bd283c-548f-4d45-99e2-7a86d70c4bff
    sockets: 1
    vmgenid: 527665e6-0fad-4ae7-90c7-292604ecbd05

    Это мой /etc/pve/storage.cfg:

    Code: dir: local
       path /var/lib/vz
       content iso,vztmpl,backup

    zfspool: local-zfs
           pool rpool/data
           sparse
           nodes pve1,pve2
           content images,rootdir

    lvmthin: local-lvm
     
     
     
    gpsantos
    Guest
    #4
    0
    12.04.2021 20:20:00
    Вот что происходит, когда я пытаюсь удалить неиспользуемые диски: Как мне заставить это сделать? Единственный важный здесь — тот, у которого 100 ГБ. Похоже, эта проблема возникла из-за переименования диска в какой-то момент...
     
     
     
    ETS_FTW
    Guest
    #5
    0
    31.08.2022 00:46:00
    Хотел бы поднять эту тему. У меня та же проблема возникла после репликации. У меня в VM два диска (изначально 0 и 1, теперь 2 и 3), и точные дубликаты каждого, так что всего их стало четыре. Не могу найти никаких упоминаний о 0 и 1 нигде (<vmid>.conf, storage.cfg), кроме страницы хранилища пула на ноде, где VM находится. Что я упускаю из виду?
     
     
     
    iffster
    Guest
    #6
    0
    12.07.2023 14:15:00
    Ты разобрался с этим? У меня та же проблема (proxmox 7.4).
     
     
     
    alexgauth
    Guest
    #7
    0
    08.01.2024 20:39:00
    Этот пост старый, но мой начальник и я нашли кое-что. У нас были vm disk в двух разных пулах, но они отображались только в одном месте в UI на странице vm. В UI в пулах было 2 vm disk, использующие одно и то же пространство, так что дисковое пространство заполнялось. Мы поискали в интернете, но ничего не нашли. В итоге мы подумали, что vm есть, disk есть, но они не связаны, и решили сделать qm rescan, и это решило проблему. Все неиспользуемые диски появились в выводе команды и теперь отображаются в UI. В all qm rescan.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры