Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Совместный диск для гостей в VM Настройка общего диска между гостевыми машинами в виртуальной машине может быть полезной в различных сценариях, например, для обмена файлами между виртуальными машинами или для централизованного хранения данных. Вот как э

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Совместный диск для гостей в VM Настройка общего диска между гостевыми машинами в виртуальной машине может быть полезной в различных сценариях, например, для обмена файлами между виртуальными машинами или для централизованного хранения данных. Вот как э, Proxmox Виртуальная Среда
     
    riaanp
    Guest
    #1
    0
    15.06.2022 09:41:00
    Добрый день, мы сейчас изучаем возможность перехода с oVirt на Proxmox. У нас много кластеров Oracle RAC с общими дисками между ними. Общий диск в Ovirt между гостевыми системами настроить легко. А вот в Proxmox, похоже, требуется куча ручных настроек, чтобы это заработало. Вопрос в том: есть ли у кого-нибудь ссылка на документацию или рабочий метод для Proxmox 7.2 для организации общего доступа к дискам?
     
     
     
    proxale
    Guest
    #2
    0
    13.02.2023 09:36:00
    Привет, ты когда-нибудь тестировал разницу в производительности при непосредственной записи на диск и через промежуточный VM-хост iSCSI?
     
     
     
    riaanp
    Guest
    #3
    0
    13.02.2023 10:34:00
    Да, сделал. Производительность с нативного диска всегда будет быстрее. Но и производительность iSCSI тоже не так уж плоха. Я уже некоторое время использую iSCSI с Oracle базами данных после того, как задал этот вопрос, и пока что всё работает неплохо, стоит помнить, что это dev/test окружение, так что мне не нужна такая уж высокая производительность. Если вы решили использовать iSCSI, я бы посоветовал установить сетевое подключение на 2.5Gi / 10Gi (выделенная сеть для iSCSI была бы лучше) для улучшения производительности iSCSI в production.
     
     
     
    proxale
    Guest
    #4
    0
    13.02.2023 18:33:00
    Спасибо, вы случайно измеряли разницу в производительности или смогли бы оценить, насколько она велика?
     
     
     
    riaanp
    Guest
    #5
    0
    17.02.2023 08:41:00
    К сожалению, точно не помню производительность. Что-то вроде 125 мегабайт, а с объединенной сетью — до 250 мегабайт. Это была 1Gi сеть. Отсюда и моя рекомендация по 10Gi сети. У меня на этом сервере NVME хранилище, и родной показатель производительности, конечно, не такой. Насчет Oracle Cluster точно не помню, данные мне предоставили DBA, но суть в том, что они остались довольны, и с iSCSI работает просто замечательно. Сейчас мы в процессе обновления сети как минимум до 2.5Gi, чтобы получить прирост производительности iSCSI.
     
     
     
    ksun
    Guest
    #6
    0
    20.02.2024 23:03:00
    Я тоже ищу примеры настройки двухузловой Oracle RAC на Proxmox. Из-за всех вариантов хранения, я не нашел ключевого слова "современный доступ". В VMware это называется shared и independent-consistent. Есть ли какой-нибудь эквивалент типа/режима диска в Proxmox? Спасибо! --Kang
     
     
     
    bbgeek17
    Guest
    #7
    0
    21.02.2024 02:03:00
    В Proxmox диски не предназначены для одновременного доступа с использованием встроенных решений. Будь то Thick (общий LVM), Ceph или локальный ZFS — виртуальный диск Proxmox (образ) является подмножеством (кусок LVM, Ceph RBD volume, ZFS zvol) и доступен только одной ВМ одновременно. Как было указано в #10 почти год назад, можно добиться одновременного доступа практически ко всем хранилищам, однако защитных механизмов нет. Без строгих правил изменения данных очень легко потерять данные. Вы, вероятно, имели в виду "Independent Persistent" вместо "independent-consistent"? Т.е.:

    *   Independent mode (независимый режим), который не затрагивается снимками
    *   Persistent (постоянный) – Диск работает нормально, за исключением того, что изменения на диске являются постоянными, даже если виртуальная машина возвращается к снимку.
    *   Nonpersistent (непостоянный) – Диск кажется работающим нормально, но при выключении виртуальной машины или возврате к снимку содержимое диска возвращается к исходному состоянию. Все последующие изменения удаляются.

    В Proxmox нет прямого соответствия ни одному из вышеперечисленных вариантов. Все диски работают нормально, все диски можно снимать снимки (если позволяет базовое хранилище), все диски вернутся к состоянию снимка при откате, диски не вернутся к исходному состоянию при выключении. Если бы один из наших клиентов строил что-то такое требовательное, как Oracle, работающий на PVE, и ему требовался одновременный доступ к диску, мы бы рекомендовали прямое iSCSI или NVMe/TCP-соединение в ВМ для этого конкретного диска, то есть обходя гипервизор.

    Spoiler: пример

    [centos@ cluster-client ~]$ bb host attach -d disk-1 --persist --multi-writer

    ============================================================­=================

    service-2/disk-1 attached (read-write) to cluster-client.localnet as /dev/sda

    ============================================================­=================

    ...

    [centos@ features-client ~]$ bb host attach -d disk-1 --persist --multi-writer

    ============================================================­=================

    service-2/disk-1 attached (read-write) to features-client.localnet as /dev/sda

    ============================================================­=================

    Blockbridge : Ultra low latency all-NVME shared storage for Proxmox - https://www.blockbridge.com/proxmox
     
     
     
    LnxBil
    Guest
    #8
    0
    21.02.2024 06:41:00
    Вот так работает GUI. Ты уже объяснил, как это сделать, в комментарии-10, и я ответил, что работает именно так, и я использовал это много лет, несмотря на указанные недостатки. Чтобы работало, нужно установить кэширование в ноль в настройках диска для общего диска. Это может быть не поддерживаемый способ работы в PVE, но это работает в любом гипервизоре на базе KVM и работает просто отлично. Я все равно рекомендую запустить свой собственный iSCSI-портал для кластера Oracle, как описано в комментарии-11.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры