Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Поддержка MicroVM

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Поддержка MicroVM, Proxmox Виртуальная Среда
     
    ewaldo
    Guest
    #1
    0
    09.04.2020 23:49:00
    Интересно, есть ли в планах поддержка MicroVM в Proxmox? https://firecracker-microvm.github.io/ выглядит очень перспективно для создания виртуальных машин с очень низким потреблением ресурсов (не контейнеров) и именно эта технология лежит в основе AWS Fargate 1.4 без Docker Engine, как описано в https://www.theregister.co.uk/2020/04/09/aws_revamps_fargate_serverless_containers/.
     
     
     
    Vazhnov
    Guest
    #2
    0
    04.11.2020 18:15:00
    Я пытался найти что-то вроде Fargate или Lambda для самоуправляемого хостинга, например, на Proxmox, и наткнулся на этот пост. На первый взгляд, Firecracker выглядит неплохо. @ewaldo, @spirit, спасибо! P.S.: Мне очень нравится LXC, но для него мало API и инструментов для оркестрации. Например, нет официального динамического инвентаря Ansible для Proxmox.
     
     
     
    steevestroke
    Guest
    #3
    0
    23.02.2024 06:03:00
    Вижу, что это уже давно забытая тема, но нам бы хотелось использовать microvm для дополнительной изоляции, которую они обеспечивают, вместе с почти контейнерным временем запуска и поддержкой cloud-init.
     
     
     
    steevestroke
    Guest
    #4
    0
    15.08.2024 16:33:00
    Мой последний комментарий получил достаточно +1, так что, думаю, другим это может пригодиться. Я собираюсь разобраться с этим микровиртуальным окружением и выложу свои результаты на форуме, если что-то получится.
     
     
     
    dagaspa
    Guest
    #5
    0
    04.11.2025 12:04:00
    Привет! Хотел бы выразить интерес к нативной поддержке microVM в Proxmox VE. Мои кейсы основаны на работе, описанной здесь: https://wiki.netbsd.org/users/imil/microvm/ https://smolbsd.org/ Кратко говоря, я использую NetBSD microVM для лёгких, воспроизводимых задач с очень быстрым запуском и минимальной эмуляцией устройств. С точки зрения эксплуатации было бы идеально запускать такие ВМ прямо из веб-консоли PVE или через API (без ручной настройки параметров QEMU в командной строке). Отсутствие живой миграции в моём сценарии не проблема — microVM можно просто перезапустить на другом узле при необходимости. Есть ли технические или плановые ограничения, которые мешают интегрировать это? И ещё, @steevestroke — удалось ли тебе продвинуться или использовать это на практике с момента твоего последнего поста? Спасибо!
     
     
     
    dagaspa
    Guest
    #6
    0
    10.11.2025 10:13:00
    После нескольких тестов я заметил, что Proxmox автоматически добавляет PCI-мосты при запуске виртуальной машины, из-за чего QEMU падает с ошибкой при использовании типа машины microvm (потому что там вообще нет PCI-шины). Для справки, вот конфигурация, которую я использовал:

    Code:  
    args: -M microvm,rtc=on,acpi=off,pic=off,accel=kvm  
    -kernel /mnt/pve/test-microvm/500/netbsd-SMOL  
    -append 'console=com root=ld0a -z'  
    -global virtio-mmio.force-legacy=false  
    -fsdev local,path=/tmp/smolBSD,security_model=none,id=shar-RjSyDcAx0  
    -device virtio-9p-device,fsdev=shar-RjSyDcAx0,mount_tag=shar-RjSyDcAx0  
    -device virtio-blk-device,drive=hd-RjSyDcAx0  
    -drive if=none,file=/mnt/pve/test-microvm/500/sshd-amd64.img,format=raw,id=hd-RjSyDcAx0  
    -device virtio-net-device,netdev=net-RjSyDcAx0  
    -netdev user,id=net-RjSyDcAx0,ipv6=off,hostfwd=::2022-:22  
    -display none  
    balloon: 0  
    boot:  
    cores: 1  
    cpu: host  
    memory: 512  
    meta: creation-qemu=9.2.0,ctime=1762764221  
    name: microvm-netbsd  
    numa: 0  
    smbios1: uuid=0d1970d6-d7dc-42c0-aa7b-cf217969c0ad  
    sockets: 1  
    tablet: 0  
    vga: none  
    vmgenid: 5b986f8e-573a-4551-9846-2665f7ea54cc

    При запуске QEMU выдаёт ошибку:

    Code:  
    qm start 500  
    kvm: -device pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e: Bus 'pci.0' not found  
    start failed: QEMU exited with code 1

    Этот мост создаётся автоматически Proxmox и не должен добавляться при использовании machine: microvm. Можно ли обернуть создание PCI-моста условием типа if (!$is_microvm), чтобы эти устройства не добавлялись, когда тип машины microvm?
     
     
     
    DSSTNY
    Guest
    #7
    0
    10.11.2025 14:46:00
    Возможно, это связано с 6905 – модернизация принудительных контроллеров USB по умолчанию?
     
     
     
    dagaspa
    Guest
    #8
    0
    12.01.2026 15:51:00
    Думаю, тут действительно может быть пересечение с багом 6905. В обоих случаях проблема, по всей видимости, возникает из-за того, что устройства добавляются без условий в PVE::QemuServer.pm, исходя из предположения, что машина — это PCI-базированный «классический ПК». При использовании machine: microvm это сразу заметно, потому что шина PCI там вообще отсутствует, а вот другие типы машин могут спокойно принимать эти лишние устройства, хотя они создают ненужную конфигурацию и могут влиять на производительность, заставляя гостевую систему инициализировать компоненты, которые ей на самом деле не нужны.
     
     
     
    Joshua M
    Guest
    #9
    0
    02.03.2026 09:50:00
    Разве нельзя просто установить и запустить Firecracker на хосте Proxmox?
     
     
     
    dagaspa
    Guest
    #10
    0
    02.03.2026 11:00:00
    Да, конечно, это возможно. Однако в моём случае QEMU работает лучше, чем Firecracker при этой нагрузке, и поскольку Proxmox VE уже построен вокруг QEMU, было бы интересно проверить, можно ли интегрировать эту функциональность туда, а не вводить параллельный виртуализационный стек.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры