Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Можно ли эмулировать GPU для больших языковых моделей?

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Можно ли эмулировать GPU для больших языковых моделей?, Proxmox Виртуальная Среда
     
    Red Squirrel
    Guest
    #1
    0
    30.03.2025 22:25:00
    Есть ли способ, может, с помощью плагина или чего-то подобного, эмулировать GPU, и для VRAM выделить, скажем, SSD или что-то в этом роде? Очевидно, это будет очень медленно, но это, возможно, позволит запускать даже очень большие LLM локально без покупки настоящей видеокарты. А есть вообще такая возможность?
     
     
     
    leesteken
    Guest
    #2
    0
    30.03.2025 22:29:00
    Возможно, получится преобразовать программный графический движок с открытым исходным кодом LLVMpipe во что-то подобное. Расскажи нам, как продвигается работа.
     
     
     
    somebodyoverthere
    Guest
    #3
    0
    30.03.2025 23:57:00
    Просто идея https://docs.unsloth.ai/basics/tutorial-how-to-run-deepseek-v3-0324-locally.
    Код: Получите последнюю версию llama.cpp на GitHub здесь. Можно также следовать инструкциям по сборке ниже.
    Измените -DGGML_CUDA=ON на -DGGML_CUDA=OFF, если у вас нет GPU или вы просто хотите вывод только на CPU, и эта часть Код: GPU не обязателен. Вы можете запустить модель без GPU, но старайтесь этого не делать, если вы не используете объединенную память Apple.
    Постарайтесь иметь не менее 180 ГБ объединенной VRAM + RAM, чтобы получить скорость ~2 токена/с, иначе модель будет слишком медленной для работы.

    Хотя минимальным требованием является CPU с 60 ГБ RAM, производительность будет очень низкой.
    Ожидайте менее 1,5 токена в секунду на минимальном оборудовании — но это не значит, что вы не можете экспериментировать! Использование GPU сделает вывод быстрее. С этого места https://unsloth.ai/blog/deepseek-v3-0324
     
     
     
    UdoB
    Guest
    #4
    0
    31.03.2025 10:53:00
    Зависит от твоих ожиданий. У меня вот что: https://localai.io/basics/container/#all-in-one-images в VM, используя Docker ( docker run -p 8080:8080 --name local-ai -ti localai/localai:latest-aio-cpu) = без GPU. Для меня работает с некоторыми предложенными моделями — и без каких-либо заморочек, совершенно без усилий.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры