Привет всем! У меня следующая проблема, и мне хотелось бы понять, является ли это чем-то «обычным» или я что-то делаю не так. У меня есть несколько небольших гостей на Windows Server 2012 R2, с 32 ГБ диска, размещённого на SAN, 1 сокет, 2 ядра, 1 ГБ ОЗУ, 2 виртуальные сетевые карты. Хосты запускают программное обеспечение, которое принимает видеопоток на одной виртуальной сетевой карте и затем передаёт его на SAN через вторую виртуальную сетевую карту и iSCSI. Первые гости, которых я создал, работали гладко. Но с созданием большего числа гостей новые машины стали медленне, хотя первые продолжали работать нормально. На физических машинах использование ЦПУ (реальных ядер) всегда было ниже 20%, и всё ещё много свободной ОЗУ. Кажется, количество ВМ на физической машине не совсем актуально. Проблема проявляется, когда работают всего 3 гостя или 10. Я понял, что новые машины медленнее, вероятно, из-за дискового ввода-вывода (C:, а не сетевого). Действительно, они очень медленные уже при загрузке, и каждый раз, когда нужно чтение/запись на C:. Задержка ввода-вывода составляет менее 2% или меньше во время нормальной работы (просто обработка видео) на каждой физической машине, но увеличивается, когда пользователь заходит в гостей и использует их интерактивно. Наконец, и это странная часть: если пользователь входит в очень медленного гостя и использует его интерактивно некоторое время (например, 10 минут) через консоль PROXMOX, гость становится всё более отзывчивым и в конце концов работает очень гладко. Однако затем он снова становится медленным через, казалось бы, случайный промежуток времени (от нескольких часов до дней). Примечание: если я перезагружаю очень медленную ВМ изнутри Windows, перезагрузка занимает много минут. Если я затем интерактивно использую машину некоторое время и она становится быстрой, то и перезагрузка проходит очень быстро... Самые медленные машины также часто испытывают своего рода зависание и становятся совершенно неотзывчивыми, и их приходится останавливать и загружать снова через PROXMOX. Я читал на этом форуме о многих проблемах, связанных с зависанием Windows 2012. Я пробовал множество предложенных решений (обновление драйверов VirtIO, руководства по настройке и так далее), но эта проблема не исчезает. У вас есть какие-нибудь идеи, почему это происходит? Есть ли способ избежать того, чтобы ВМ становились такими «медленными» и заставить их «остаться быстрыми»? Огромное спасибо заранее! С уважением, Адамо
Настройка кластера PROXMOX состоит из 6 Dell PowerEdge R730: 4 с 2 x Intel Xeon E5-2660v3 и 2 с 2 x Intel Xeon E5-2650v4 (добавлены недавно), все с 64 ГБ ОЗУ, 4 x 1Gbit NIC, 2 x 10Gbit NIC. Каждая из 4 x 1 Gbit NIC связана с помощью LACP и используется для видео и управленческой сети. То же самое касается каждой из 2 x 10 Gbit NIC, которые используются для хранения. Виртуальные машины размещены на LVM, размещённых в кластере из 2 SAN NetApp (4 контроллера), подключённых через 10 Gbit ссылки и сделанных видимыми для PROXMOX через iSCSI. Виртуальные машины на Windows подключаются напрямую к другим томам на том же SAN, также через iSCSI. Первые 4 сервера работают на pve-manager/4.1-1 (Linux 4.2.6-1-pve), в то время как последние 2 работают на pve-manager/4.4-1 (Linux 4.4.35-1-pve). Я постепенно обновляю все машины до последней доступной версии pve. Обратите внимание, что описанная мной проблема уже была присутствует, когда у меня было всего 4 машины, и она всё ещё присутствует, даже если я мигрирую старые ВМ на узлы с обновленной версией PVE.
Настройка кластера PROXMOX состоит из 6 Dell PowerEdge R730: 4 с 2 x Intel Xeon E5-2660v3 и 2 с 2 x Intel Xeon E5-2650v4 (добавлены недавно), все с 64 ГБ ОЗУ, 4 x 1Gbit NIC, 2 x 10Gbit NIC. Каждая из 4 x 1 Gbit NIC связана с помощью LACP и используется для видео и управленческой сети. То же самое касается каждой из 2 x 10 Gbit NIC, которые используются для хранения. Виртуальные машины размещены на LVM, размещённых в кластере из 2 SAN NetApp (4 контроллера), подключённых через 10 Gbit ссылки и сделанных видимыми для PROXMOX через iSCSI. Виртуальные машины на Windows подключаются напрямую к другим томам на том же SAN, также через iSCSI. Первые 4 сервера работают на pve-manager/4.1-1 (Linux 4.2.6-1-pve), в то время как последние 2 работают на pve-manager/4.4-1 (Linux 4.4.35-1-pve). Я постепенно обновляю все машины до последней доступной версии pve. Обратите внимание, что описанная мной проблема уже была присутствует, когда у меня было всего 4 машины, и она всё ещё присутствует, даже если я мигрирую старые ВМ на узлы с обновленной версией PVE.
