Дорогие гости форума, я тестирую свой сервер Proxmox для работы с freenas ZFS Volume через iSCSI. До сих пор успешно получалось просто создать dataset в freenas и потом привязать файл-расширение к iSCSI-таргету. Этот таргет можно смонтировать в Proxmox, а поверх него создать LVM. Всё работает нормально, но я не могу использовать функцию снимков (snapshot) в Proxmox, так как HDD всегда создаются в формате raw image.
Теперь я попытался следовать руководству с этого сайта: . В инструкции предлагается следующее:
- на freenas добавить несколько записей в /etc/ssh/sshd_config (сделано)
- на сервере Proxmox VE создать директорию /etc/pve/priv/zfs и сгенерировать ключ с помощью ssh-keygen (сделано)
Следующий шаг вызвал проблемы:
ssh-copy-id -i /etc/pve/priv/zfs/192.168.1.1_id_rsa root@192.168.1.1
Первое, что я узнал — в freenas есть специальная настройка для аутентификации по паролю через ssh:
Окей, как только я её включил, сделал ssh-copy-id -i (с правильным IP) и получил сообщение "Connection closed by 192.168.1.1". Теперь, когда я выполняю ssh -i /etc/pve/priv/zfs/192.168.1.1_id_rsa root@192.168.1.1 с моего сервера Proxmox, получаю:
Last login: Fri Oct 17 11:21:05 2014 from 192.168.1.220
FreeBSD 9.2-RELEASE-p10 (FREENAS.amd64) #0 r262572+4fb5adc: Wed Aug 6 17:07:16 PDT 2014
FreeNAS © 2009-2014, The FreeNAS Development Team
All rights reserved.
FreeNAS is released under the modified BSD license.
For more information, documentation, help or support, go here:
Welcome to FreeNAS
[root@freenas] ~#
Значит, похоже, это сработало. Но когда я монтирую ZFS в Proxmox через ZFS-плагин, у меня нет доступа к ZFS Storage.
В плагине использовал следующие параметры:
ID: любое имя, например, ZFS-Dataset
Portal: IP моего хранилища, например, 192.168.1.1
Pool: имя моего первого ZFS-тома, например, ZFSRAID
Block Size: 4k
Target: например, iqn.vmpool.mydomain.local
Target Group, Host group: оставил пустым
Nodes: All
Enable: включено
iSCSI Provider: istgt
Thin provision и Write cache: включены
ZFS-Dataset появляется под Storage, но при проверке на сервере node моего ZFS-Dataset вижу следующее:
Надеюсь, график читабельный, в редакторе он отображается немного мелко.
Такова ситуация, и интересно, сталкивался ли кто-то с похожими проблемами. Буду очень благодарен за любую помощь.
С уважением, MisterIX.
Теперь я попытался следовать руководству с этого сайта: . В инструкции предлагается следующее:
- на freenas добавить несколько записей в /etc/ssh/sshd_config (сделано)
- на сервере Proxmox VE создать директорию /etc/pve/priv/zfs и сгенерировать ключ с помощью ssh-keygen (сделано)
Следующий шаг вызвал проблемы:
ssh-copy-id -i /etc/pve/priv/zfs/192.168.1.1_id_rsa root@192.168.1.1
Первое, что я узнал — в freenas есть специальная настройка для аутентификации по паролю через ssh:
Окей, как только я её включил, сделал ssh-copy-id -i (с правильным IP) и получил сообщение "Connection closed by 192.168.1.1". Теперь, когда я выполняю ssh -i /etc/pve/priv/zfs/192.168.1.1_id_rsa root@192.168.1.1 с моего сервера Proxmox, получаю:
Last login: Fri Oct 17 11:21:05 2014 from 192.168.1.220
FreeBSD 9.2-RELEASE-p10 (FREENAS.amd64) #0 r262572+4fb5adc: Wed Aug 6 17:07:16 PDT 2014
FreeNAS © 2009-2014, The FreeNAS Development Team
All rights reserved.
FreeNAS is released under the modified BSD license.
For more information, documentation, help or support, go here:
Welcome to FreeNAS
[root@freenas] ~#
Значит, похоже, это сработало. Но когда я монтирую ZFS в Proxmox через ZFS-плагин, у меня нет доступа к ZFS Storage.
В плагине использовал следующие параметры:
ID: любое имя, например, ZFS-Dataset
Portal: IP моего хранилища, например, 192.168.1.1
Pool: имя моего первого ZFS-тома, например, ZFSRAID
Block Size: 4k
Target: например, iqn.vmpool.mydomain.local
Target Group, Host group: оставил пустым
Nodes: All
Enable: включено
iSCSI Provider: istgt
Thin provision и Write cache: включены
ZFS-Dataset появляется под Storage, но при проверке на сервере node моего ZFS-Dataset вижу следующее:
Надеюсь, график читабельный, в редакторе он отображается немного мелко.
Такова ситуация, и интересно, сталкивался ли кто-то с похожими проблемами. Буду очень благодарен за любую помощь.
С уважением, MisterIX.
