<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Кластер Proxmox с общей Ceph-партицией в виртуальных машинах. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Mon, 20 Apr 2026 04:32:32 +0300</pubDate>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309578/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Я бы ожидал, что корневая директория CephFS пула будет / — где она смонтирована на хосте PVE — не имеет значения (ее можно и не монтировать вообще). Однако, если вы следовали некоторым из инструкций, на которые вы ссылались, то сгенерировали keyring и скопировали его на клиент — этот keyring указывает, к каким пулам ваш пользователь имеет доступ. Раз вы не передаете всю информацию, вспомогательная утилита ищет ее, и эта утилита, скорее всего, натыкается на первый пул и использует эту информацию. Там указаны оба пула, или вы используете отдельные учетные данные для каждого пула? И ваша гостевая CephFS актуальна? Потому что несколько CephFS пулов в одном кластере — это не было возможным до reef(?), так что, возможно, ваш CephFS клиент просто не «понимает» синтаксис указания пула таким образом. <br />
			<i>16.03.2025 22:08:00, guruevi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309578/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309578/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 22:08:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309577/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Вот шаги, которые я выполнил для настройки Client и Nodes. Я убедился, что монтирование активно и является пулом ISO, создав файл и проверив его на консоли proxmox nodes. Мой вопрос в том, каким должно быть местоположение монтирования для пула? В команде, которую я использовал, это было "=/", но что бы вы ожидали? Я никогда не передавал share с Proxmox.<br /><br />Код:<br />mount -t ceph admin@.cephfs=/mnt/pve/cephfs/ /mnt/cephfs<br />mount -t ceph admin@.cephfs=/pve/cephfs/ /mnt/cephfs<br />mount -t ceph admin@.cephfs=/cephfs/ /mnt/cephfs<br />mount -t ceph admin@.cephfs=/ /mnt/cephfs <br />
			<i>16.03.2025 18:36:00, scuppasteve.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309577/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309577/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 18:36:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309576/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			/etc/ceph/ceph.conf<br />Код: [global]<br /> &nbsp; &nbsp; &nbsp; &nbsp;auth_client_required = cephx<br /> &nbsp; &nbsp; &nbsp; &nbsp;auth_cluster_required = cephx<br /> &nbsp; &nbsp; &nbsp; &nbsp;auth_service_required = cephx<br /> &nbsp; &nbsp; &nbsp; &nbsp;cluster_network = 192.168.251.111/24<br /> &nbsp; &nbsp; &nbsp; &nbsp;fsid = 13aba2f1-7385-4c74-bae5-f9e00a523604<br /> &nbsp; &nbsp; &nbsp; &nbsp;mon_allow_pool_delete = true<br /> &nbsp; &nbsp; &nbsp; &nbsp;mon_host = 192.168.250.111 192.168.250.121 192.168.250.131<br /> &nbsp; &nbsp; &nbsp; &nbsp;ms_bind_ipv4 = true<br /> &nbsp; &nbsp; &nbsp; &nbsp;ms_bind_ipv6 = false<br /> &nbsp; &nbsp; &nbsp; &nbsp;osd_pool_default_min_size = 2<br /> &nbsp; &nbsp; &nbsp; &nbsp;osd_pool_default_size = 3<br /> &nbsp; &nbsp; &nbsp; &nbsp;public_network = 192.168.250.111/24<br /><br />[client]<br /> &nbsp; &nbsp; &nbsp; &nbsp;keyring = /etc/pve/priv/$cluster.$name.keyring<br /><br />[client.crash]<br /> &nbsp; &nbsp; &nbsp; &nbsp;keyring = /etc/pve/ceph/$cluster.$name.keyring<br /><br />[mds]<br /> &nbsp; &nbsp; &nbsp; &nbsp;keyring = /var/lib/ceph/mds/ceph-$id/keyring<br /><br />[mds.optiswarm01]<br /> &nbsp; &nbsp; &nbsp; &nbsp;host = optiswarm01<br /> &nbsp; &nbsp; &nbsp; &nbsp;mds_standby_for_name = pve<br /><br />[mds.optiswarm03]<br /> &nbsp; &nbsp; &nbsp; &nbsp;host = optiswarm03<br /> &nbsp; &nbsp; &nbsp; &nbsp;mds_standby_for_name = pve<br /><br />[mds.optiswarm05]<br /> &nbsp; &nbsp; &nbsp; &nbsp;host = optiswarm05<br /> &nbsp; &nbsp; &nbsp; &nbsp;mds_standby_for_name = pve<br /><br />[mon.optiswarm01]<br /> &nbsp; &nbsp; &nbsp; &nbsp;public_addr = 192.168.250.111<br /><br />[mon.optiswarm02]<br /> &nbsp; &nbsp; &nbsp; &nbsp;public_addr = 192.168.250.121<br /><br />[mon.optiswarm03]<br /> &nbsp; &nbsp; &nbsp; &nbsp;public_addr = 192.168.250.131 как вы могли видеть в моем ответе другому пользователю, это отдельные независимые пулы. Я понимаю ваш совет, это моя демо-установка, поэтому я могу записать весь рабочий процесс и сохранить его на случай, если я что-то сломаю в будущем и не смогу вспомнить, как это исправить. В будущем я буду использовать обычного пользователя. <br />
			<i>16.03.2025 17:28:00, scuppasteve.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309576/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309576/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 17:28:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309575/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			root@optiswarm01:/# ceph fs status<br /><br />ISOs - 5 клиентов<br />====<br />RANK STATE MDS ACTIVITY DNS INOS DIRS CAPS <br />0 active optiswarm03 Reqs: 0 /s 24 21 16 19 <br /><br />POOL TYPE USED AVAIL <br />ISOs_metadata metadata 1835k 4792G <br /> &nbsp;ISOs_data data 20.3G 4792G <br />cephfs - 4 клиента<br />======<br />RANK STATE MDS ACTIVITY DNS INOS DIRS CAPS <br />0 active optiswarm01 Reqs: 0 /s 17 20 18 22 <br /><br />POOL TYPE USED AVAIL <br />cephfs_metadata metadata 181k 4792G <br /> &nbsp;cephfs_data data 12.0k 4792G <br />STANDBY MDS <br />optiswarm05 <br />MDS version: ceph version 18.2.4 (2064df84afc61c7e63928121bfdd74c59453c893) reef (stable) Судя по руководству Mounting CephFS, я указал имя файловой системы в команде. Это то, что показывает "mount -t ceph admin@. cephfs=/ /mnt/cephfs", в ней нет fsid, потому что этим занимается ceph.helper. <br />
			<i>16.03.2025 17:23:00, scuppasteve.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309575/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309575/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 17:23:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309574/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Это два отдельных тома CephFS? Что показывает команда "ceph fs status"? Если да, то тебе нужно указать имя файловой системы с опцией fs= в команде монтирования. <br />
			<i>16.03.2025 16:40:00, gurubert.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309574/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309574/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 16:40:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309573/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Как у тебя устроена конфигурация CephFS? Кажется, ты просто поделил не тот пул или предоставил этому пользователю доступ к неправильному пулу. Или, возможно, ISOs – это просто подпапка в cephfs (что является именем пула по умолчанию, когда создаешь первый). Не стоит использовать админ-пользователя для клиентов тоже. Я бы посоветовал создать keyring для монтирования или конкретного клиента. <br />
			<i>16.03.2025 15:17:00, guruevi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309573/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309573/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 15:17:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309572/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Если ты используешь команду mount вручную, что показывает “mount” потом? Ты уверен, что не смотришь на предыдущий монтирование? Используешь ли ты какие-нибудь утилиты, конфигурационные файлы или keyring, есть ли файлы, которые определяют другой пул? Без знания деталей и текущего состояния очень сложно что-либо диагностировать. Ceph.conf практически не имеет значения для CephFS mount. CephFS не может случайно смонтировать другой пул, отличный от того, который ты указал; где-то информация передается твоей команде mount, вопрос в том, где именно. Твой сторонний клиент может быть настроен как угодно, какие инструкции ты использовал? Можешь ли ты сравнить состояние CephFS монтирований на PVE с CephFS монтированием на твоем стороннем клиенте (список файлов и т.д.) и убедиться, что после монтирования состояние выглядит одинаковым? <br />
			<i>16.03.2025 18:01:00, guruevi.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309572/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309572/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 18:01:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message309571/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.">Кластер Proxmox с общей Ceph-партицией в виртуальных машинах.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			У меня две ceph pool в дата-центре смонтированы вот так: ISOs = /mnt/pve/ISOs cephfs = /mnt/pve/cephfs. Наконец-то смог смонтировать ceph partition в VM через команду: `mount -t ceph admin@.cephfs=/ /mnt/cephfs`. Когда я выполняю эту команду, монтируется директория ISOs, а мне нужна cephfs pool. Есть какие-нибудь идеи, куда двигаться дальше или почему так получилось, что монтируется по умолчанию? То же самое происходит при монтировании через fstab. Код: `192.168.250.111:6789,192.168.250.121:6789,192.168.250.131:6789:/ /mnt/cephfs ceph name=admin,secret=xxx,noatime,_netdev 0 2 Не знаю, что еще можно сюда добавить, чтобы решить проблему. <br />
			<i>16.03.2025 06:57:00, scuppasteve.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message309571/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message309571/75611-klaster-proxmox-s-obshchey-ceph_partitsiey-v-virtualnykh-mashinakh.</guid>
			<pubDate>Sun, 16 Mar 2025 06:57:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
