<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: Cephfs Storage Object не может передавать файлы размером более 999 Кб.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме Cephfs Storage Object не может передавать файлы размером более 999 Кб. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Thu, 23 Apr 2026 19:10:16 +0300</pubDate>
		<item>
			<title>Cephfs Storage Object не может передавать файлы размером более 999 Кб.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message323574/77598-cephfs-storage-object-ne-mozhet-peredavat-fayly-razmerom-bolee-999-kb.">Cephfs Storage Object не может передавать файлы размером более 999 Кб.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет, столкнулся со странным случаем. У нас есть 3 кластера (production, contingency и develop). Все они работают под PVE 7.4 и Ceph 16.2.15. Мы используем кластер contingency для обмена ISO-образами для установки VM, монтируя объект хранилища Cephfs из GUI PVE. Недавно при создании VM в кластере develop, мастер зависал с любым ISO-образом. Только в этом кластере. Мы также пытались скопировать файлы с смонтированного cephfs в /mnt/pve/Instaladores/template/iso и поведение следующее: Код ошибки при остановке создания VM после нескольких минут "работы": Код: command '/usr/bin/qemu-img info '--output=json' /mnt/pve/Instaladores/template/iso/debian-12.11.0-amd64-netinst.iso' failed: received interrupt<br />Не удалось проанализировать вывод команды qemu-img info для '/mnt/pve/Instaladores/template/iso/debian-12.11.0-amd64-netinst.iso' - malformed JSON string, neither tag, array, object, number, string or atom, at character offset 0 (before "(end of string)") at /usr/share/perl5/PVE/Storage/Plugin.pm line 946.<br />ОШИБКА ЗАДАНИЯ: не удалось создать VM 3048 - volume Instaladores:iso/debian-12.11.0-amd64-netinst.iso не существует. Зависает при копировании с консоли.... Код: [root@PVE-DEV /]# cp /mnt/pve/Instaladores/template/iso/debian-12.11.0-amd64-netinst.iso ~/ Копирование файлов размером менее 998Kb работает нормально. Код: [root@PVE-DEV /]# dd if=/dev/zero of=998K.txt  bs=998K  count=1<br />1+0 records in<br />1+0 records out<br />1021952 bytes (1.0 MB, 998 KiB) copied, 0.00361033 s, 283 MB/s<br /><br />[root@PVE-DEV /]# cp 998K.txt /mnt/pve/Instaladores/template/iso/ Копирование файлов размером равным или большим 999Kb не удается. Код: [root@PVE-DEV /]# dd if=/dev/zero of=999K.txt  bs=999K  count=1<br />1+0 records in<br />1+0 records out<br />1022976 bytes (1.0 MB, 999 KiB) copied, 0.0154679 s, 66.1 MB/s<br /><br />[root@PVE-DEV /]#  cp 999K.txt /mnt/pve/Instaladores/template/iso/ На другой консоли.... статус процесса "неразрывный сон". Код: [root@PVE-DEV /]# ps ax | grep 999K<br />4130433 pts/0 &nbsp; &nbsp;D+ &nbsp; &nbsp; 0:00 cp 999K.txt /mnt/pve/Instaladores/template/iso/ Мы пытались обновить CEPH до последней версии, перезапустить службы MDS, перезагрузить каждый узел, удалить и создать объект хранилища, все... Ошибок в логах нет... /etc/pve/storage.cfg Код: cephfs: Instaladores<br /> &nbsp; &nbsp;path /mnt/pve/Instaladores<br /> &nbsp; &nbsp;content iso<br /> &nbsp; &nbsp;fs-name cephfs<br /> &nbsp; &nbsp;monhost 10.x.x.x 10.x.x.x 10.x.x.x<br /> &nbsp; &nbsp;prune-backups keep-all=1<br /> &nbsp; &nbsp;username admin Версии: Bash: proxmox-ve: 7.4-1 (running kernel: 5.15.108-1-pve)<br />pve-manager: 7.4-16 (running version: 7.4-16/0f39f621)<br />pve-kernel-5.15: 7.4-4<br />pve-kernel-5.4: 6.4-20<br />pve-kernel-5.15.108-1-pve: 5.15.108-1<br />pve-kernel-5.4.203-1-pve: 5.4.203-1<br />pve-kernel-5.4.106-1-pve: 5.4.106-1<br />ceph: 16.2.15-pve1<br />ceph-fuse: 16.2.15-pve1<br />corosync: 3.1.7-pve1<br />criu: 3.15-1+pve-1<br />glusterfs-client: 9.2-1<br />ifupdown: residual config<br />ifupdown2: 3.1.0-1+pmx4<br />ksm-control-daemon: 1.4-1<br />libjs-extjs: 7.0.0~bpo11+3<br />libvirt: 7.16.0~bpo11+1<br />lvm2: 2.04.19-2<br />lvm2-luks: 2.04.19-2<br />ltd: 1.18.2-1<br />multipath-tools: 1.18.2-1<br />net-tools: 2.25-1<br />ntp: 4.40.1-1<br />ntp-comp: 4.40.1-1<br />open-iscsi: 2.04-1<br />open-iscsi-initiator-utils: 2.04-1<br />parted: 5.0.0-1<br />pykickstart: 1.25-1<br />pve-archive-converter: 7.4-2<br />pve-cluster: 7.4-2<br />pve-dns: 7.4-2<br />pve-firewall: 7.4-2<br />pve-ssh: 7.4-2<br />qemu-kvm: 7.4-2<br />qemu-guest-agent: 7.4-2<br />rsyslog: 8.17.7-1<br />smartmontools: 7.2-pve3<br />ssh: 7.6.1p1-1<br />swtpm: 0.8.0~bpo11+3<br />systemd-journal: 251.14-2<br />tcpdump: 4.9.10-1<br />udev: 246.3-1<br />vncterm: 1.7-1<br />zfsutils-linux: 2.1.11-pve1 На сервере... Код: [root@node1 ~]# ceph status<br /> &nbsp;cluster:<br /> &nbsp; &nbsp;id: &nbsp; &nbsp; cdab5d3f-42a0-4cba-8e91-7a79c10404ed<br /> &nbsp; &nbsp;health: HEALTH_OK<br /> <br /> &nbsp;services:<br /> &nbsp; &nbsp;mon: 4 daemons, quorum node1,node2,node3,node4 (age 4d)<br /> &nbsp; &nbsp;mgr: node3(active, since 4d), standbys: node2, node1<br /> &nbsp; &nbsp;mds: 1/1 daemons up, 2 standby<br /> &nbsp; &nbsp;osd: 24 osds: 24 up (since 4d), 24 in (since 3M)<br /> <br /> &nbsp;data:<br /> &nbsp; &nbsp;volumes: 1/1 healthy<br /> &nbsp; &nbsp;pools: &nbsp; 4 pools, 169 pgs<br /> &nbsp; &nbsp;objects: 491.38k objects, 1.7 TiB<br /> &nbsp; &nbsp;usage: &nbsp; 5.0 TiB used, 15 TiB / 20 TiB avail<br /> &nbsp; &nbsp;pgs: &nbsp; &nbsp; 169 active+clean<br /> <br /> &nbsp;io:<br /> &nbsp; &nbsp;client: &nbsp; 37 KiB/s rd, 2.9 MiB/s wr, 9 op/s rd, 379 op/s wr Код: [root@PVE-CONT /]# ceph fs get cephfs<br />Filesystem 'cephfs' (1)<br />fs_name &nbsp; &nbsp;cephfs<br />epoch &nbsp; &nbsp;264<br />flags &nbsp; &nbsp;12<br />created &nbsp; &nbsp;2020-12-02T11:21:08.352970-0300<br />modified &nbsp; &nbsp;2025-05-29T14:16:11.172011-0300<br />tableserver &nbsp; &nbsp;0<br />root &nbsp; &nbsp;0<br />session_timeout &nbsp; &nbsp;60<br />session_autoclose &nbsp; &nbsp;300<br />max_file_size &nbsp; &nbsp;1099511627776<br />required_client_features &nbsp; &nbsp;{}<br />last_failure &nbsp; &nbsp;0<br />last_failure_osd_epoch &nbsp; &nbsp;46897<br />compat &nbsp; &nbsp;compat={},rocompat={},incompat={1=base v0.20,2=client writeable ranges,3=default file layouts on dirs,4=dir inode in separate object,5=mds uses versioned encoding,6=dirfrag is stored in omap,7=mds uses inline data,8=no anchor table,9=file layout v2,10=snaprealm v2}<br />max_mds &nbsp; &nbsp;1<br />in &nbsp; &nbsp;0<br />up &nbsp; &nbsp;{0=277564840}<br />failed &nbsp; &nbsp;<br />damaged &nbsp; &nbsp;<br />stopped &nbsp; &nbsp;<br />data_pools &nbsp; &nbsp;[7]<br />metadata_pool &nbsp; &nbsp;8<br />inline_data &nbsp; &nbsp;disabled<br />balancer &nbsp; &nbsp;<br />standby_count_wanted &nbsp; &nbsp;1<br />[mds.node1{0:277564840} state up:active seq 7 addr [v2:10.6.25.4:6800/1338729611,v1:10.6.25.4:6801/1338729611] compat {c=[1],r=[1],i=[7ff]}] <br />
			<i>02.06.2025 23:02:00, Nicolas Lobariñas.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message323574/77598-cephfs-storage-object-ne-mozhet-peredavat-fayly-razmerom-bolee-999-kb.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message323574/77598-cephfs-storage-object-ne-mozhet-peredavat-fayly-razmerom-bolee-999-kb.</guid>
			<pubDate>Mon, 02 Jun 2025 23:02:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
