<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
	<channel>
		<title>Аспро: ЛайтШоп [тема: [ОШИБКА]: Необработанное исключение из модуля 'devicehealth' при работе на mgr.ceph-node1: ошибка ввода/вывода диска.]</title>
		<link>http://proxmox.su</link>
		<description>Новое в теме [ОШИБКА]: Необработанное исключение из модуля 'devicehealth' при работе на mgr.ceph-node1: ошибка ввода/вывода диска. форума Proxmox Виртуальная Среда на сайте Аспро: ЛайтШоп [proxmox.su]</description>
		<language>ru</language>
		<docs>http://backend.userland.com/rss2</docs>
		<pubDate>Sun, 19 Apr 2026 14:10:07 +0300</pubDate>
		<item>
			<title>[ОШИБКА]: Необработанное исключение из модуля 'devicehealth' при работе на mgr.ceph-node1: ошибка ввода/вывода диска.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message331531/78696-oshibka_-neobrabotannoe-isklyuchenie-iz-modulya-_devicehealth_-pri-rabote-na-mgr.ceph_node1_-oshibka-vvoda_vyvoda-diska.">[ОШИБКА]: Необработанное исключение из модуля 'devicehealth' при работе на mgr.ceph-node1: ошибка ввода/вывода диска.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Вот перевод текста сообщения:<br /><br />Вот логи, которые я собрал: journalctl на node1<br />Mar 15 03:18:24 ceph-node1 sudo[36701]: tungpm : TTY=pts/2 ; PWD=/home/tungpm ; USER=root ; COMMAND=/usr/bin/systemctl restart ceph-mgr@ceph-node1.<br />Mar 15 03:18:24 ceph-node1 systemd[1]: Запущен демон менеджера кластера Ceph.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: /lib/python3/dist-packages/scipy/__init__.py:67: UserWarning: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом. Это, вероятно, будет работать для большинства пользователей, но может вызвать трудноотслеживаемые проблемы или тонкие ошибки. Распространенным пользователем этой редкой функции является wsgi, который также позволяет работать в одноинтерпретаторном режиме.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение NumPy: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: импортирован NumPy из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:33 ceph-node1 ceph-mgr[36707]: Предупреждение: NumPy был импортирован из под-интерпретатора Python, но NumPy не поддерживает под-интерпретаторы должным образом.<br />Mar 15 03:18:15 ceph-node2 ceph-osd[5756]: 2025-03-15T03:18:15.279+0000 7f1519e1a640 -1 получил сигнал: Hangup от killall -q -1 ceph-mon ceph-mgr ceph-mds ceph-osd ceph-fuse radosgw rbd-mirror cephfs-mirror<br />Mar 15 03:18:15 ceph-node2 ceph-osd[5756]: 2025-03-15T03:18:15.367+0000 7f1519e1a640 -1 получил сигнал: Hangup от pkill -1 -x ceph-mon|ceph-mgr|ceph-mds|ceph-osd|ceph-fuse|radosgw|rbd-mirror|cephfs-mirror<br />Mar 15 03:18:15 ceph-node2 systemd[1]: logrotate.service: Деактивирован успешно.<br />Mar 15 03:18:15 ceph-node2 systemd[1]: Завершено Rotate log files.<br />Mar 15 03:18:15 ceph-node2 ceph-osd[5756]: 2025-03-15T03:18:15.559+0000 7f151b61d640 -1 monclient: _check_auth_rotating possible clock skew, rotating keys expired way too early (before 2025-03-15T02:18:15.563244+0000)<br />Mar 15 03:18:15 ceph-node2 systemd[1]: Condition check resulted in OpenVSwitch configuration for cleanup being skipped.<br />Mar 15 03:18:15 ceph-node2 ceph-osd[5756]: 2025-03-15T03:18:15.983+0000 7f1512438640 -1 osd.1 53 set_numa_affinity unable to identify public interface '' numa node: (2) No such file or directory<br />Mar 15 03:18:17 ceph-node2 systemd-networkd[8064]: ens33: Получен IPv6LL<br />Mar 15 03:18:18 ceph-node2 systemd-resolved[868]: Обнаружено изменение часов. Очистка кэша.<br />Mar 15 03:18:18 ceph-node2 systemd-timesyncd[740]: Начальная синхронизация со временем сервера 185.125.190.57:123 (ntp.ubuntu.com).<br />sudo dmesg -T on node1 [Sat Mar 15 02:23:46 2025] systemd[1]: Запущен OpenBSD Secure Shell server.<br />[Sat Mar 15 02:23:46 2025] systemd[1]: Запущен Journal Service.<br />[Sat Mar 15 03:12:58 2025] e1000: ens33 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None<br />[Sat Mar 15 03:12:58 2025] IPv6: ADDRCONF(NETDEV_CHANGE): ens33: link becomes ready<br />sudo dmesg -T on node2<br />[Sat Mar 15 02:04:15 2025] e1000: ens33 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None<br />[Sat Mar 15 02:04:15 2025] IPv6: ADDRCONF(NETDEV_CHANGE): ens33: link becomes ready<br />[Sat Mar 15 03:18:13 2025] e1000: ens33 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None<br />[Sat Mar 15 03:18:13 2025] IPv6: ADDRCONF(NETDEV_CHANGE): ens33: link becomes ready<br /><br />**Основные моменты:**<br /><br />* &nbsp; **Предупреждения NumPy:** Указывают на возможные проблемы с использованием библиотеки NumPy в среде Python, используемой кластером Ceph. Это может быть связано с конфигурацией под-интерпретаторов Python.<br />* &nbsp; **Ошибки `set_numa_affinity`:** &nbsp;Указывают на проблему с назначением аффинности ядра (CPU) для OSD.<br />* &nbsp; **Ошибки `monclient`:** Связаны с проверкой времени и синхронизацией часов между мониторами Ceph.<br />* &nbsp; **Сообщения о сигналах `Hangup`:** &nbsp;Указывают на то, что процессы Ceph получают сигнал прекращения, что может быть вызвано автоматическим завершением работы или сигналами от системных служб, например logrotate.<br />* &nbsp; **Сообщения о получении IPv6LL:** &nbsp;Это нормальная работа сетевой службы, указывающая на успешную инициализацию IPv6.<br /><br />Если у вас есть более конкретные вопросы, касающиеся этих сообщений, пожалуйста, задавайте! <br />
			<i>15.03.2025 07:35:00, tungpm.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message331531/78696-oshibka_-neobrabotannoe-isklyuchenie-iz-modulya-_devicehealth_-pri-rabote-na-mgr.ceph_node1_-oshibka-vvoda_vyvoda-diska.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message331531/78696-oshibka_-neobrabotannoe-isklyuchenie-iz-modulya-_devicehealth_-pri-rabote-na-mgr.ceph_node1_-oshibka-vvoda_vyvoda-diska.</guid>
			<pubDate>Sat, 15 Mar 2025 07:35:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
		<item>
			<title>[ОШИБКА]: Необработанное исключение из модуля 'devicehealth' при работе на mgr.ceph-node1: ошибка ввода/вывода диска.</title>
			<description><![CDATA[<b><a href="http://proxmox.su/forum/messages/forum63/message331530/78696-oshibka_-neobrabotannoe-isklyuchenie-iz-modulya-_devicehealth_-pri-rabote-na-mgr.ceph_node1_-oshibka-vvoda_vyvoda-diska.">[ОШИБКА]: Необработанное исключение из модуля 'devicehealth' при работе на mgr.ceph-node1: ошибка ввода/вывода диска.</a></b> <i>Proxmox Виртуальная Среда</i> в форуме <a href="http://proxmox.su/forum/forum63/">Proxmox Виртуальная Среда</a>. <br />
			Привет всем, столкнулся с проблемой в кластере Ceph (версия 18.2.4 Reef, стабильная) на `ceph-node1`. Сервис `ceph-mgr` выбрасывает необработанное исключение в модуле `devicehealth` с ошибкой `disk I/O error`. Заметил, что ошибка [ERR] : Unhandled exception from module 'devicehealth' while running on mgr.ceph-node1: disk I/O error появляется только на ceph-node1, когда ceph-node2 включен и подключен к кластеру. Когда тестировал с Ceph версией 19.2.1, ошибки не возникало, что указывает на возможную версию-специфическую проблему в 18.2.4. Вот в чем загвоздка: я планирую развернуть внешний кластер Rook, а образ Ceph в Rook поддерживает только до версии 18.2.4. Так что пока что я вынужден работать с этой версией. Ошибка появляется в логах на ceph-node1 вскоре после перезапуска сервиса ceph-mgr, когда node2 активен (например, 15 марта 03:18:36 ceph-node1 ceph-mgr[36707]: sqlite3.OperationalError: disk I/O error).<br /><br />Вот соответствующая информация: Логи из `journalctl -u ceph-mgr@ceph-node1.service`<br />tungpm@ceph-node1:~$ sudo journalctl -u ceph-mgr@ceph-node1.service<br />Mar 13 18:55:23 ceph-node1 systemd[1]: Started Ceph cluster manager daemon.<br />Mar 13 18:55:26 ceph-node1 ceph-mgr[7092]: /lib/python3/dist-packages/scipy/__init__.py:67: UserWarning: NumPy was imported from a Python sub-interpreter but NumPy does not properly support sub-interpreters. This will likely work for &gt;<br />Mar 13 18:55:26 ceph-node1 ceph-mgr[7092]: Improvements in the case of bugs are welcome, but is not on the NumPy roadmap, and full support may require significant effort to achieve.<br />Mar 13 18:55:26 ceph-node1 ceph-mgr[7092]: from numpy import show_config as show_numpy_config<br />Mar 13 18:55:28 ceph-node1 ceph-mgr[7092]: 2025-03-13T18:55:28.018+0000 7ffafa064640 -1 mgr.server handle_report got status from non-daemon mon.ceph-node1<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: 2025-03-13T19:10:39.025+0000 7ffaf2855640 -1 log_channel(cluster) log [ERR] : Unhandled exception from module 'devicehealth' while running on mgr.ceph-node1: disk I/O error<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: 2025-03-13T19:10:39.025+0000 7ffaf2855640 -1 devicehealth.serve:<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: 2025-03-13T19:10:39.025+0000 7ffaf2855640 -1 Traceback (most recent call last):<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/mgr_module.py", line 524, in check<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: return func(self, *args, **kwargs)<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/devicehealth/module.py", line 355, in _do_serve<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: if self.db_ready() and self.enable_monitoring:<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/mgr_module.py", line 1271, in db_ready<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: return self.db is not None<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/mgr_module.py", line 1283, in db<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: self._db = self.open_db()<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/mgr_module.py", line 1256, in open_db<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: db = sqlite3.connect(uri, check_same_thread=False, uri=True)<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: sqlite3.OperationalError: disk I/O error<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: During handling of the above exception, another exception occurred:<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: Traceback (most recent call last):<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/devicehealth/module.py", line 399, in serve<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: self._do_serve()<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/mgr_module.py", line 532, in check<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: self.open_db();<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: File "/usr/share/ceph/mgr/mgr_module.py", line 1256, in open_db<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: db = sqlite3.connect(uri, check_same_thread=False, uri=True)<br />Mar 13 19:10:39 ceph-node1 ceph-mgr[7092]: sqlite3.OperationalError: disk I/O error<br />Mar 13 19:16:41 ceph-node1 systemd[1]: Stopping Ceph cluster manager daemon...<br />Mar 13 19:16:41 ceph-node1 systemd[1]: ceph-mgr@ceph-node1.service : Deactivated successfully.<br />Mar 13 19:16:41 ceph-node1 systemd[1]: Stopped Ceph cluster manager daemon.<br />Mar 13 19:16:41 ceph-node1 systemd[1]: ceph-mgr@ceph-node1.service : Consumed 6.607s CPU time. <br />
			<i>15.03.2025 07:35:00, tungpm.</i>]]></description>
			<link>http://proxmox.su/forum/messages/forum63/message331530/78696-oshibka_-neobrabotannoe-isklyuchenie-iz-modulya-_devicehealth_-pri-rabote-na-mgr.ceph_node1_-oshibka-vvoda_vyvoda-diska.</link>
			<guid>http://proxmox.su/forum/messages/forum63/message331530/78696-oshibka_-neobrabotannoe-isklyuchenie-iz-modulya-_devicehealth_-pri-rabote-na-mgr.ceph_node1_-oshibka-vvoda_vyvoda-diska.</guid>
			<pubDate>Sat, 15 Mar 2025 07:35:00 +0300</pubDate>
			<category>Proxmox Виртуальная Среда</category>
		</item>
	</channel>
</rss>
