Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    ceph osd mit journal на lvm

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    ceph osd mit journal на lvm, Proxmox Виртуальная Среда
     
    mr.x
    Guest
    #1
    0
    29.03.2017 15:26:00
    Всем привет, сейчас я следую этому руководству. Моя конфигурация выглядит следующим образом: три сервера Dell R530, каждый из которых оснащен 2x 750GB SSD и 6x 8TB HDD. Операционная система уже установлена на обоих SSD в режиме Raid1. Кластер работает отлично. Я хотел бы использовать 6 HDD для OSD. Согласно руководству: Код: Пример: /dev/sdf как диск данных (4TB), а /dev/sdb — это выделенный SSD для журнала.

    # pveceph createosd /dev/sdf -journal_dev /dev/sdb К сожалению, это не сработало... Код: # pveceph createosd /dev/sdc -journal_dev /dev/mapper/pve-osd_journal_1 команда '/sbin/zpool list -HPLv' не удалась: open3:.exec of /sbin/zpool list -HPLv failed at /usr/share/perl5/PVE/Tools.pm line 411.

    создание OSD на /dev/sdc (xfs) использование устройства '/dev/dm-5' для журнала Внимание: недействительный резервный заголовок GPT, но действительный основной заголовок; регенерация резервного заголовка из основного заголовка.

    **************************************************************************** Внимание: Обнаружен защитный или гибридный MBR и поврежденный GPT. Используется GPT, но проверка и восстановление диска настоятельно рекомендуется. **************************************************************************** Данные структуры GPT уничтожены! Теперь вы можете разделить диск, используя fdisk или другие утилиты. Создание новых записей GPT. Операция выполнена успешно. prepare_device: OSD не будет горячей заменой, если журнал не на том же устройстве, что и данные OSD Не удалось создать раздел 2 с 34 по 10485793 Не удалось установить имя раздела 2 на 'ceph journal'! Устанавливаю имя! partNum равен 1 ДЕЙСТВИТЕЛЬНО устанавливаю имя! Не удалось изменить код типа раздела 2 на 45b0969e-9b03-4f30-b4c6-b4b80ceff106! Произошла ошибка; изменения не будут сохранены. Описание ошибки (последний вызов был сделан последним): Файл "/usr/sbin/ceph-disk", строка 9, в <module> load_entry_point('ceph-disk==1.0.0', 'console_scripts', 'ceph-disk')() Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 5047, в run main(sys.argv[1:]) Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 5000, в main main_catch(args.func, args) Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 5025, в main_catch func(args) Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 1812, в main Prepare.factory(args).prepare() Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 1801, в prepare self.prepare_locked() Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 1832, в prepare_locked self.data.prepare(self.journal) Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 2494, в prepare self.prepare_device(*to_prepare_list) Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 2670, в prepare_device to_prepare.prepare() Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 2003, в prepare self.prepare_device() Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 2095, в prepare_device num=num) Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 1554, в create_partition self.path, Файл "/usr/lib/python2.7/dist-packages/ceph_disk/main.py", строка 446, в command_check_call return subprocess.check_call(arguments) Файл "/usr/lib/python2.7/subprocess.py", строка 540, в check_call raise CalledProcessError(retcode, cmd) subprocess.CalledProcessError: Команда '['/sbin/sgdisk', '--new=2:0:+5120M', '--change-name=2:ceph journal', '--partition-guid=2:95f4c721-0149-42fb-b9c7-17fee8618bfe', '--typecode=2:45b0969e-9b03-4f30-b4c6-b4b80ceff106', '--mbrtogpt', '--', '/dev/dm-5']' вернула ненулевой код выхода 4 команда 'ceph-disk prepare --zap-disk --fs-type xfs --cluster ceph --cluster-uuid 217d7725-6ad8-4958-9ed6-94a39cd62482 --journal-dev /dev/sdc /dev/dm-5' не удалась: код выхода 1 Может кто-то помочь или есть идеи? Большое спасибо!
     
     
     
    udo
    Guest
    #2
    0
    17.09.2017 22:24:00
    Привет! По моему опыту, это не самая лучшая идея. Лучше использовать разделы корпоративного SSD, которые достаточно быстры для Ceph (записи с синхронизацией - см. здесь https://www.sebastien-han.fr/blog/2...-if-your-ssd-is-suitable-as-a-journal-device/). Удо
     
     
     
    alexskysilk
    Guest
    #3
    0
    18.09.2017 00:47:00
    Команда создания от автора должна сработать. Ошибка, которую он получает, указывает на то, что его установка Proxmox, вероятно, не оригинальная (судя по всему, у него не установлен ZoL).
     
     
     
    mr.x
    Guest
    #4
    0
    18.09.2017 08:44:00
    Привет, alexskysilk! Ты имеешь в виду ZFS на Linux? С уважением, Mr.X
     
     
     
    alexskysilk
    Guest
    #5
    0
    18.09.2017 17:41:00
    Я да. Если Proxmox был установлен с официального дистрибутива, ZFS бы уже установился, и команда '/sbin/zpool list -HPLv' выполнилась бы, а не выдала ошибку.
     
     
     
    fabian
    Guest
    #6
    0
    19.09.2017 09:09:00
    ZFS изменил загрузку модулей с автоматической на по желанию, так что это в действительности нормально для установки PVE 5.0. Мы можем вернуться к старому поведению при обновлении до 0.7.1.
     
     
     
    BJ78945
    Guest
    #7
    0
    17.09.2017 22:14:00
    Привет, я также заинтересован в использовании тома lvm в качестве журнала. Есть ли какие-то обновления по этому поводу? С уважением, Б.J.
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры