Информация
Услуги
  • Внедрение
  • Настройка
  • Поддержка
  • Ремонт
Контакты
Оплата
Новости
Доставка
Загрузки
Форум
Настройка
    info@proxmox.su
    +7 (495) 320-70-49
    Заказать звонок
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Войти
    0 Сравнение
    0 Избранное
    0 Корзина
    Аспро: ЛайтШоп
    Телефоны
    +7 (495) 320-70-49
    Заказать звонок
    0
    0
    0
    Аспро: ЛайтШоп
    • +7 (495) 320-70-49
      • Назад
      • Телефоны
      • +7 (495) 320-70-49
      • Заказать звонок
    • info@proxmox.su
    • Москва, Бакунинская улица, 69с1
    • Пн-Пт: 09-00 до 18-00
      Сб-Вс: выходной
    • 0 Сравнение
    • 0 Избранное
    • 0 Корзина
    Главная
    Форум
    Proxmox Виртуальная Среда
    Не могу перевести текст.

    Форумы: Proxmox Виртуальная Среда, Proxmox Backup Server, Proxmox Mail Gateway, Proxmox Datacenter Manager
    Поиск  Пользователи  Правила  Войти
    Страницы: 1
    RSS
    Не могу перевести текст., Proxmox Виртуальная Среда
     
    starnetwork
    Guest
    #1
    0
    27.01.2018 22:59:00
    Привет всем, у меня 6 узлов, каждый узел 1x128GB для Proxmox OS и дополнительно 2x 960GB Samsung Enterprise SSD для кластера Ceph, то есть всего у меня 6 хостов/узлов, по 2 OSD на узел, 1 пул с настройками 3/2 (размер/минимальный размер). У меня вопрос: сколько свободного диска у меня есть для "работы"? 3.84TB? (все диски / 3) 1.92TB (все узлы / 3) Должен ли я оставаться на размере 3 или мне стоит изменить размер с 3 на 2? С наилучшими пожеланиями,
     
     
     
    dung3197
    Guest
    #2
    0
    23.02.2021 08:18:00
    Итак, можешь помочь мне продемонстрировать, как рассчитать емкость CEPH, если на всех узлах есть дополнительно 128GB OSD в вышеописанном сценарии? Еще одна проблема, с которой я столкнулся в первой лаборатории, заключается в том, что у меня 4 узла: - CEPH2: sdb 10GB, sdc 40GB - CEPH3: sdb 10GB, sdc 40GB - CEPH4: sdb 10GB - CEPH5: sdb 10GB И я настроил репликацию Ceph 3 раза в ceph.conf, min=2. Я не понимаю, почему итоговый результат, когда я проверяю статус с помощью "ceph -s", показывает суммарную емкость узлов (120GB)
     
     
     
    ph0x
    Guest
    #3
    0
    23.02.2021 09:28:00
    Ceph показывает вам доступное необработанное хранилище, которое в вашем случае составляет 120ГБ. Для расчета безопасного размера кластера вам обязательно стоит гуглить «Ceph: Safely Available Storage Calculator», доступный на florian.ca
     
     
     
    dung3197
    Guest
    #4
    0
    23.02.2021 11:48:00
    Я посмотрел страницу, но до сих пор не понимаю, почему я могу хранить данные в кластере до 120 ГБ, хотя Ceph настроен с репликацией. Кроме того, емкости OSD различаются, так как мне можно их вручную посчитать, чтобы понять?
     
     
     
    ph0x
    Guest
    #5
    0
    23.02.2021 11:54:00
    Вы не правы. Это общий размер (4x10+2x40) всех ваших OSD.
     
     
     
    dung3197
    Guest
    #6
    0
    23.02.2021 11:59:00
    Итак, есть ли способ отобразить реемую емкость кластера? Я сейчас очень запутался.
     
     
     
    ph0x
    Guest
    #7
    0
    23.02.2021 12:18:00
    Попробуйте ceph df
     
     
     
    Страницы: 1
    Читают тему
    +7 (495) 320-70-49
    info@proxmox.su

    Конфиденциальность Оферта
    © 2026 Proxmox.su
    Главная Каталог 0 Корзина 0 Избранные Кабинет 0 Сравнение Акции Контакты Услуги Бренды Отзывы Компания Лицензии Документы Реквизиты Поиск Блог Обзоры