Приложения. Пример системы виртуализации

14 октября 2016. Юрий Шкандыбин

 Состав системы

В систему входит оборудование:

  1. Сервер ovirt1

    • 2x Intel(R) Xeon(R) CPU       E5620 @ 2.40GHz

    • 44G RAM

    • 2x 1G + 10G Ethernet

    • 12G SATA DOM

    • Корзина (12): 1xSSD + 1x4T + 2x3T + 8x2T

  2. Сервер ovirt2

    • 2x Intel(R) Xeon(R) CPU       E5620 @ 2.40GHz

    • 44G RAM

    • 2x 1G + 10G Ethernet

    • 12G SATA DOM

    • Корзина (7/12): 1xSSD + 5x4T+ 2x3T

  3. Сервер ovirt3

    • Intel(R) Xeon(R) CPU       E5-2620 @ 2.00GHz

    • 32G RAM

    • 2x 1G + 10G Ethernet

    • 12G SATA DOM + 1xSSD

    • Корзина (8) : 1x4T + 6x3T

      +

      Корзина (12): 12x4T

  4. Сервер ovirt4

    • 2x Intel(R) Xeon(R) CPU       E5520 @ 2.27GHz

    • 20G RAM

    • 2x 1G

    • 1x 80G SATA

  5. Сервер ovirt5

    • 2x Intel(R) Xeon(R) CPU       E5405 @ 2.00GHz

    • 24G RAM

    • 2x 1G + 10G Ethernet

    • 12G SATA DOM

    • Корзина (16) : 1xSSD + 7x3T +3x2T +x1T + 2x600G + 2x450G

  6. Коммутатор сети хранения: Dlink DGS-1510-28X

  7. Коммутатор сети передачи: Cisco C3750G-24T

Сети передачи данных и системы хранения разделены.

Сервера собраны по топологии звезда вокруг соответствующих коммутаторов..

Подключение к сети хранения осуществляется по 10G в случае их наличия.

В случае наличия нескольких однотипных интерфейсов осуществляется агрегация.

Сервера работают под управлению системы виртуализации Proxmox.

С документацией можно ознакомиться:

В качестве общей системы хранения используется распределённая система CEPH.

Система развёрнута с помощью возможностей системы виртуализации.

Пул RBD3 обеспечивает избыточность 3/1 и на нем лежат небольшие диски

Пул RBD обеспечивается избыточность 2/1 и на нем лежат большие (10+Т) диски для виртуалок хранения.

С документацией можно ознакомиться:

На отдельную полку подключенную к ovirt3 делаются бэкапы на ZFS одним из способов

  1. виртуалок Proxmox – cредствами Proxmox

    каждый узел делает бэкап в своё время:

    ovirt1 -> 00:00

    ovirt2 -> 01:00

    ovirt3 -> 02:00

    ovirt4 -> 03:00

    ovirt5 -> 04:00

  2. больших дисков – rsync из виртуалки на подключённый диск бэкапа для linux

    cron ночью в 2 ночи запускает скрипт /BACKUP

  3. больших дисков – robocopy из виртуалки на подключённый диск бэкапа для windows

    ночью в 3 ночи запускается скрипт c:\backup.bat

  4. Для баз данных – средствами бэкапа самой базы по NFS в папку /archive/backup/db1

  5. Корневые системы гипервизоров ovirt{1..5} бэкапятся в папку /archive/backup/ovirt хостом ovirt3 ежедневно в полночь.

Дополнительно на ZFS делаются снэпшоты раз в день/неделю/месяц.

С документацией по ZFS можно ознакомиться:

[Замечание]Замечания

Сервер ovirt5 не используется для виртуалок, так как у него самый старый тип процессора, а использовать этот тип неэффективно. При необходимости его можно задействовать.

На сервере ovirt3 не желательно располагать виртуалки, так как он используется для хранения бэкапов. При необходимости его можно задействовать.