Обновлено в июле 2014

Отказоустойчивый кластер

Два сервера и система хранения данных — это минимальный набор для построения отказоустойчивого кластера с использованием технологий серверной виртуализации. Отказоустойчивость будет обеспечиваться на аппаратном уровне, т.е. выход из строя оборудования не приведет к остановке работы.
Я попробую рассмотреть все возможные варианты подключения серверов и СХД нижнего ценового сегмента и сравнить их между собой. Оборудование, которое я буду использовать в расчетах производства IBM.

Проект будет складываться из следующих элементов:

  1. Серверы x86 архитектуры, IBM x3650 M4 (описание)
  2. Система хранения данных IBM Storwize v3700 (описание)
  3. Лицензии на платформу виртуализации, лицензии Microsoft Windows
  4. Сетевое оборудование
  5. Серверный шкаф, источники бесперебойного питания, PDU (описание)

Физическая архитектура решения

Архитектура 01

Питание. В каждом сервере 2 блока независимых питания, которые будут подключены к разным источникам бесперебойного питания. Тоже самое и с системой хранения данных. Соединение можно производить напрямую, либо через блоки розеток.

Подключение СХД к серверам.
Связать систему хранения и серверы можно двумя бюджетными способами:

  • iSCSI 1Gbe — система хранения подключается к коммутаторам, серверы тоже подключаются к коммутаторам. В СХД используются по два сетевых порта в каждом контроллере, в серверах тоже используются по два сетевых порта. Прямое подключение не поддерживается
  • прямое подключение по SAS — в серверы докупаются две дополнительные одно портовые карты расширения SAS HBA.  Они через соединительные SAS кабели коммутируются с существующими портами в системе хранения данных Прямое подключение поддерживается.

Есть также не бюджетные способы, которые потребуют значительных дополнительных расходов:

  • Fibre Channel (FC) —  чтобы связать серверы и СХД оптическими каналами нужно будет докупить в систему хранения дополнительную карту и дополнительные FC HBA контроллеры в каждый сервер. Прямое подключение поддерживается.
  • 10 Gb iSCSI/Fibre Channel over Ethernet (FCoE) — в данном случае также докупаются дополнительные карты в систему хранения и дополнительные 10 Gbe HBA контроллеры в каждый сервер. Дополнительно потребуются десятигигабитные оптические коммутаторы, т.к. в данном случае прямое подключение не поддерживается. Такое подключение в данном решении нецелесообразно, поэтому рассматриваться в таблице ниже не будет.

Спецификация

SR - 01

  • Den

    красиво — уже решил про IBM x3650 M4, вот про кластер думаю.. правда хочу делать на Proxmox