[Sysadmins] Linux-HA + OpenVZ
ABATAPA
=?iso-8859-1?q?dnsmaster_=CE=C1_yandex=2Eru?=
Пт Дек 22 10:48:19 MSK 2006
21 декабря 2006 23:07, Eugene Prokopiev написал:
> так я как раз о том, что слишком большой рост нагрузки иногда может быть
> равносилен остановке системы ;)
Может. Но все, как я говорил, зависит от... А так, все же, есть шанс...
> 1) отдельные конфигурации openvz на каждом узле
> 2) /var/lib/vz/private/ на общем для всех узлов разделе
> 3) ссылки из общих конфигураций в /var/lib/vz/private/
> 4) stonith, чтобы один VE не мучали несколько узлов сразу
> 5) самое сложное - алгоритм распределения еще не запущенных или
> остановившихся по причине смерти узла VE по работающим узлам
Согласен, что - непросто. Но как же было бы красиво и удобно... Например,
нужна профилактика - мигрируем все на другие узлы, и... Или -
ручная "балансировка" нагрузки. Ну есть же это уже все! Почему не у нас?..
> Как ни странно, у нас в Сизифе (и, надеюсь, в ALM31) связка
> heartbeat/drbd/openvz больше всего похожа на работающую из коробки -
> правда, кажется, только у меня ;) Ну и еще в SLES 10 вроде из коробки
> есть heartbeat/ocfs2/xen - по идее для xen они должны были сделать
> примерно то, что я выше расписал для openvz. Кажется, ни у кого больше
> коробочной связки кластеризации с виртуализацией нет.
Там, по-моему, даже миграция работает.
Думал еще об одном варианте: на двух (в моем случае) серверах два
drbd-устройства, при этом каждое из них смонтировано "мастером" на одном из
серверов (не знаю - возможно ли); соответственно, два heartbeat (в одной сети
они это умееют, а вот на одних и тех же узлах?..), по которым распределены
VE... При падении одного узла "выживший" сервер останется "мастером"
для "своих" drbd и задач, и "подхватит" "умершие", для которых является
slave...
Но что-то мне подсказывает, что это мало возможно... Да и не сильно меняет
ситуацию с поддержкой этого у нас в целом...
--
ABATAPA
Подробная информация о списке рассылки Sysadmins