<br><div class="gmail_quote">9 сентября 2009 г. 23:31 пользователь Konstantin Pavlov <span dir="ltr">&lt;<a href="mailto:thresh@altlinux.ru">thresh@altlinux.ru</a>&gt;</span> написал:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="im"><br>
&gt; &gt; ext2fs поверх drbd8 работает на этих ядрах на 4х инсталляциях.<br>
&gt;<br>
&gt; А разве ext2 на drbd8 можно  в режиме primary/primary использовать?<br>
<br>
</div>Мы не пробовали, но наверняка нельзя, это ж не кластерная ФС.<br>
<div class="im"><br></div></blockquote><div>Есть вариант с отдельными drbd-устройствами на каждый контейнер ovz.<br>И в процессе онлайн-миграции перемонтируем девайс на другой HN.<br>ФС в этом случае рояли не играет :)<br>
 </div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="im">
&gt; Собственно, меня интересует связка drbd8 + (some shared fs) + openvz +<br>
&gt; heartbeat.<br>
&gt; Хотелось бы не только fail over обеспечить, но и распределение<br>
&gt; нагрузки между нодами.<br>
<br>
</div>А где на нашей wiki про успешную реализацию этой идеи прочитать? ;)<br></blockquote><div><br>Чтобы это было документацией, а не научной фантастикой, надо сперва<br>получить упомянутую успешную реализацию. Кстати, от shared fs меня<br>
вчера знакомый кластерный гуру успел отговорить, мотивируя резкой<br>просадкой производительности и избыточным гемороем.<br></div></div><br>Так что пока будем пилить вариант с монтированием отдельных томов<br>на каждую VE и перемонтированием при онлайн-миграции.<br>
<br>-- <br>Regards,<br>Michael Bochkaryov<br><a href="http://www.rattler.kiev.ua">www.rattler.kiev.ua</a><br>