[hpc-devel] О проблемах LDAP

Andrey Slepuhin =?iso-8859-1?q?andrey=2Eslepuhin_=CE=C1_t-platforms=2Eru?=
Ср Сен 5 16:23:52 MSD 2007


Для больших систем возможно держать LDAP на отдельной машине - например, 
в качестве LDAP-сервера может служить выделенный сервер управления и 
мониторинга, на котором простым пользователям делать нечего. Большинство 
же маленьких и средних кластенров продается с одним единственным 
управляющим узлом, который обеспечивает все сервисы. Я здесь вижу три 
варианта:
1) Выставить разумные таймауты. Перезагрузка управляющего узла - вещь 
нечастая, можно и подождать немного
2) После поднятия LDAP динамически переконфигурировать NSS, чтобы он 
работал через него
3) (с моей точки это наиболее правильный вариант) Стартовать базовые 
кластерные сервисы в обычном режиме, поднять LDAP, потом поднять 
виртуальную машину, внутри которой будут жить все пользователи. У такого 
решения много плюсов- например, даже если эта виртуальная машина в 
результате каких-то действий упадет, все кластерные сервисы будут 
нормально жить, и останется только перезапустить виртуальную машину 
заново. Проблема только в том, что проработка такого решения может 
требовать несколько большего времени

WBR,
Андрей

Stanislav Ievlev wrote:
> Что-то у меня не вырисовывается идеальной схемы с ldap.
>
> Получается следующая картина: И на вычислительные узлы и на главную машину логин происходит при
> помощи ldap, соответственно приходится и на вычислительных узлах и на
> главной машине настраивать nsswitch на ldap.
>
> Держать ldap сервер и nss_ldap на одной машине - проблематично. С самого
> начала жизни системы требуется nsswitch и если нет ldap, то возникают
> длительные timeout'ы.
>
> Готовы ли вы (Александр, Андрей?) выделить отдельную машину для ldap сервера?
>
> Или (вопрос к остальным) существует иные варианты использования ldap по
> кластеру?
>
>
> _______________________________________________
> Hpc-devel mailing list
> Hpc-devel на lists.altlinux.org
> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>   



Подробная информация о списке рассылки HPC-devel