[Hardware] hardware4cluster_(workstations)

Michael Shigorin mike на osdn.org.ua
Ср Янв 13 19:07:08 UTC 2010


On Wed, Jan 13, 2010 at 03:30:31AM +0200, andriy wrote:
> Есть 2 цели
> 1.  Создать в уч.заведение кластер из рабочих станций.
> Думаю на нем запускать ALT Skif.

Не уверен, что скрещивать ужа с ежом будет хорошей идеей...
разве что бездисково грузить их под кластер и с локального
винчестера -- под рабстанцию.

> Интересует Ваше мнение насчет
> -2x- или возможно 4х- ядерных процессоров: что лучше AMD или
> Intel.  (Дома AMD и вроде нет проблем, но все же возможно
> чем-то лучше intel?) - посоветуйте относительно недорогую но
> хорошую десктоп материнскую плату с одной или 2-мя сетевыми
> картами Gigabit Ethernet.

Если считать -- то ясное дело, что 4-ядерники брать.

Насчёт типа процессоров -- также зависит от того, что именно
считать собираетесь, но для матричных библиотек на кластерах
обычно предпочитают Intel (благодаря отдельно реализованной
инструкции "сложить-умножить", что ли -- linpack оценивает).

> Также думаю стоит установить nVidia GeForce в каждую машину для
> знакомства с CUD`ой.  - посоветуйте видеокарту.

Для знакомства достаточно в одну.  Не в курсе, есть ли CUDA
во встраиваемых в чипсет видеоакселераторах, но если да, то
может иметь смысл попросту взять материнки на нвидиевском.

> 2.  HPC Что-то, что монтируется в стойку low-end класса.
> Количество узлов 8.
> Коммуникационный интерфейс - Ininiband
> Сеть управления - Gigabit Ethernet.
> Наверное какая-то система UPS'ов.

Не "наверное", а обязательно.  Необязательно система, восемь штук
на один можно посадить (кажется, может хватить 5kW).

> В системах профессионального уровня не совсем разбираюсь,
> а потому интересно бы увидеть примеры решений и знать цены на
> них, желательно у Украине(в гривнах).

Если что, есть тут рядом железячники, на кластерном железе
не одну упряжку съевшие.  В гривнах в том числе.

PS: поспрошал -- получается так: с современным Infiniband можете
ориентироваться на $4000/узел (включая инфраструктуру, но вряд ли
бесперебойники); сэкономить можно за счёт старого SDR-свича и
карточек, но пара quad-core в узле будет простаивать и тогда
может иметь смысл не напрягаться, а сидеть на гигабите.

Возможно, стоит посмотреть на T-Blade 1.1 с восемью лезвиями;
возможно, на twin-плату SuperMicro.

Не забудьте про адекватное охлаждение сообразно потребляемой
мощности -- для восьми узлов это ещё может быть комнатный
кондиционер.

Ну и при отсутствии опыта с кластерами может уйти неожиданно
приличное время на настройку/освоение комплекса.

То есть для обсуждения в качестве проекта стоит уточнить:
- задачи
- бюджет
- сроки
и их приоритеты.

-- 
 ---- WBR, Michael Shigorin <mike at altlinux.ru>
  ------ Linux.Kiev http://www.linux.kiev.ua/


Подробная информация о списке рассылки Hardware