[Hardware] hardware4cluster_(workstations)
Michael Shigorin
mike на osdn.org.ua
Ср Янв 13 19:07:08 UTC 2010
On Wed, Jan 13, 2010 at 03:30:31AM +0200, andriy wrote:
> Есть 2 цели
> 1. Создать в уч.заведение кластер из рабочих станций.
> Думаю на нем запускать ALT Skif.
Не уверен, что скрещивать ужа с ежом будет хорошей идеей...
разве что бездисково грузить их под кластер и с локального
винчестера -- под рабстанцию.
> Интересует Ваше мнение насчет
> -2x- или возможно 4х- ядерных процессоров: что лучше AMD или
> Intel. (Дома AMD и вроде нет проблем, но все же возможно
> чем-то лучше intel?) - посоветуйте относительно недорогую но
> хорошую десктоп материнскую плату с одной или 2-мя сетевыми
> картами Gigabit Ethernet.
Если считать -- то ясное дело, что 4-ядерники брать.
Насчёт типа процессоров -- также зависит от того, что именно
считать собираетесь, но для матричных библиотек на кластерах
обычно предпочитают Intel (благодаря отдельно реализованной
инструкции "сложить-умножить", что ли -- linpack оценивает).
> Также думаю стоит установить nVidia GeForce в каждую машину для
> знакомства с CUD`ой. - посоветуйте видеокарту.
Для знакомства достаточно в одну. Не в курсе, есть ли CUDA
во встраиваемых в чипсет видеоакселераторах, но если да, то
может иметь смысл попросту взять материнки на нвидиевском.
> 2. HPC Что-то, что монтируется в стойку low-end класса.
> Количество узлов 8.
> Коммуникационный интерфейс - Ininiband
> Сеть управления - Gigabit Ethernet.
> Наверное какая-то система UPS'ов.
Не "наверное", а обязательно. Необязательно система, восемь штук
на один можно посадить (кажется, может хватить 5kW).
> В системах профессионального уровня не совсем разбираюсь,
> а потому интересно бы увидеть примеры решений и знать цены на
> них, желательно у Украине(в гривнах).
Если что, есть тут рядом железячники, на кластерном железе
не одну упряжку съевшие. В гривнах в том числе.
PS: поспрошал -- получается так: с современным Infiniband можете
ориентироваться на $4000/узел (включая инфраструктуру, но вряд ли
бесперебойники); сэкономить можно за счёт старого SDR-свича и
карточек, но пара quad-core в узле будет простаивать и тогда
может иметь смысл не напрягаться, а сидеть на гигабите.
Возможно, стоит посмотреть на T-Blade 1.1 с восемью лезвиями;
возможно, на twin-плату SuperMicro.
Не забудьте про адекватное охлаждение сообразно потребляемой
мощности -- для восьми узлов это ещё может быть комнатный
кондиционер.
Ну и при отсутствии опыта с кластерами может уйти неожиданно
приличное время на настройку/освоение комплекса.
То есть для обсуждения в качестве проекта стоит уточнить:
- задачи
- бюджет
- сроки
и их приоритеты.
--
---- WBR, Michael Shigorin <mike at altlinux.ru>
------ Linux.Kiev http://www.linux.kiev.ua/
Подробная информация о списке рассылки Hardware