[hpc-devel] ????????? ????????????
Alexander Moskovsky
=?iso-8859-1?q?moskov_=CE=C1_phys069b-2=2Echem=2Emsu=2Eru?=
Чт Дек 27 08:05:14 MSK 2007
Добрый день!
В Т-60 должно быть несколько типов узлов (с дисками, без дисков, с большой памятью и т.п.)
Проверялась работоспособность на узлах с дисками? Проверялась ли работа на бездисковых узлах?
Какие характеристики получены у MPI (задержка, пропускная способность)?
Проверялась ли работа с хранилищем?
С уважением,
Александр.
On Wed, Dec 26, 2007 at 09:34:12PM +0300, ?????? ?????? wrote:
> Сегодня, я и Александр Наумов из Т-платформ. Проводили эксперемент по
> запуску дистрибутива на реальном железе. В основном интересовала
> поддержка infinband карточки от Melanox (модель точно не скажу).
> В целом эксперимент удался: получилось связать по ib 2 узла, и проверить
> работу MPI. В процессе тестирования были замечены недочёты:
> -При запуске не подгружаются модули ib. Пришлось загружать модуль mlx4
> для карточки, и все модули из дериктории core(например ib_uverbs)
> -Udev не создаёт (вообще) появившисе устройтва. Они должны быть в
> /dev/infiband пришлось создать руками
> -Не совсем ровно собран пакет openib-diags .Некоторые программы тербуют
> запуска других пограмм из того-же пакета, и почему-то ищут их гдето
> /usr/local/bin (решил проблему созданием ссылок)
> -Не совсем правильно собран libibverbs. Почему-то нет линки
> libibverbs.so есть только libibverbs.so.1 это не нравилось компилятору.
> -По словам Александра одного openmpi мало желательно ещё хотябы MVA mpich
> -Имхо в инсталере стоит сделать вариант установки для корневой ноды, там
> например врядли будет хоминк на NFS
> -Я с ходу не нашёл как автоматизировать установку 2й ноды.
> _______________________________________________
> HPC-devel mailing list
> HPC-devel на lists.altlinux.org
> https://lists.altlinux.org/mailman/listinfo/hpc-devel
Подробная информация о списке рассылки HPC-devel