[hpc-devel] Q: множественные реализации mpi

Stanislav Ievlev =?iso-8859-1?q?stanislav=2Eievlev_=CE=C1_gmail=2Ecom?=
Вт Янв 29 11:32:11 MSK 2008


Посмотрел. Детальное разведение бинарей не катит ибо:
1. слишком разное и большое количество пересечений по файлам в разных
комбинациях mvapich_xxx,mvapich2_xxx, openmpi_xxx.

2. у mvapich{1,2} в отличие от openmpi всё гораздо запутаннее и
запущеннее по запуску бинарей - там мешанина из шельных и питоновых
скриптов. Всё в куче в bin. Разводить их - проще повеситься. Там
изначально не предполагается никакого аккуратного разведения
библиотечной составляющей (в отличие от того же openmpi).

Посему придётся делать схему %__libexec/%name, где %name может быть
будет содержать и имя с компилятором.

Поскольку проприетарщины типа icc в Сизифе быть не может, то я
предлагаю для gcc вариантов вообще не делать никаких префиксов. а для
icc - делать %name_icc и делать тогда уж будем это под заказ под
конкретные проекты.

Так что  придётся использовать такую схему, которую нам навязывает
традиция кластеростроительства  ;)

Очень жаль портить openmpi - единственный нормальный проект.
Можно временно оставить его на старом месте, делать пустые
mpivars.{sh,csh}, а в mpivars.{sh.csh} для *pich* высталять их
каталоги в PATH вперёд.

Что думаете, Дениc?


Подробная информация о списке рассылки HPC-devel