[hpc-devel] И ещё один вопрос про ssh и пользователей

Max Lapan =?iso-8859-1?q?lapan_=CE=C1_yandex-team=2Eru?=
Ср Сен 12 12:51:17 MSD 2007


Если я правильно помню, StarCD пришет как раз через нулевой процесс.
Но в газовой динамике (стационарные расчеты) и не такие объемы как в
динамической прочности, например.

Constantin Mikhaylenko wrote:
> On Wed, 12 Sep 2007 12:23:49 +0400
> Max Lapan <lapan на yandex-team.ru> wrote:
>
>   
>> Есть довольно много коммерческого софта (lsdyna яркий пример), которые 
>> пишут со всех узлов
>> одновременно. И, честно говоря, это более правильно с точки зрения 
>> производительности
>> при условии использовании правильных параллельных файловых систем (GPFS, 
>> for example).
>>
>> NFS, конечно, в такой ситуации тихо умирает.
>>     
>
> Мде. С коммерческими программами параллельными пока не сталкивался, потому не в курсе...
> В конце месяца отправлюсь разбираться с Star-CD -- можно будет уже пошевелить пальцами и на эту тему :)
>
> Но, с другой стороны, коммерческий софт обычно требует в качестве площадки рабочей что-то типа RH или SUSE...
> И не факт, что без проблем стартует с другими дистрибутивами
>
>   
>> Constantin Mikhaylenko wrote:
>>     
>>> On Wed, 12 Sep 2007 11:42:25 +0400
>>> "Stanislav Ievlev" <stanislav.ievlev на gmail.com> wrote:
>>>
>>>   
>>>       
>>>> А что если захочется кинуть данные на какой-нибудь общий storage,
>>>> который из соображений защиты от излишних перегрузок не смонтирован на
>>>> вычислительном узле имеющем собственный диск?
>>>>     
>>>>         
>>> Не надо желать странного!
>>> Вообще говоря, правильно написанная MPI-1 программа делает ввод-вывод только посредством процесса 0,
>>> который либо на сервере работает, либо на узле, который может писать куда дОлжно... По уму, за попытки
>>> читать/писать другими процессами надо бить порукам. Правильно написанная MPI-2 программа всё одно
>>> обращается к диску на одном узле (там где процесс нумер 0) посредством MPI-функций соответствующих.
>>> И за ввод-вывод иного типа тоже стоит бить по рукам.
>>>
>>> Далее, общий сторадж на кластере только один -- тот, что роздан по NFS.
>>> А снаружи к нему доступ: scp/sftp. Всё.
>>>
>>> "По-моему, так!"
>>>
>>>   
>>>       
>>>> Я так подумал, что способ работы с ssh видимо всё-таки
>>>> определит администратор конкретного кластера  и его пользователи ;)
>>>>
>>>> Не буду пытаться изобретать сферического коня ;)
>>>>
>>>> 2007/9/12, Max Lapan <lapan на yandex-team.ru>:
>>>>     
>>>>         
>>>>> Вроде бы домашние каталоги пользователей монтировались через NFS?
>>>>> Или я упустил что-то? Если так, то зачем scp, положить в $HOME и все.
>>>>>
>>>>> Stanislav Ievlev wrote:
>>>>>       
>>>>>           
>>>>>> В ходе возни с torque я опять натолкнулся на ssh ;)
>>>>>>
>>>>>> Поскольку torque-mom копирует "задом-наперёд" с клиентской машины, на
>>>>>> серверную, то правильно ли я понимаю, что никакие ssh-agent (и даже
>>>>>> AgentForward) тут уже не  помогут и у пользователей должны быть
>>>>>> исключительно беспарольные ssh-ключики?
>>>>>>
>>>>>> --
>>>>>> Станислав Иевлев.
>>>>>> _______________________________________________
>>>>>> HPC-devel mailing list
>>>>>> HPC-devel на lists.altlinux.org
>>>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>>>
>>>>>>         
>>>>>>             
>>>>> --
>>>>> wbr, Max Lapan
>>>>>
>>>>> _______________________________________________
>>>>> HPC-devel mailing list
>>>>> HPC-devel на lists.altlinux.org
>>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>>
>>>>>       
>>>>>           
>>>> _______________________________________________
>>>> HPC-devel mailing list
>>>> HPC-devel на lists.altlinux.org
>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>     
>>>>         
>>>   
>>> ------------------------------------------------------------------------
>>>
>>> _______________________________________________
>>> HPC-devel mailing list
>>> HPC-devel на lists.altlinux.org
>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>   
>>>       
>> -- 
>> wbr, Max Lapan
>>
>> _______________________________________________
>> HPC-devel mailing list
>> HPC-devel на lists.altlinux.org
>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>     
>
>
>   
> ------------------------------------------------------------------------
>
> _______________________________________________
> HPC-devel mailing list
> HPC-devel на lists.altlinux.org
> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>   

-- 
wbr, Max Lapan




Подробная информация о списке рассылки HPC-devel