[hpc-devel] И ещё один вопрос про ssh и пользователей

Andrey Slepuhin =?iso-8859-1?q?andrey=2Eslepuhin_=CE=C1_t-platforms=2Eru?=
Ср Сен 12 12:33:08 MSD 2007


Ага. И не только коммерческого. Для некоторых задач объем данных может 
составлять десятки и сотни гигабайт. И смысл как раз в том, что если 
данные нормально распределены по разным физическим устройствам, то 
параллельный ввод/вывод позволяет во много раз увеличить производительность.

Max Lapan wrote:
> Есть довольно много коммерческого софта (lsdyna яркий пример), которые 
> пишут со всех узлов
> одновременно. И, честно говоря, это более правильно с точки зрения 
> производительности
> при условии использовании правильных параллельных файловых систем (GPFS, 
> for example).
>
> NFS, конечно, в такой ситуации тихо умирает.
>
> Constantin Mikhaylenko wrote:
>   
>> On Wed, 12 Sep 2007 11:42:25 +0400
>> "Stanislav Ievlev" <stanislav.ievlev на gmail.com> wrote:
>>
>>   
>>     
>>> А что если захочется кинуть данные на какой-нибудь общий storage,
>>> который из соображений защиты от излишних перегрузок не смонтирован на
>>> вычислительном узле имеющем собственный диск?
>>>     
>>>       
>> Не надо желать странного!
>> Вообще говоря, правильно написанная MPI-1 программа делает ввод-вывод только посредством процесса 0,
>> который либо на сервере работает, либо на узле, который может писать куда дОлжно... По уму, за попытки
>> читать/писать другими процессами надо бить порукам. Правильно написанная MPI-2 программа всё одно
>> обращается к диску на одном узле (там где процесс нумер 0) посредством MPI-функций соответствующих.
>> И за ввод-вывод иного типа тоже стоит бить по рукам.
>>
>> Далее, общий сторадж на кластере только один -- тот, что роздан по NFS.
>> А снаружи к нему доступ: scp/sftp. Всё.
>>
>> "По-моему, так!"
>>
>>   
>>     
>>> Я так подумал, что способ работы с ssh видимо всё-таки
>>> определит администратор конкретного кластера  и его пользователи ;)
>>>
>>> Не буду пытаться изобретать сферического коня ;)
>>>
>>> 2007/9/12, Max Lapan <lapan на yandex-team.ru>:
>>>     
>>>       
>>>> Вроде бы домашние каталоги пользователей монтировались через NFS?
>>>> Или я упустил что-то? Если так, то зачем scp, положить в $HOME и все.
>>>>
>>>> Stanislav Ievlev wrote:
>>>>       
>>>>         
>>>>> В ходе возни с torque я опять натолкнулся на ssh ;)
>>>>>
>>>>> Поскольку torque-mom копирует "задом-наперёд" с клиентской машины, на
>>>>> серверную, то правильно ли я понимаю, что никакие ssh-agent (и даже
>>>>> AgentForward) тут уже не  помогут и у пользователей должны быть
>>>>> исключительно беспарольные ssh-ключики?
>>>>>
>>>>> --
>>>>> Станислав Иевлев.
>>>>> _______________________________________________
>>>>> HPC-devel mailing list
>>>>> HPC-devel на lists.altlinux.org
>>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>>
>>>>>         
>>>>>           
>>>> --
>>>> wbr, Max Lapan
>>>>
>>>> _______________________________________________
>>>> HPC-devel mailing list
>>>> HPC-devel на lists.altlinux.org
>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>
>>>>       
>>>>         
>>> _______________________________________________
>>> HPC-devel mailing list
>>> HPC-devel на lists.altlinux.org
>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>     
>>>       
>>   
>> ------------------------------------------------------------------------
>>
>> _______________________________________________
>> HPC-devel mailing list
>> HPC-devel на lists.altlinux.org
>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>   
>>     
>
>   



Подробная информация о списке рассылки HPC-devel