[hpc-devel] И ещё один вопрос про ssh и пользователей
Andrey Slepuhin
=?iso-8859-1?q?andrey=2Eslepuhin_=CE=C1_t-platforms=2Eru?=
Ср Сен 12 12:33:08 MSD 2007
Ага. И не только коммерческого. Для некоторых задач объем данных может
составлять десятки и сотни гигабайт. И смысл как раз в том, что если
данные нормально распределены по разным физическим устройствам, то
параллельный ввод/вывод позволяет во много раз увеличить производительность.
Max Lapan wrote:
> Есть довольно много коммерческого софта (lsdyna яркий пример), которые
> пишут со всех узлов
> одновременно. И, честно говоря, это более правильно с точки зрения
> производительности
> при условии использовании правильных параллельных файловых систем (GPFS,
> for example).
>
> NFS, конечно, в такой ситуации тихо умирает.
>
> Constantin Mikhaylenko wrote:
>
>> On Wed, 12 Sep 2007 11:42:25 +0400
>> "Stanislav Ievlev" <stanislav.ievlev на gmail.com> wrote:
>>
>>
>>
>>> А что если захочется кинуть данные на какой-нибудь общий storage,
>>> который из соображений защиты от излишних перегрузок не смонтирован на
>>> вычислительном узле имеющем собственный диск?
>>>
>>>
>> Не надо желать странного!
>> Вообще говоря, правильно написанная MPI-1 программа делает ввод-вывод только посредством процесса 0,
>> который либо на сервере работает, либо на узле, который может писать куда дОлжно... По уму, за попытки
>> читать/писать другими процессами надо бить порукам. Правильно написанная MPI-2 программа всё одно
>> обращается к диску на одном узле (там где процесс нумер 0) посредством MPI-функций соответствующих.
>> И за ввод-вывод иного типа тоже стоит бить по рукам.
>>
>> Далее, общий сторадж на кластере только один -- тот, что роздан по NFS.
>> А снаружи к нему доступ: scp/sftp. Всё.
>>
>> "По-моему, так!"
>>
>>
>>
>>> Я так подумал, что способ работы с ssh видимо всё-таки
>>> определит администратор конкретного кластера и его пользователи ;)
>>>
>>> Не буду пытаться изобретать сферического коня ;)
>>>
>>> 2007/9/12, Max Lapan <lapan на yandex-team.ru>:
>>>
>>>
>>>> Вроде бы домашние каталоги пользователей монтировались через NFS?
>>>> Или я упустил что-то? Если так, то зачем scp, положить в $HOME и все.
>>>>
>>>> Stanislav Ievlev wrote:
>>>>
>>>>
>>>>> В ходе возни с torque я опять натолкнулся на ssh ;)
>>>>>
>>>>> Поскольку torque-mom копирует "задом-наперёд" с клиентской машины, на
>>>>> серверную, то правильно ли я понимаю, что никакие ssh-agent (и даже
>>>>> AgentForward) тут уже не помогут и у пользователей должны быть
>>>>> исключительно беспарольные ssh-ключики?
>>>>>
>>>>> --
>>>>> Станислав Иевлев.
>>>>> _______________________________________________
>>>>> HPC-devel mailing list
>>>>> HPC-devel на lists.altlinux.org
>>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>>
>>>>>
>>>>>
>>>> --
>>>> wbr, Max Lapan
>>>>
>>>> _______________________________________________
>>>> HPC-devel mailing list
>>>> HPC-devel на lists.altlinux.org
>>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>>
>>>>
>>>>
>>> _______________________________________________
>>> HPC-devel mailing list
>>> HPC-devel на lists.altlinux.org
>>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>>
>>>
>>
>> ------------------------------------------------------------------------
>>
>> _______________________________________________
>> HPC-devel mailing list
>> HPC-devel на lists.altlinux.org
>> https://lists.altlinux.org/mailman/listinfo/hpc-devel
>>
>>
>
>
Подробная информация о списке рассылки HPC-devel