[Sysadmins] Несколько соединений в одно (не vpn).

Ivan Fedorov =?iso-8859-1?q?ns_=CE=C1_altlinux=2Eorg?=
Пн Авг 25 15:25:25 MSD 2008


2008/8/22 Denis Klimov <zver на altlinux.org>:
> On Fri, 22 Aug 2008 10:15:20 +0300 Michael Shigorin wrote:
>
>> On Fri, Aug 22, 2008 at 11:00:09AM +0600, Denis Klimov wrote:
>> > допустим, есть две системы, которые обмениваются довольно
>> > интенсивно между собой xml запросами через HTTP POST. При этом
>> > возникает много установлений соединений и на это теряется
>> > время.. есть ли какое то решение, не затрагивающее сами системы
>> > и позволяющее созать постоянное (в идеале одно) соединение, по
>> > которому и гонялись бы данные? Это бы решило проблему
>> > производительности..
>>
>> В чём именно выражаются проблемы производительности?
>> Если не "допустим", то сколько систем коннектится и
>> каков характер линков до них?
>>
>> (не совсем, но) nginx уже прикручен как reverse proxy,
>> а то и с (включая автоугадав) php-cgi+eaccelerator?
> Хорошо. конкретизирую.
> Есть сайт на php он через curl обращается к другому сайту-ядру. На
> каждую отдачу страницы идет около 10-15 запросов к ядру. При
> тестировании производительности с помощью ab или siege всего 30
> запросов в сек. Обе системы (сайт и ядро) находятся на разных серверах.
> Причем сайт - на двух под nginx'ом. и ядро на 4х серверах за nginx.
> Севрера достаточно очень мощные, но и они не загружены при
> тестировании. Все в объединены Gigabit-Ethernet.
>
> При профилировании кода с помощью xDebug было выяснено, то большая
> часть времени уходит на вызовы к ядру через curl.
>
> Есть предложения?

использовать keep-alive?.. после чего отказаться от HTTP как транспорта...

PS: Я для подобных целей использую ZeroC Ice.


Подробная информация о списке рассылки Sysadmins