[sisyphus] bond + bridge

Вячеслав slchess на gmail.com
Пн Фев 8 12:41:39 UTC 2010


On Monday 08 February 2010 13:50:07 Sergey Vlasov wrote:
> On Mon, Feb 08, 2010 at 11:14:13AM +0200, Вячеслав wrote:
> [...]
>
> > sh interfaces brief
> >
> >                   | Intrusion                           MDI   Flow  Bcast
> >
> >   Port    Type      | Alert     Enabled Status Mode       Mode  Ctrl 
> > Limit ------- --------- + --------- ------- ------ ---------- ----- -----
> > ------ 7-Trk1  100/1000T | No        Yes     Up     1000FDx    MDI   off 
> >  0 18-Trk1 100/1000T | No        Yes     Up     1000FDx    MDIX  off   0
>
> Почему на одном интерфейса MDI, на другом MDIX - какая-то путаница с
> кабелями?
Сам удивился но:
патч корды одинаковые по 2 Метра сетевые тоже, обе наборные
[   10.982752] igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) xx:ec
[   10.982829] igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff
[   11.090803] igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) xx:ed
[   11.090880] igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff

>
> > Теперь вопросы:
> > вроде все работает но увеличение скорости не заметно.
> > Даже если она не должна сумироватся, а распределятся между клиентами.
> >
> > Тестировал iperf
> > два клиента подкл. гигабитами замер на серевер с boond
> >
> > Если по одному
> > [ ID] Interval       Transfer     Bandwidth
> > [  5]  0.0-10.0 sec    590 MBytes    495 Mbits/sec
> > [  4]  0.0-10.0 sec    905 MBytes    758 Mbits/sec
>
> А почему результаты клиентов при работе по одному разные - это
> какая-то разница между клиентами, или тоже особенность, наблюдаемая
> только при работе через bond?  Стоит сначала проверить связь просто по
> гигабитному интерфейсу без bond (причём по каждому из них).
Разные клиенты (два рядом стоящие сервака)
если с моей раб. станиции (подкл. по 1 Gb) то вообще выдает
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  1011 MBytes    848 Mbits/sec

>
> > Два одновременно
> > [ ID] Interval       Transfer     Bandwidth
> > [  6]  0.0-10.0 sec    245 MBytes    206 Mbits/sec
> > [  4]  0.0-10.0 sec    849 MBytes    711 Mbits/sec
> >
> > Теперь сервер без boond, на гигабите + два клиента по гигабиту
> >
> > [ ID] Interval       Transfer     Bandwidth
> > [  4]  0.0-10.0 sec    567 MBytes    475 Mbits/sec
> > [  5]  0.0-10.0 sec    521 MBytes    437 Mbits/sec
> >
> > т.е. както от boond не видно ни прироста ни расределения без падения
> > Может чтото не докрутил?
>
> Если передача потока данных шла от сервера к клиентам - возможно,
> хеширование по MAC+IP засунуло всё в один канал; наблюдать действие
> этого можно, если сменить у одного из клиентов младший бит IP-адреса и
> повторить тот же тест.
iperf как сервер запущен на сервере с boond т.е. от него к клиентам
>
> Если данные передавались от клиентов к серверу - проблема может быть
> та же, только настраивать политику балансировки нагрузки в этом
> направлении нужно уже со стороны коммутатора; конкретных команд
> настройки для ProCurve не знаю.
какой режим посоветуете для bond может вернутся к 0  (balance-rr)?


Подробная информация о списке рассылки Sisyphus