[sisyphus] bond + bridge
Вячеслав
slchess на gmail.com
Пн Фев 8 12:41:39 UTC 2010
On Monday 08 February 2010 13:50:07 Sergey Vlasov wrote:
> On Mon, Feb 08, 2010 at 11:14:13AM +0200, Вячеслав wrote:
> [...]
>
> > sh interfaces brief
> >
> > | Intrusion MDI Flow Bcast
> >
> > Port Type | Alert Enabled Status Mode Mode Ctrl
> > Limit ------- --------- + --------- ------- ------ ---------- ----- -----
> > ------ 7-Trk1 100/1000T | No Yes Up 1000FDx MDI off
> > 0 18-Trk1 100/1000T | No Yes Up 1000FDx MDIX off 0
>
> Почему на одном интерфейса MDI, на другом MDIX - какая-то путаница с
> кабелями?
Сам удивился но:
патч корды одинаковые по 2 Метра сетевые тоже, обе наборные
[ 10.982752] igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) xx:ec
[ 10.982829] igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff
[ 11.090803] igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) xx:ed
[ 11.090880] igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff
>
> > Теперь вопросы:
> > вроде все работает но увеличение скорости не заметно.
> > Даже если она не должна сумироватся, а распределятся между клиентами.
> >
> > Тестировал iperf
> > два клиента подкл. гигабитами замер на серевер с boond
> >
> > Если по одному
> > [ ID] Interval Transfer Bandwidth
> > [ 5] 0.0-10.0 sec 590 MBytes 495 Mbits/sec
> > [ 4] 0.0-10.0 sec 905 MBytes 758 Mbits/sec
>
> А почему результаты клиентов при работе по одному разные - это
> какая-то разница между клиентами, или тоже особенность, наблюдаемая
> только при работе через bond? Стоит сначала проверить связь просто по
> гигабитному интерфейсу без bond (причём по каждому из них).
Разные клиенты (два рядом стоящие сервака)
если с моей раб. станиции (подкл. по 1 Gb) то вообще выдает
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 1011 MBytes 848 Mbits/sec
>
> > Два одновременно
> > [ ID] Interval Transfer Bandwidth
> > [ 6] 0.0-10.0 sec 245 MBytes 206 Mbits/sec
> > [ 4] 0.0-10.0 sec 849 MBytes 711 Mbits/sec
> >
> > Теперь сервер без boond, на гигабите + два клиента по гигабиту
> >
> > [ ID] Interval Transfer Bandwidth
> > [ 4] 0.0-10.0 sec 567 MBytes 475 Mbits/sec
> > [ 5] 0.0-10.0 sec 521 MBytes 437 Mbits/sec
> >
> > т.е. както от boond не видно ни прироста ни расределения без падения
> > Может чтото не докрутил?
>
> Если передача потока данных шла от сервера к клиентам - возможно,
> хеширование по MAC+IP засунуло всё в один канал; наблюдать действие
> этого можно, если сменить у одного из клиентов младший бит IP-адреса и
> повторить тот же тест.
iperf как сервер запущен на сервере с boond т.е. от него к клиентам
>
> Если данные передавались от клиентов к серверу - проблема может быть
> та же, только настраивать политику балансировки нагрузки в этом
> направлении нужно уже со стороны коммутатора; конкретных команд
> настройки для ProCurve не знаю.
какой режим посоветуете для bond может вернутся к 0 (balance-rr)?
Подробная информация о списке рассылки Sisyphus