[sisyphus] bond + bridge
Вячеслав
slchess на gmail.com
Пн Фев 8 09:14:13 UTC 2010
On Friday 05 February 2010 17:43:15 Sergey Vlasov wrote:
> On Fri, Feb 05, 2010 at 03:52:43PM +0200, Вячеслав wrote:
> > > > bond0: received packet with own address as source address
> > >
> > > А какой именно режим используется для bond0, и как настроен
> > > коммутатор, в который включены соответствующие кабели?
> > >
> > > mode=5 и mode=6 точно не работают совместно с bridge; mode=4 (802.3ad)
> > > работает, но требует соответствующей настройки и со стороны
> > > коммутатора.
> >
> > `cat options`
> > TYPE=bond
> > HOST='eth0 eth1'
> > BONDOPTIONS="mode=0 miimon=100"
> > DISABLED=no
> > BOOTPROTO=static
> > NM_CONTROLLED=no
> > ONBOOT=yes
>
> mode=0 требует настройки статического агрегирования на коммутаторе без
> использования протокола LACP; без этой настройки будут как раз такие
> ошибки (пакеты, переданные в один из портов, будут возвращаться назад
> через другой).
Спасибо за развернутый ответ.
Вроде получилось, вот только не знаю как протестировать. ;(
SERVER
cat /proc/net/bonding/bond0
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: fast
Active Aggregator Info:
Aggregator ID: 2
Number of ports: 2
Actor Key: 17
Partner Key: 52
Partner Mac Address: xx:xx:xx:xx:xx:80 (МАК свича)
Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:ec
Aggregator ID: 2
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:ed
Aggregator ID: 2
cat /etc/net/ifaces/bond0/options
TYPE=bond
HOST='eth0 eth1'
BONDOPTIONS="mode=4 miimon=100 xmit_hash_policy=1 lacp_rate=fast"
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes
cat /etc/net/ifaces/breth0/options
TYPE=bri
HOST='bond0'
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes
route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
10.1.0.0 0.0.0.0 255.255.255.224 U 0 0 0 breth0
0.0.0.0 10.1.0.1 0.0.0.0 UG 0 0 0 breth0
Свич hp procurve 3400cl
trunk 7,18 Trk1 LACP
7,18 порты сервера
vlan 2
name "SERVER"
untagged 1,5,Trk1
ip address 10.1.0.1 255.255.255.224
ip helper-address 10.1.0.2
ip forward-protocol udp 10.1.0.6 netbios-ns
ip forward-protocol udp 10.1.0.6 netbios-dgm
exit
sh trunks
Load Balancing
Port | Name Type | Group Type
---- + -------------------------------- --------- + ----- -----
7 | srv_bond_a 100/1000T | Trk1 LACP
18 | srv_bond_b 100/1000T | Trk1 LACP
sh lacp
LACP
PORT LACP TRUNK PORT LACP LACP
NUMB ENABLED GROUP STATUS PARTNER STATUS
---- ------- ------- ------- ------- -------
7 Active Trk1 Up Yes Success
18 Active Trk1 Up Yes Success
sh interfaces brief
| Intrusion MDI Flow Bcast
Port Type | Alert Enabled Status Mode Mode Ctrl Limit
------- --------- + --------- ------- ------ ---------- ----- ----- ------
7-Trk1 100/1000T | No Yes Up 1000FDx MDI off 0
18-Trk1 100/1000T | No Yes Up 1000FDx MDIX off 0
Теперь вопросы:
вроде все работает но увеличение скорости не заметно.
Даже если она не должна сумироватся, а распределятся между клиентами.
Тестировал iperf
два клиента подкл. гигабитами замер на серевер с boond
Если по одному
[ ID] Interval Transfer Bandwidth
[ 5] 0.0-10.0 sec 590 MBytes 495 Mbits/sec
[ 4] 0.0-10.0 sec 905 MBytes 758 Mbits/sec
Два одновременно
[ ID] Interval Transfer Bandwidth
[ 6] 0.0-10.0 sec 245 MBytes 206 Mbits/sec
[ 4] 0.0-10.0 sec 849 MBytes 711 Mbits/sec
Теперь сервер без boond, на гигабите + два клиента по гигабиту
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-10.0 sec 567 MBytes 475 Mbits/sec
[ 5] 0.0-10.0 sec 521 MBytes 437 Mbits/sec
т.е. както от boond не видно ни прироста ни расределения без падения
Может чтото не докрутил?
Или другим софтом надо тестировать?
Подробная информация о списке рассылки Sisyphus