[sisyphus] bond + bridge

Вячеслав slchess на gmail.com
Пн Фев 8 09:14:13 UTC 2010


On Friday 05 February 2010 17:43:15 Sergey Vlasov wrote:
> On Fri, Feb 05, 2010 at 03:52:43PM +0200, Вячеслав wrote:
> > > > bond0: received packet with  own address as source address
> > >
> > > А какой именно режим используется для bond0, и как настроен
> > > коммутатор, в который включены соответствующие кабели?
> > >
> > > mode=5 и mode=6 точно не работают совместно с bridge; mode=4 (802.3ad)
> > > работает, но требует соответствующей настройки и со стороны
> > > коммутатора.
> >
> > `cat options`
> > TYPE=bond
> > HOST='eth0 eth1'
> > BONDOPTIONS="mode=0 miimon=100"
> > DISABLED=no
> > BOOTPROTO=static
> > NM_CONTROLLED=no
> > ONBOOT=yes
>
> mode=0 требует настройки статического агрегирования на коммутаторе без
> использования протокола LACP; без этой настройки будут как раз такие
> ошибки (пакеты, переданные в один из портов, будут возвращаться назад
> через другой).

Спасибо за развернутый ответ.

Вроде получилось, вот только не знаю как протестировать. ;(

SERVER

cat /proc/net/bonding/bond0

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: fast
Active Aggregator Info:
        Aggregator ID: 2
        Number of ports: 2
        Actor Key: 17
        Partner Key: 52
        Partner Mac Address: xx:xx:xx:xx:xx:80  (МАК свича)

Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:ec
Aggregator ID: 2

Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:ed
Aggregator ID: 2

cat /etc/net/ifaces/bond0/options
TYPE=bond
HOST='eth0 eth1'
BONDOPTIONS="mode=4 miimon=100 xmit_hash_policy=1 lacp_rate=fast"
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes

cat /etc/net/ifaces/breth0/options
TYPE=bri
HOST='bond0'
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes

route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
10.1.0.0        0.0.0.0         255.255.255.224 U     0      0        0 breth0
0.0.0.0         10.1.0.1        0.0.0.0         UG    0      0        0 breth0

Свич hp procurve 3400cl

trunk 7,18 Trk1 LACP

7,18 порты сервера

vlan 2
   name "SERVER"
   untagged 1,5,Trk1
   ip address 10.1.0.1 255.255.255.224
   ip helper-address 10.1.0.2
   ip forward-protocol udp 10.1.0.6 netbios-ns
   ip forward-protocol udp 10.1.0.6 netbios-dgm
   exit

sh trunks
 Load Balancing

  Port | Name                             Type      | Group Type
  ---- + -------------------------------- --------- + ----- -----
  7    | srv_bond_a               100/1000T | Trk1  LACP
  18   | srv_bond_b               100/1000T | Trk1  LACP

sh lacp
                           LACP

   PORT   LACP      TRUNK     PORT      LACP      LACP
   NUMB   ENABLED   GROUP     STATUS    PARTNER   STATUS
   ----   -------   -------   -------   -------   -------
   7      Active    Trk1      Up        Yes       Success
   18     Active    Trk1      Up        Yes       Success

sh interfaces brief
                  | Intrusion                           MDI   Flow  Bcast
  Port    Type      | Alert     Enabled Status Mode       Mode  Ctrl  Limit
  ------- --------- + --------- ------- ------ ---------- ----- ----- ------
7-Trk1  100/1000T | No        Yes     Up     1000FDx    MDI   off   0
18-Trk1 100/1000T | No        Yes     Up     1000FDx    MDIX  off   0

Теперь вопросы:
вроде все работает но увеличение скорости не заметно.
Даже если она не должна сумироватся, а распределятся между клиентами.

Тестировал iperf
два клиента подкл. гигабитами замер на серевер с boond

Если по одному
[ ID] Interval       Transfer     Bandwidth
[  5]  0.0-10.0 sec    590 MBytes    495 Mbits/sec
[  4]  0.0-10.0 sec    905 MBytes    758 Mbits/sec

Два одновременно
[ ID] Interval       Transfer     Bandwidth
[  6]  0.0-10.0 sec    245 MBytes    206 Mbits/sec
[  4]  0.0-10.0 sec    849 MBytes    711 Mbits/sec

Теперь сервер без boond, на гигабите + два клиента по гигабиту

[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec    567 MBytes    475 Mbits/sec
[  5]  0.0-10.0 sec    521 MBytes    437 Mbits/sec

т.е. както от boond не видно ни прироста ни расределения без падения
Может чтото не докрутил?

Или другим софтом надо тестировать?


Подробная информация о списке рассылки Sisyphus