web-dev-qa-db-de.com

Warum verbessert das Bonden nicht die Netzwerkgeschwindigkeit?

Ich habe den folgenden Inhalt in /etc/network/interfaces auf einem meiner Server (sagen wir server1). Auf einem anderen Server (sagen Sie server2). Der Inhalt von /etc/network/interfaces ist ähnlich. Mit der Ausnahme, dass die Mac-Adressen entsprechend geändert werden und die IP-Adresse in 192.168.2.2 geändert wird. Ubuntu 13.10 ist auf beiden Servern installiert.

Aber wenn ich iperf -s auf Server1 und iperf -c 192.168.2.1 benutze, um die Geschwindigkeit zu testen. Ich erhalte nur eine Geschwindigkeit von ungefähr 10 Gbit/s (die Geschwindigkeit einer einzelnen Netzwerkkarte). Mein Switch ist als Layer 2-Switch konfiguriert. Weiß jemand, wie man die Geschwindigkeit durch Bonding auf 20 Gbit/s bringt? Vielen Dank.

auto em1
iface em1 inet manual
hwaddress ether c8:1f:66:e2:90:43
bond-master bond0

auto em2
iface em2 inet manual
hwaddress ether c8:1f:66:e2:90:45  
bond-master bond0

auto bond0
iface bond0 inet static
address 192.168.2.1
netmask 255.255.255.0
network 192.168.2.0
bond-mode 4
bond-miimon 100
bond-lacp-rate 1
bond-slaves em1 em2

Die Ausgabe von iperf ist wie folgt.

server2:~$ iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 192.168.2.2 port 5001 connected with 192.168.2.1 port 34014
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec  11.0 GBytes  9.41 Gbits/sec

server1:~$ iperf -c 192.168.2.2
------------------------------------------------------------
Client connecting to 192.168.2.2, TCP port 5001
TCP window size: 22.9 KByte (default)
------------------------------------------------------------
[  4] local 192.168.2.1 port 34014 connected with 192.168.2.2 port 5001
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec  11.0 GBytes  9.41 Gbits/sec

Ich habe auch versucht, den Modus auf balance-alb und balance-rr zu ändern. Aber sie führen auch nicht zu einer Leistungsverbesserung. Weiß jemand, um das Problem zu debuggen? Vielen Dank.

auto bond0
iface bond0 inet static
address 192.168.2.1
netmask 255.255.255.0
network 192.168.2.0
#bond-mode balance-rr
bond-mode balance-alb
bond-miimon 100
bond-slaves em1 em2
7
user1424739

Um die Übertragungsbandbreite von ~ 20 Gbit/s mit LACP-Bonding (Modus 4) zu erreichen, muss der Server mit mehr als einem Client verbunden werden. Die maximale Übertragungsgeschwindigkeit eines Clients ist auf die Geschwindigkeit eines einzelnen Kanals begrenzt (max. 10 Gbit/s/Client im obiger Fall). LACP "Erhöht nicht die Bandbreite für eine einzelne Konversation"; LACP "Erzielt eine hohe Auslastung nur, wenn mehrere Gespräche gleichzeitig geführt werden", wie auf Folie 7 der Präsentation der Gurus zu sehen: http://www.ieee802.org/3/hssg/public/apr07/frazier_01_0407.pdf und die gleiche Frage hier: https://serverfault.com/questions/569060/link-aggregation-lacp-802-3ad-max-throughput/569125#569125

2
Steve Baroti

mit ifenslave können Slave-Netzwerkschnittstellen an ein Bonding-Gerät angeschlossen und von diesem getrennt werden.

So installieren Sie es:

Für Ubuntu 12.04 und früher

Sudo apt-get install ifenslave

So konfigurieren Sie es:

Dieser Link wird Ihnen helfen: Link

Beachten Sie, dass für einige Bonding-Modi eine spezielle Switch-Unterstützung erforderlich ist.

0
nux