Zwei Linux Server - NIC Bonding

  • Thread starter Thread starter Deleted member 11691
  • Start date Start date
D

Deleted member 11691

Guest
Hallo,

ich möchte zwei Linux Server mit ca. 4-5Gbit zusammenhängen. Das ganze soll über jeweils 4-5 Netzwerkkarten pro Server gehen. Wir haben hier 20 Intel Netzwerkkarten rumliegen, welche dasselbe Modell sind.

Die einzigen zwei Fragen die ich mir bzw. euch stelle: Ist es möglich, das ganze mit Bonding zu betreiben? Also dass Paket 1, Byte 1 oder Bit 1 über die NIC 1 geht, Paket/Byte/Bit 2 über NIC 2, das 3. über NIC 3, das 4. über NIC 4 und dann das 5. über NIC 1 usw.? Wie funktioniert das und welche Einstellungen muss ich da vornehmen?

Die Server sind mit Patchkabel miteinander verbunden.
 
@vb-server: Danke, damit hast Du mich auf den richtigen Weg gebracht.
@virtual2: Nee, leider nicht. Habe vergessen zu erwähnen, dass beides Debian Squeeze 6.0.6 Kisten mit Proxmox VE 2.2 drauf sind. Danke trotzdem für den Hinweis auf die TK-Seite, dort habe ich dank Dir auch eine Erklärung zu LACP gefunden.
/Edit: Habe ich übersehen in Deinem Link: Anleitung für Suse und Debian Distributionen
/Edit-2: Der Link bringt mich aber anscheinend auch nicht weiter :D Werde das ganze aber 'mal testen.
 
Last edited by a moderator:
Kleiner Tipp aus der Praxis: erwarte bei 5 Netzwerkkarten nicht die 5-fache Performance.

Je nach Anwendung skaliert das Ethernet-Bonding nicht so gut, jedenfalls wenn es z.B. um einen einzelnen TCP-Stream handelt (etwa DRBD).

Wenn die Server dicht beieinander stehen käme evtl. eine Infiniband-Direktverbindung zwischen den zwei Knoten in Frage, gute gebraucht-Hardware findet man im Auktionshaus der Wahl für kleines Geld.

schöne Grüße,
Nils
 
Kannst die Netzwerkkarten der Server direkt miteinander (ohne Switch) verbinden. Sofern die Karten 'Auto MDI-X' unterstützen, was bei GBit-Netzwerkkarten Standard ist, brauchst du auch kein Crossover-Kabel. Die Konfiguration unter Linux ist recht einfach. Bei drei Gibt-Karten (eine jeweils Onboard und zwei PCI) konnte ich von Ram zu Ram mit 276MiB/s kopieren.

Was sind denn das für Netzwerkkarten? Schreib mal den Typ auf.
 
Wird da in diesen Gedankenspielen nicht auch ziemlich schnell die maximale Bandbreite des PCI-Busses der limitierende Faktor?
 
Code:
03:00.0 Ethernet controller: Intel Corporation 82574L Gigabit Network Connection
 
Wird da in diesen Gedankenspielen nicht auch ziemlich schnell die maximale Bandbreite des PCI-Busses der limitierende Faktor?


Klar, den hab ich bei meinem Test überschritten, was aber eher an der Onboard-NIC lag, die wahrscheinlich über PCIe angebunden ist. Die anderen beiden waren PCI-Karten. Kannst ja selbst ausrechnen:

Busbreite x Taktfrequenz = Datendurchsatz
PCI ist 32 Bit breit und wird mit 33 MHz getaktet. Das wären so 120 MiB/s für den gesamten Bus. Serverboards gab/gibt es auch 66MHz PCI-Bus. Ob es auch einen 64-Bit PCI Bus gibt, entzieht sich meiner Kenntnis. Seit PCIe muss man sich darüber aber nicht mehr so viele Gedanken machen.

Da PCFreund PCIe-NICs einsetzt, wird dann eher das Raid der limitierende Faktor sein.
 
Um das einseitige RAID, welches auf beiden Servern gleich ist, geht es mir garnicht, da da dann eh ein Raid 0 hineinkommt und das Rid 1 übers Netzwerk und eben das Bonding geht. Findet ihr das klug?
 
Kommt auf das Setup an.
Ich persönlich bin nie ein Freund davon, bei einem Ausfall einer Platte direkt das System jedesmal neu hochziehen oder ein Backup wiederherstellen zu müssen.
Auch wenn es ein HA-Cluster ist.

Festplatten sind nun mal auch sehr schnell der Definition von Verbrauchsgütern näher als der von Gebrauchsgütern. :p
 
Back
Top