Server Verbinden Switch usw

Amaya

New Member
Hallo, wie ist der normale Regelfall einer Serververkabelung?

Inte > Switch > Rootserver?
Inet > Patchfield > Switch > Rootserver?

Und wie muss ich es regeln wenn ich pro Server 100 MBit haben möchte in meinem Rack? Ist das dann 1 GBIT Switch = 10 Server?

mfg
 
Inet -> Router -> Switch -> (Patchfeld) -> Server

Das Patchfeld ist ja kein aktives Bauteil, sondern dient quasi nur der Zusammenführung der einzelnen Leitungen. Wenn du die komplette Hardware in einem Rack hast, dann brauchst du prinzipiell kein Patchfeld. Dann steckst du die einzelnen Server direkt an den Switch.

Was heißt 100Mbit pro Server? Interne Bandbreite oder Anbindung ans Internet? Wenn jeder Server 100Mbit Bandbreite ans Internet haben soll, dann brauchst du natürlich mind. 1Gbit am Backbone. Ich würde aber auch einen Switch mit Gbit-Ports nehmen. Die kosten fast nichts mehr.
 
Ob du ein Patchfeld haben willst oder nicht ist Geschmackssache. Natürlich sieht es ordentlicher aus, aber du machst dir dadurch mehr Aufwand.
Und bis 42HE ist der Vorteil der besseren Ordnung auch sehr überschaubar. Man kann mit Kabelbinder und vernünftigen Kabelführungen die Gleiche Ordnung erzeugen... Wie dich dein Hoster dann an seine Technik anschließt, kann nur er dir beantworten.
Du hast aber ein (teures!) Gerät vergessen, falls dein Hoster dir dies nicht anbietet:

Inet -> Router -> Switch -> Server

Wegen der Bandbreite:
Schieben die Server dauerhaft 100 MBit/s? Wenn ja, solltest du den Switch per Glasfaser an den Router anschließen. Dann hast du bei den "kleineren" Modulen zwar auch nur 1GBit/s, aber über Glas hast du i.d.R. höhere Paketraten und damit etwas mehr Geschwindigkeit.
Ansonsten kannst du auch einen 100MBit/s-Uplink verwenden, wenn alle Server zusammen nur gelegentlich etwas über 100MBit/s schieben.

Falls du noch mehr Bandbreite brauchst kann man bei vielen Switches die LWL-Module zu einem Trunk zusammenschließen und somit die Bandbreite addieren - aber dafür muss die Gegenstelle (also Router des Hosters) ebenfalls konfiguriert sein.
 
Last edited by a moderator:
Hey,

Wenn wir schon eine Ordentliche Auflistung machen kann man noch ein Usv-System hinzufügen.

Grüße Kingme
 
Die USV stellt aber normalerweise das RZ zur Verfügung. Also soweit ich weiss ^^

Normalerweise. Selbst wenn, würde ich mich darauf nicht verlassen wollen.
Erst letzte Woche Dienstag ist der Strom bei einem der größten Colocator in Frankfurt ausgefallen.
Ob deren USV-Systeme auch nicht funktioniert haben weiß ich nicht, die selber mitgebrache USV hat jedenfalls Alarm gegeben und die Systeme sauber runtergefahren als es eng wurde. Und laut USV-Log ist der Strom erst nach ~20 Minuten wiedergekommen - da hätte der Diesel schon lange übernehmen sollen...
 
In einem eigenen Rack kann es sinnvoll sein, die Server nicht nur über den Switch des Providers zu verbinden, sondern auch noch intern über ein 2. Netzwerkinterface und einen eigenen Switch. Damit ist man ein Stück weit unabhängig von dessen Infrastruktur.

Die 100MBit/s-Limitierung kann man bei besseren Switchen durch Traffic-Shaping/QoS lösen, im einfachsten Fall nimmst Du einfach einen Switch mit 100er Ports für die Server und (ggf. auch mehrere gebündelt) Gigabit für den Uplink.
Auf die Backplane-Geschwindigkeit achten, billige Switche können hier u.U. nicht alle Ports gleichzeitig sättigen.
Falls mit dem Provider eine Traffic-Volumenvereinbarung existiert, sollte der Switch sFlow zum "Nachzählen" unterstützen.
Wenn ja, solltest du den Switch per Glasfaser an den Router anschließen. Dann hast du bei den "kleineren" Modulen zwar auch nur 1GBit/s, aber über Glas hast du i.d.R. höhere Paketraten und damit etwas mehr Geschwindigkeit.
Kannst Du das bitte mal kurz erklären?
Nach meinem Verständnis können sowohl Kupfer- als auch Glasfaser-Gigabit-Ethernet 125 MByte/s full-duplex transportieren.
Flow-Control und Jumbo Packets setzen im Schichtenmodell erst oberhalb des Physical Layer an und gehen prinzipiell bei beiden.

Zum Thema USV hat Google mal eine Studie gemacht, ein eigener Akku pro Serverknoten ist dort wohl üblich.
 
Kannst Du das bitte mal kurz erklären?
Nach meinem Verständnis können sowohl Kupfer- als auch Glasfaser-Gigabit-Ethernet 125 MByte/s full-duplex transportieren.
Flow-Control und Jumbo Packets setzen im Schichtenmodell erst oberhalb des Physical Layer an und gehen prinzipiell bei beiden.

Ich habe die Erfahrung gemacht, dass bei hoher Paketrate (z.B. 60 MBit/s mit 180.000 Paketen pro Sekunde) die Kupferleitung praktisch dicht ist, aber 1000 MBit/s mit 130.000 Pakete/s problemlos machbar sind.
Über Glasfaser waren bisher problemlos teilweise über 500.000 Pakete/s möglich.
Warum das so ist weiß ich nicht, entweder ist der Kupferport an dem Router - nur ein "kleiner" Cisco - damit schon ausgelastet gewesen oder es liegt an physikalischen Eigenschaften der Kupferkabel (in unserem Fall Cat.6, ca. 25m lang).
Ich kann es wie gesagt nicht wirklich eingrenzen, aber wir hatten tatsächlich Probleme mit VoIP-Datenströmen die zwar vergleichsweise wenig Bandbreite aber dafür hohe Paketraten verursachen.
Obwohl da nur 50-60 MBit/s übertragen wurden, stiegen die Latenzzeiten um teilweise 10ms an und auch anderen Datenübertragungen liefen unglaublich träge - so als wenn die Leitung überlastet wäre.
Das Kabel schien auch nicht defekt zu sein, zumindest hatten wir weniger als 0.0001 Promille verlorene oder kaputte Pakete.
 
Das kann auch mit der internen Struktur der Switche zusammenhängen.

Die im Mittelklasse-Bereich üblicherweise verbauten Broadcom-Teile haben für die Kupferports üblicherweise einen Interface-Chip, der 8xGigabit auf die interne Backplane-Fabric schaltet, bei den "dual personality" sind es nur 4.
VoIP kann und sollte man eigentlich priorisieren, entweder per Tag oder über ein eigenes VLAN.
Bei "unseren" Switchen (HP Procurve) bekommen sie da sogar in HW eine eigene Warteschlange abseits des sonstigen Traffic.

In Praxi habe ich sowohl über Kupfer (Testfall: VM mit extern über NFS angebundenen Storage) als auch über Glas (Testfall: zwei Clusternodes mit Glas-Crossover-Kabel, die per DRBD den Storage synchronisieren) über 95% Auslastung ohne Paketverlust (die Zähler bei ipconfig) gesehen.
 
Back
Top