vServer/Cloud mit hoher Bandbreite für Stoßzeiten

Monocle

New Member
Seit ein paar Tagen frage ich mich, welche Möglichkeiten es gibt, hohen Traffic in Spitzenzeiten bewältigen zu können, ohne dass der Server in die Knie geht.
VServer und Root Server haben meist eine Anbindung von 100MBit/s (bzw. 1Gbit/s). Damit können nur etwa 500 Peeks in der Sekunde abgearbeitet werden. Oder ein deutlicheres Beispiel: Ein paralleler Abruf eines HD-Videos von 10 Clients würde bereits zu einer Überschreitung der 100Mbit/s führen und den Server überlasten.

Selbst bekannte Server-Provider garantieren bei ihren Cloud-Lösungen mit hintergeschalteten Lattenverteilern lediglich genannte Bandbreiten.
Ideen, wie dieses Problem gelöst werden kann oder welche Provider Lösungen anbieten? Die Philosophie und Flexibilität von Server-Clounds, schnell auf gestiegene Anforderungen reagieren zu können, fand ich bisher eigentlich ganz gut.

Oder aber ich habe gerade einfach nur eine Blockade in meinen Gedanken. Aber ich lerne gerne gerne dazu.
 
VServer und Root Server haben meist eine Anbindung von 100MBit/s (bzw. 1Gbit/s). Damit können nur etwa 500 Peeks in der Sekunde abgearbeitet werden. Oder ein deutlicheres Beispiel: Ein paralleler Abruf eines HD-Videos von 10 Clients würde bereits zu einer Überschreitung der 100Mbit/s führen und den Server überlasten.

Nein, in dem Fall würden sich alle User 100 Mbit/s teilen, daher würde die Downloadrate nur geringer werden, aber kein User würde kein Video laden können. Auch ist das abhängig von der Bandbreite der jeweiligen Nutzer und von möglichen Drosselungen auf DSL Anbieterseite. Also pauschal kann man das so nicht sagen. Ebenso ist entscheidend, welche Bandbreite überhaupt für die Übertragung eines Videos in HD Qualität benötigt wird, um dieses noch flüssig darstellen zu können.

Laut https://de.wikipedia.org/wiki/Datenübertragungsrate wären das in etwa 6-18 Mbit/s. also 15-18 User gleichzeitig und erst dann würde es ggf. zu Beeinträchtigungen der Ladezeit kommen.

Wenn du ein Videoportal planst, würde hier natürlich, je nach Userzahlt, 10 Gigabit/s oder mehr sinn machen. Das ist technisch rechenzentrumseitig problemlos realisierbar und wäre eigentlich für das, was du vor hast die richtige Wahl. Mit einem V-Server oder einer "cloud" wirst du hier aber nicht weiterkommen, gerade wenn du viel Bandbreite brauchst. Solche Lösungen sind eher für Webhosting oder kleinere Anforderungen geeignet die möglicherweise kurzzeitig mehr Systemleistung benötigen, nicht aber für große Loadbalancing Szenarien oder Videoportale :)
 
Guten Abend,

Mit einem V-Server oder einer "cloud" wirst du hier aber nicht weiterkommen, gerade wenn du viel Bandbreite brauchst.

ein vServer hat je nach Anbieter eine bessere Anbindung wie ein dedizierter Server. Warum sollte man damit also nicht weiterkommen? Einige Anbieter bieten garantierte Bandbreiten jenseits der 1 GBit/s für virtuelle Server an. Das ist in der regel sogar deutlich günstiger wie bei dedizierten Servern, da die Nodes der virtuellen Server häufig schon > 1 GBit/s Anbindung haben.


Mit freundlichen Grüßen

Felix Preuß
 
Aber eben nicht auf einem einzelnen Server ;)
Wer einen einzelnen Server für eine Cloud hält, dem kann nicht mehr geholfen werden. :p

Bei Stoßzeiten und Lastspitzen muss ich allerdings automatisch an AWS denken. Die haben auch alle möglichen Services für Video-Streaming und -Transcoding, so dass man das nicht mal auf eigenen Compute-Ressourcen fahren muss. Und die Services haben dann auch mehr als Genug Bandbreite, um mit den Stoßzeiten (ich weiß ja nicht, was der TE für Inhalte im Sinn hat... ;)) fertig zu werden.
 
Last edited by a moderator:
Netflix läuft z.B. übrigens komplett auf virtualisierter Hardware in der "Cloud".

Unter dem Begriff "Cloud" kann man alles und nichts verstehen. Die pauschale Aussage - Netflix läuft in einer Cloud - ist daher etwas ... Netflix wird sich sicher Gedanken gemacht haben, wie deren Datencluster strukturiert ist um auch bei großer Besuchermenge eine gute Performance liefern zu können. Diese werden aber nicht auf einer virtuellen Maschine alles laufen lassen die sie über einen Schaltregler mit mehr RAM versorgen :)
 
Diese werden aber nicht auf einer virtuellen Maschine alles laufen lassen die sie über einen Schaltregler mit mehr RAM versorgen
In begrenztem Sinne doch; Netflix nutzt AWS. Mehr Benutzer bedeutet also mehr Compute-Einheiten hochfahren. Klar es ist nicht ganz so einfach aber der Grundgedanke der Parallelisierung / Vergrösserung ist der Gleiche :D
 
Guten Morgen,


jedes mir bekannte große Internetprojekt nutzt eine Virtualisierungsschicht zwecks Skalierung und zur Erhöhung der Ausfallsicherheit. Einzelne dedizierte Server sind von sich aus nur so lange skalierbar, bis alle DIMMs und CPU-Sockel aufgebraucht sind. Fällt der einzelne Server aus, wäre alles offline.

Kunden die dedizierte Server mieten virtualisieren in der Regel selbst oder betreiben mit einem dedizierten Server ein Projekt das nicht skalieren können muss und das auch einmal offline sein darf. Ich persönlich halte dedizierte Server als Mietobjekt langfristig gesehen für ein Auslaufmodell. Warum so kompliziert wenn es besser und kostengünstiger geht?

Von einigen wenigen großen Anbietern werden virtuelle Server stark begrenzt, per Containervirtualisierung und mit vielen Limits angeboten. Das diese nicht einen dedizierten Server ersetzen können, ist verständlich. Geht man zu der Premium-Marke eines dieser Anbieter, werden hier vernünftige virtuelle Server beworben. Diese nutzen dann auch Internetprojekte die wirklich auf Gewinn und viele Besucher aus sind.

Eine erfolgreiche Woche!


Gruß Felix
 
jedes mir bekannte große Internetprojekt nutzt eine Virtualisierungsschicht zwecks Skalierung und zur Erhöhung der Ausfallsicherheit. Einzelne dedizierte Server sind von sich aus nur so lange skalierbar, bis alle DIMMs und CPU-Sockel aufgebraucht sind. Fällt der einzelne Server aus, wäre alles offline.

Das ist schon richtig. Aber auf einer VM läuft nicht alles. Man teilt Services in Loadbalancer, ... Die eine Riesen VM in einer riesigen Clusterumgebung gibt es nicht. In allen mir bekannten Fällen gibt es eine Vielzahl unterschiedlicher Instanzen verteilt auf einer Vielzahl von Servern. Denn letztlich laufen die Daten immer auf Hardware und nicht auf einer plüscheligen Wolke und die Ressourcen von Hardware sind nuneinmal endlich.

Ich persönlich halte dedizierte Server als Mietobjekt langfristig gesehen für ein Auslaufmodell. Warum so kompliziert wenn es besser und kostengünstiger geht?

Der These kann ich persönlich nicht beipflichten. Beim letzten Hosting Summit in Frankfurt wurde ebenfalls festgestellt, dass eine Vielzahl der Unternehmen wieder weg gehen von Virtualisierung auf dedicated Hardware. Das im wesentlichen aufgrund von Performance und Abgrenzung zu anderen Kunden. Viele anbieter überbuchen die virtualisierten Hostsysteme aufgrund des großen Preiskampfes derart, dass die Leistung der einzelnen virtuellen Instanz einem dedicated Server in vielerlei Hinsicht nachsteht. Virtualisierung ist ja im wesentlichen auch keine Neuheit am Markt, nur dass man es Heute überall als "Cloud" bezeichnet, was aber nichts anderes ist als eine dynamische virtuelle Maschinen, zumindest bei 90 % der Anbieter.

Von einigen wenigen großen Anbietern werden virtuelle Server stark begrenzt, per Containervirtualisierung und mit vielen Limits angeboten. Das diese nicht einen dedizierten Server ersetzen können, ist verständlich. Geht man zu der Premium-Marke eines dieser Anbieter, werden hier vernünftige virtuelle Server beworben. Diese nutzen dann auch Internetprojekte die wirklich auf Gewinn und viele Besucher aus sind.

Der Preisunterschied eines eigenen Dedicated Servers und einem "Premium V-Server" wird aber dann sehr schnell sehr überschaubar. Man erhält ja auch bei diesen Anbietern nicht eine virtuelle Instanz dediziert auf einem Rootserver sondern man teilt sich mit anderen Kunden Storagekapazitäten, Bandbreite, Hardwareleistung, ... Wenn es sich um hochverfügbare virtuelle Maschinen handelt muss man die Daten immer über das Netzwerk auf die Storages verteilen was wiederrum zu Engpässen führen kann. Letztlich wird man auch bei "Premium" Anbietern nicht von den Umwelteinflüssen anderer Kunden unbeeinflusst bleiben.
 
Denn letztlich laufen die Daten immer auf Hardware und nicht auf einer plüscheligen Wolke und die Ressourcen von Hardware sind nuneinmal endlich.

Das sollte denke ich klar sein. Mir geht es darum aufzuzeigen, dass virtuelle Server in der Regel und wenn man es vernünftig tut leistungsstärker und ausfallsicherer sind als dedizierte Server, da diese nicht von einem einzigen dedizierten Server abhängig sind. Das haben sogar die Hersteller von dedizierten Servern erkannt und sie investieren daher kräftig in Projekte wie z.B. OpenStack (unter anderem DELL und HP). Bei virtuellen Servern muss der Endkunde sich am Ende nicht um Loadbalancer etc. kümmern, wie es vor ein paar Jahren noch für dedizierte Server erforderlich war. So etwas erledigt heutzutage eine Gesamtlösung und der Kunde muss nur wissen welche Ressourcen er benötigt. Es geht sogar dahin, dass Ressourcen vollautomatisch skaliert und in der Region bereitgestellt werden wo sie benötigt werden. Ein dedizierter Server kann nicht mal eben bei Bedarf von Frankfurt nach Hongkong umgezogen werden, oder? So etwas ist langsam aber sicher Geschichte und nicht mehr effektiv ;-)
 
Last edited by a moderator:
So etwas erledigt heutzutage eine Gesamtlösung und der Kunde muss nur wissen welche Ressourcen er benötigt. Es geht sogar dahin, dass Ressourcen vollautomatisch skaliert und in der Region bereitgestellt werden wo sie benötigt werden. Ein dedizierter Server kann nicht mal eben bei Bedarf von Frankfurt nach Hongkong umgezogen werden, oder? So etwas ist langsam aber sicher Geschichte und nicht mehr Effektiv ;-)

Die Frage ist, wie oft kommt es vor, dass eine VM von Frankfurt nach HongKong umgezogen wird. Welche Kunden brauchen das? Und hier würden noch andere Faktoren eine Rolle spielen. Hat der Anbieter in HongKong auch ein Rechenzentrum / daraus resultiert, kann ich die IP-Adresse mitnehmen? Ist es die Selbe Virtualisierungstechnik? ... Die Anbieter, wo ein RZ übergreifender Umzug einer virtuellen Instanz instant möglich ist kann man an einer Hand abzählen. Wenn ein Anbieterwechsel damit verbunden ist, muss man meist auch die Virtualisierungsvariante wechseln oder eine Migration des Containers anstoßen z.B. von Xen auf HyberV, oder von ESXi auf HyperV, ... Grundsätzlich verstehe ich aber schon, was du meinst, in den meisten Fällen ist das Verkaufsargument Virtualisierung und flexibel von Anbieter A zu B ... umziehen aber quasi nicht vorhanden, dafür müsste jeder Anbieter die Selbe Technologie einsetzen um dies schnell und einfach zu bewerkstelligen. Mal sehen ob ich es zum WHD dieses Jahr endlisch schaffe, dann können wir das bei einem Bier ausdisskutieren :)

Ein weiteres Problem bei solchen "hochverfügbaren" Lösung ist, ich hebe zwar die Anwendung auf eine andere Abstraktionsebene, füge aber weitere Nadelöhre und Ausfallrisiken hinzu. Loadbalancer können Software Defekte haben (bei uns schon 3x vorgekommen), Firewalls können überlastet sein, Storages können Ihr Filesystem Read Only schalten wenn eine Festplatte defekt ist, ... Wenn ich also einen Kunden habe, der auf eine hohe Verfügbarkeit wert legt, allerdings keine Lastverteilung auf andere Server benötigt, fährt dieser in der Regel mit einer dedicated Maschine mit redundanten Netzteilen und einer redundanten Netzwerkanbindung besser, was die Verfügbarkeit angeht. Wir hatten bis vor Kurzem eine Sun Fire im Einsatz die 5 Jahre ohne Defekt einwandfrei durchlief :) Leider haben mit der Zeit die Stromkosten überhand genommen.
 
Back
Top