Hallo zusammen,
ich überschütte Euch mal wieder mit Fragen und hoffe, daß ich ein paar Infos sammeln kann:
Da mein derzeitiger managed Server Ende des Jahres ausläuft, habe ich mich entschlossen, dann auf einen eigenen Server in einer Colocation umzusteigen. Ich habe mir also ein Testsystem zum Üben angeschafft und arbeite mich nun langsam in die Server-Administration unter Linux ein.
Der zukünftige Server:
Auf dem Server, der Ende des Jahres online gehen soll, wird folgendes laufen:
Debian, Apache, mod_ssl, Mysql, Perl, Php, Postfix, Vsftpd, Python, Qpopper, Bind 9, Webalizer, SpamAssassin, Openssh
Als Admin-Tool ist VHCS geplant (steht aber noch nicht fest).
Weiter laufen mehrere IPs auf die Maschine, die für einen SSL-Proxy und mehrere unabhängige SSL Zertifikate genutzt werden sollen.
Das Problem:
Ich habe auf dem Server einen Kunden liegen, der eine möglichst hoch verfügbare Lösung für seine Webseite braucht. Also habe ich mir überlegt, das System als hochverfügbaren HA-Cluster (also kein Load-Balancing etc.) auszulegen.
Hardware (Stimmt´s oder stimmt´s nicht?):
Ich plane vorerst einen Aktiv/Passiv-Cluster aus 2 Hardware Nodes. Entsprechend meiner bisherigen Infos, würde ich das System so zusammenstellen:
2 gleiche Rechner mit je 2 LAN-Anschlüssen und ein Switch. Die Rechner werden jeweils an den Switch angeschlossen und noch untereinander verbunden. Ist das soweit richtig?
Wie ist das mit dem Switch, wenn der ausfällt? Ist doch theoretisch ein single point of failure, oder?
Theoretisch müsste ich immer einen Ersatz-Switch vor Ort haben, und im Notfall alle LAN-Kabel umstecken. Kann ich das Problem noch anders umgehen? Gibt es eine Lösung, die hier ohne Ausfallzeit funktioniert?
Software:
Was brauche ich an Software für das Cluster-Management?
Bisher habe ich Wackamole, Heartbeat, DRBD, Veritas Cluster Manager gesehen, aber mich noch nicht näher damit auseinandergesetzt. Habt Ihr hier Erfahrungen oder könnt Ihr mir ein bestimmtes Programm empfehlen, das meinen Anforderungen entspricht?
Wie läuft das mit den mehreren IP-Adressen? Wie wird das auf die einzelnen Hardware-Nodes verteilt?
Wichtig wäre mir, daß das Ganze auch mit zwei hardwareseitig unterschiedlichen Rechnern funktioniert, damit bei Bedarf eine Aufrüstung der Hardware im laufenden Betrieb möglich ist.
Danke im Voraus
Danibert
ich überschütte Euch mal wieder mit Fragen und hoffe, daß ich ein paar Infos sammeln kann:
Da mein derzeitiger managed Server Ende des Jahres ausläuft, habe ich mich entschlossen, dann auf einen eigenen Server in einer Colocation umzusteigen. Ich habe mir also ein Testsystem zum Üben angeschafft und arbeite mich nun langsam in die Server-Administration unter Linux ein.
Der zukünftige Server:
Auf dem Server, der Ende des Jahres online gehen soll, wird folgendes laufen:
Debian, Apache, mod_ssl, Mysql, Perl, Php, Postfix, Vsftpd, Python, Qpopper, Bind 9, Webalizer, SpamAssassin, Openssh
Als Admin-Tool ist VHCS geplant (steht aber noch nicht fest).
Weiter laufen mehrere IPs auf die Maschine, die für einen SSL-Proxy und mehrere unabhängige SSL Zertifikate genutzt werden sollen.
Das Problem:
Ich habe auf dem Server einen Kunden liegen, der eine möglichst hoch verfügbare Lösung für seine Webseite braucht. Also habe ich mir überlegt, das System als hochverfügbaren HA-Cluster (also kein Load-Balancing etc.) auszulegen.
Hardware (Stimmt´s oder stimmt´s nicht?):
Ich plane vorerst einen Aktiv/Passiv-Cluster aus 2 Hardware Nodes. Entsprechend meiner bisherigen Infos, würde ich das System so zusammenstellen:
2 gleiche Rechner mit je 2 LAN-Anschlüssen und ein Switch. Die Rechner werden jeweils an den Switch angeschlossen und noch untereinander verbunden. Ist das soweit richtig?
Wie ist das mit dem Switch, wenn der ausfällt? Ist doch theoretisch ein single point of failure, oder?
Theoretisch müsste ich immer einen Ersatz-Switch vor Ort haben, und im Notfall alle LAN-Kabel umstecken. Kann ich das Problem noch anders umgehen? Gibt es eine Lösung, die hier ohne Ausfallzeit funktioniert?
Software:
Was brauche ich an Software für das Cluster-Management?
Bisher habe ich Wackamole, Heartbeat, DRBD, Veritas Cluster Manager gesehen, aber mich noch nicht näher damit auseinandergesetzt. Habt Ihr hier Erfahrungen oder könnt Ihr mir ein bestimmtes Programm empfehlen, das meinen Anforderungen entspricht?
Wie läuft das mit den mehreren IP-Adressen? Wie wird das auf die einzelnen Hardware-Nodes verteilt?
Wichtig wäre mir, daß das Ganze auch mit zwei hardwareseitig unterschiedlichen Rechnern funktioniert, damit bei Bedarf eine Aufrüstung der Hardware im laufenden Betrieb möglich ist.
Danke im Voraus
Danibert