Stromverbrauch Server-Systeme

doklages

Registered User
Hallo,

ich würde gerne mal eure Meinung zu meinem neuen Vorhaben hören:

Ich plane mit ein paar Kollegen einen Cluster für vServer wobei der Speicher zentral über iSCSI und NFS verwaltet wird. Nach unseren Vorstellungen, sollen auf jedem Cluster Node 2-3 vServer laufen. Als Hardwarebasis haben wir uns als 1. für einen Intel Atom DualCore entschieden mit 2GB Ram und einer 40GB HDD als StartVolumen. Inklusive Gehäuse kommen wir da je Hardware auf über 250€ (1U Rack ).

Nun habe ich aber per Zufall noch einen alten Dell Server mit Dual Pentium 3 1,4Ghz gefunden und habe festgestellt, dass die Rechenleistung zwischen Atom und Pentium 3 fast identisch ist. D.h wir würden für gebrauchte Server nur 50€/Stück ausgeben (gleicher Ram und HDD). Der einzige unterschied ist die verminderte Lebensdauer, da die Kisten schon einige Jahre auf dem Buckel haben und der erhöhte Stromverbrauch.

Das ist in meinen Augen der Knackpunkt:

Ich bin davon aussgegangen, dass der P3 Server im Durschnitt 100 Watt benötigt und der Atom-Rechner 50 Watt, was meiner Meinung nach relativ nah an die Realität kommt.

Wenn man dies nun hochrechnet, kommt man darauf, dass sich die Mehrkosten für die neue Hardware trotz erhöhtem Stromverbrauch erst nach 17 Monaten Betrieb reinkommen, frage ich mich nun was besser ist.

Ich denke, dass in diesen kein Server 17 Monate benutzt wird. Daher tendiere ich zu der alten aber dadurch billigeren Technik.

Was denkt ihr über diese Überlegung?

Viele Grüße
Dominik
 
Kauf dir ein Stromverbrauchsmesser, zb das EM600 von ELV und miss den Stromverbrauch im simulierten Betrieb. Damit kannst du dann weiter rechnen, alles andere wäre nur geschätzt und somit nicht brauchbar.
Als Beispiel mein NAS im Keller, AthlonX2 4450e auf Abit Board mit 4 Platten braucht im Ruhezustand 34Watt, unter Vollast mit Aktivität auf allen Platten und beiden Kerne zieht er 110Watt. Du siehst, die Differenzen sind groß.
Ansonsten unabhänigig vom Stromverbrauch würde ich neue Komponenten immer vorziehen, wegen Garantie und Gewährleistung.
 
Ja die Sache mit der Messung muss noch gemacht werden. Die Frage die ich mir stelle -> lohnt sich neue Hardware bei gleicher Leistung überhaupt, wenn diese sowieso nur 9-10 Monate im Einsatz ist und dann gegen besser getauscht wird
 
Wenn du sowieso alle 10 Monate neue Hardware kaufen möchtest, denke ich werden die Stromosten wohl das geringste Übel sein :-)
 
Normalerweise sollten Server doch eher dafür ausgelegt sein, länger zu laufen als 9-10 Monate. Da hat man die Anschaffung ja gar noch nicht wieder reingespielt, ganz zu schweigen für die "Kosten" für die Konfiguration.

Meine Serverinstallation ist bereits mehrere Jahre alt. Durch konservatives Installieren neuer SW ist das auch kein Problem.
 
Ein paar Werte kann ich dir aus eigenen Überlegungen nennen: (Durchschnittswerte)

Dell PowerEdge 6400, DualCore mit 4 GB RAM, 5 SCSI-Festplatten: 450 Watt
P3-300 mit 380 MB RAM, 2 S-ATA Festplatten: 60 Watt
P3-1000 mit 512 MB RAM, 2 IDE-Festplatten (1HE): 110 Watt

Ich habe mir folgendes System aktuell als Ersatz für den P3 gebaut:
- Atom 230 mit 1.6GHz (SC)
- 2 GB RAM
- 2x250 GB 2.5"-Festplatten (S-ATAII)
- 2x160 GB 3.5"-Festplatten (S-ATA)

Hierbei rechne ich mit ca. 40 bis 50 Watt.

Grundsätzlich würde ich nicht sagen, dass alte Hardware schneller kaputt geht. Ich sage immer, was 5 Jahre lief funktioniert. Bei Neugeräten weisst du nie ob sie vielleicht nach einem Jahr schon den Geist aufgeben.

Mein P3-300 (runtergetaktet von eigentlich 450) läuft jetzt seit ca. 9 Jahren wenn ich mich nicht verrechnet habe, und das ununterbrochen. Einzige Downtime war das Upgrade der Festplatten auf S-ATA.
 
Grundsätzlich würde ich schon meinen, dass man aus Atoms nette kleine Server basteln kann. Allerdings ist die Leistungsfähigkeit doch arg begrenzt. Insofern mag die Kiste noch halbwegs laufen, wenn EIN OS drauf ist. Darauf 2-3 Vserver installieren zu wollen sehe ich als recht bedenklich an. 2 (1 Vserver / Core) gehen ja vielleicht grade noch. Besser wäre sicher ein Betrieb ohne Virtualisierung.

Noch lustiger wäre m.E. ein Betrieb OHNE lokales Betriebssystem dafür aber mit Netboot (wenn das geht)! Dann wären die Atoms komplett austauschbar. Wenn man davor noch einen Loadbalancer setzt, könnte man das System durch Hinzufügen oder Wegnehmen von Atoms beliebig skalieren.

Kommerzielles Beispiel für letzteres: http://www.ovh.de/privatperson/produkte/rps2.xml !
 
Last edited by a moderator:
@Thunderbyte:
So funktionieren die RPS von OVH :D Komplett ohne eigene Festplatten, alles über NFS und iSCSI, schnarchlangsam :)

Edit: Mist, ich sollte Deine Posts auch zu Ende lesen... *schäm*
 
Ich denke, dass es durchaus Vorteile von iSCSI und NFS gibt, wenn man nicht zu viele Leute auf einen iSCSI Node legt. Ich bin halt darauf gekomme, da iSCSI es ermöglicht die Hardware schnell auszutauschen oder den Server schenll auf einen leistungsstärkeren umzuziehen, was mit normaler Technik zwar auch geht (dauert aber länger).

Mit der Virtualisierung erspare ich mir dann noch verschiedene Hardware in den Gast-Systemen selber
 
Last edited by a moderator:
Hardwareunabhängigkeit durch Virtualisierung nutze ich schon lange mit VMWare und OpenVZ, und ich muss sagen, bis jetzt nur Vorteile dadurch gehabt!
 
Back
Top