von Sandy Bridge, Ivy Bridge und Intel HD Graphics

chiller

New Member
Hallo Liebe Community,

ich habs leider echt nicht geschafft eine Antwort auf meine Fragen zu finden. Daher habe ich mich hier mal reg. und hoffe nun die folgenden Themen ausführlich diskutieren zu können. Evtl habt ihr ja schon ein paar erfahrungen gemacht ;)

Ich bin derzeit dabei mir einen Server zusammenzustellen. Ich möchte weg vom webhosting, v servern und gemieteter Root Server. Zum einen weil mich auf den ersten beiden sehr sehr eingeschränkt fühle und zum anderen weil ich echt mal lust habe mich damit auseinander zu setzen. Derzeit habe ich Webspace bei HostEurope gemietet und zuhause einen 24/7 Homeserver am laufen. Nun mag ich mir einen schönen 19'' 1HE Server zusammenbasteln der dann hier in Berlin in ein Rechenzentrum kommt. Besonderes augenmerk lege ich auf effizienz und Green IT. Sprich Stromsparend soll er sein. Es sollen virtuelle Maschinen laufen, in denen dann wiederum verschiedene Anwendungen installiert sein werden. Webserver, Datenbank, FTP, SVN, Mincraft, Teamspeak, div collaborative software... so die üblichen verdächtigen die man so wärend der Uni/dem Privatleben und dem Aufbau einiger kleiner Webprojekte so braucht :rolleyes:
Da ich nicht vorhabe eine Renderfarm groß zu ziehen fange ich daher klein an.

Vor anderhalb jahren habe ich mir einen Homeserver zusammengestellt. In ihm werkelt ein kleiner AMD Athlon II X3 425e dazu noch 5 WD Green Platten und 4GB ram. Das teil schluckt 60-70W. Bin echt zufrieden mit dem Teil...aber es geht noch besser!!
Warum ich jetzt zu intel wechseln möchte? Einfach...Bulldozer hat mich enttäuscht und ich möchte unbedingt AES-NI aufgrund der Vollverschlüsselung nutzen und VT-d/x bzgl der virtuellen Maschinen.

So jetzt hab ich schon ganz schön viel gequasselt, habe aber noch nicht den Kern erreicht...:D

Undzwar habe ich seit geraumer Zeit ein Auge auf den E-3 1220L geworfen.

Nun ist es ja so dass am Montag offiziell die Ivy-Bridge bekannt gegeben wurde und ich mir mit dem Sprung von 32nm auf 22nm viel erhofft habe.

Nun ist ja der Nachfolger, der E3-1220L v2 schon länger bekannt...naja immerhin noch mal 3W weniger TDP und noch etwas "mehr" Power unterm hintern. :)

Beide CPUs mit AES-NI und VT-d/x ausgestattet. ECC können se auch noch...allerdings habe ich ja auch nur begrenzt Geld im Beutel und der Vergleich von einem Normalen 6/7 Series Board auf 1155 Sockel Basis zu einem ECC fähigen Board ist schon Bemerkbar (gut 100-150€). Google hat zwar festgestellt, dass sich ECC durchaus lohnt, aber...mh bei mir? Ich glaube mit einem Server kann ich das nicht in Euros umrechnen, was mein Speicher da sich wieder von der Platte holen muss, was er auf dem Weg verschlampt hat..also in watt... So by the way die erste frage.. kann man den XEON auch auf einen "normalo" 1155er Board betreiben oder nur auf diesen C206/204 schlag mich tot..?

Dann jetzt was anderes.

Der Core i5-2390T ist auch ne super Kiste. Auch nur 35W TDP und noch gut leistung.

nachfolger: Core i5-3470T aber der wird wohl noch etwas auf sich warten lassen... dann halt der Core i5-3570T, der wurde immerhin schon für nächste woche Montag angekündigt. Aber der hat auch schon wieder 45W TDP..

Aber was mich bei den Core i5 teilen wirklich nervt, ist die Intel HD Graphics einheit die mitten auf der CPU gut 1/3 des Platzes frisst...was ich für Office PCs echt super finde, finde ich hier im Serversegment echt nervig. Ich weiß nämlich echt nicht was ich davon halten soll. Frisst das teil jetzt mehr Strom oder nicht?? Es läuft ja keinerlei grafische Oberfläche auf dem Server...Bringt es was eine Graka anzuschließen und über diese die Interne GPU zu deaktivieren um dann die karte wieder abzuziehen?? Aber dann denke ich mir: Hey jetzt hast schön Geld in eine Technik gesteckt, die du jetzt mit absicht deaktiviert hast...super :cool:

Was denkt/wisst ihr?

Lohnt es sich auf die Ivy Bridge zu warten? Denkt ihr dass die Preise für die Auslaufmodelle Sandy Bridge fallen werden? Ist die Graphics HD der killer für Server? xeon oder i5? xeon auf series 6 Chipset?

Also am liebsten wäre mir der E3-1220L v2 auf einem normalo 6-Series Board 1155 ohne ECC. Denn ECC speicher ist auch nochmal gut teuer..

Jetzt hab ichs aber :D

Was sagt ihr?

Liebe Grüße,
Chiller

Edit: Okay ich habe jetzt zumindest gelesen, dass der Xeon auf Intel 6 Series alias Cougar Point laufen soll. Noch mal ne weitere Frage: Kennt einer den genauen unterschied zwischen Cougar und Panther Point? Irgendwie kann ich hier keinen erkennen..?
 
Last edited by a moderator:
Wenn Du Virtualisierung vernünftig betreiben willst, sind fast alle Deine Überlegungen IRRELEVANT! :p

Bare Metal Hypervisors wie ESXi kommen nämlich nur mit sehr limitierter Hardware zurecht. Welche Hardware Du verwenden kannst, bestimmst nicht Du, sondern die VMWare Kompatibilitätsliste und die Whitebox HCL.

Ich würde für einen Virtualisierungsserver auf einen Quadcore mit viel RAM setzen. Den Quadcore damit Du auch bei vielen parallelen VMs noch Saft für alle hast, das RAM weil das bei Virtualisierungsservern eigentlich immer das Nadelöhr ist. 16 GB wären für mich die Grundausstattung, mehr kann in keinem Fall schaden, sogar 32 GB wären vertretbar.

VMWare zieht weiterhin einen echten Hardware Raid Controller fürs Raid 10 oder 5 nach sich, denn SW Raid kann VMWare nicht (und das ist gut so!!). Auch dieser Controller muss auf der HCL stehen. Hier zu sparen ist kurzsichtig.

Ob der Server nun 35, 45, 65 oder noch mehr Watt TDP hat, ist doch völlig wurscht! In der Regel wird der Server nahe dem Idlezustand rumwarten. Und da verbrauchen alle diese Stufen nahezu gleich viel. Und selbst wenn: das Ding steht im RZ, wird gekühlt und Du zahlst vermutlich eine Pauschale.

Ich finde in Deinem langen, langen Post machst Du Dir über die völlig falschen Dinge Kopfzerbrechen.

Und billig ist ein vernünftiger Server in der Regel nicht. Schau Dir bei den Profis an, welche Komponenten da sinnvollerweise verbaut werden oder mach Dich auf die Suche nach ordentlich laufenden Setups von Whiteboxes.
 
An Thunderbyte's zutreffenden Post will ich aber noch eins anhaengen;

ESXi ist beileibe (und Gott sei dank) nicht der "Standard" der Virtualisierung.
Falls du (was ich aufgrund deiner Einsatzbeschreibung vermute) eher auf OpenVZ oder Linux-VZ [*] setzen willst dann steckt eine mehr oder weniger vollausgestattete Distribution inkl. Moeglichkeit des LVM, SoftRaid und Treiber bis hin zur Toaster-Ansteuerung darin.
(Fuer OpenVZ empfehle ich Proxmox auf einem eigenen Debian-System)

Ich moechte aber auch nochmal betonen dass -trotz Marketing"luege" in diese Richtung- TDP nicht gleich Stromverbrauch ist. Ein hoher TDP bedeutet bei heutigen Systemen idR mehr Leistung, die ATP (average thermal power) muss dabei aber nicht hoeher liegen.

Green-IT ist uebrigens in Kombination mit Virtualisierung und Festplattenverschluesslung ironisch; die durch die ganzen Operationen, Umleitungen, Hypervisor/Supervisor-Arbeiten, Messungen, ... anfallenden Overheads und "Nebenkosten" machen die paar Watt die deine sorgfaeltig ausgesuchte stromsparende Festplatte verbraucht wieder mehr als wett.
Ein eigener (meist idlender) Server ist uebrigens alles andere als green verglichen mit dem Leistungsersparnis (von Herstellung bis zu Stromverbrauch) den eine geteilte Architektur darstellt.
Nur dein Portemonnaie spart nicht, aber wir sind doch alle green, da muss man halt bissl was drauflegen... nicht?


[*] das ist genau genommen nicht Virtualisierung sondern Isolierung. Da aber den meisten Admins die Unterschiede nicht gelaufig sind lasse ich es hier beiseite.
 
Hi,

Ob der Server nun 35, 45, 65 oder noch mehr Watt TDP hat, ist doch völlig wurscht! In der Regel wird der Server nahe dem Idlezustand rumwarten. Und da verbrauchen alle diese Stufen nahezu gleich viel. Und selbst wenn: das Ding steht im RZ, wird gekühlt und Du zahlst vermutlich eine Pauschale.

In der Tat ist es so, dass die stromsparenden Intel-Prozessoren im Idle-Betrieb nicht merklich weniger Strom verbrauchen, als die "normalen" CPUs. Die TDP bei Intel gibt bei Intel im Gegensatz zu AMD den maximalen Stromverbrauch an.

Ich selbst habe einen i5-3550 mit 16 GB und zwei SATA-Platten im Test. Im Idle-Betrieb verbraucht der gerade mal 35W, bei mittlerer Auslastung gut 50W und knapp unter 80W unter Vollast. Da in bei vielen Serverhousing-Angeboten bis zu 100W inklusiv sind, lohnt sich der Einsatz von besonders stromsparenden CPUs nicht. Die Technik lässt sich allerdings nicht in 19"-Gehäusen mit einer Höheneinheit verbauen.

Mir ist aber nicht ganz klar, welchen Vorteil Du dir vom Hosting deiner eigenen Hardware versprichst. Ein Root-Server ist für dich wahrscheinlich deutlich geeigneter.

CU
Tom09
 
Die Technik lässt sich allerdings nicht in 19"-Gehäusen mit einer Höheneinheit verbauen.

Das kann man wohl für Selbstbau bestätigen, generell kann man sehr viel in 1HE 19" Gehäusen verbauen. Bei mir z.B. 2xOpterons, die deutlich mehr als 200W TDP haben. Das geht allerdings nur mit speziellen Kühlmechanismen, die meist nur spezielle 19" Barebones mitbringen.

@Threadstarter: A propos Barebones... Wenn Du wirklich einen 19" Server willst (viele Houser nehmen auch Tower Gehäuse, die deutlich günstiger und einfacher aufzubauen sind), dann wäre ein Barebone der richtige Startplatz, den Du dann nur mehr mit Deinen Komponenten ausstattest. Siehe z.B. http://www.heise.de/preisvergleich/?cat=bare19 für Produkte.

Meist sind alle anderen Kosten (insbesondere Housing) bei einem solchen Server deutlich höher als die einmaligen Anschaffungskosten der CPU. Du hast diese Leistung dann aber IMMER zur Verfügung, bzw. die Grenzen der CPU erfordern dann kostenintensive Neuanschaffungen, wenns eben nicht mehr reicht. Daher würde ich eine ordentlich leistungsfähige CPU und viel Speicher verbauen. In einer Kostenrechnung über 2 Jahre fällt die CPU dann kaum mehr ins Gewicht.
 
Hey,

erstmal Danke für eure Antworten.

Ihr habt natürlich recht, dass die TDP nicht den realen Stromverbrauch wiederspiegelt, sondern die max. Verlustleistung. Die Logische konsequenz ist jedoch, je geringer die TDP, desto höher ist die Effizienz. Oder liege ich da falsch? Und wenn ich einen quadcore i5 einbaue, der dann nur im idle rumdümpelt oder einen e3 der dann bei 50% last eiert, ist doch banane oder? Nur dass ich sicher weiß, dass er def. effizienter arbeitet. Aber das Argument, dass die Leistung bei einem quadcore einfach verfügbar ist, wenn sie gebraucht wird, zieht natürlich! Daher liebäugel ich jetzt mit einem i5-2500T. Hab das Teil neulich in einen Office PC für einen Freund verbaut. Max. 81W bei 100% Last kann ich da bestätigen. 40W im Idle.

Das Argument mit der 100W pauschale im RZ kann ich verstehen, untergräbt aber meine eigenen Ansprüche. Nur weil ich kann, muss ich ja nicht...All you can eat beim chinesen und hauptsache man lässt die hälfte auf dem Teller liegen. :)

An VM-Ware bin ich nicht interessiert, daher orientiere ich mich auch nicht am VM-Ware whitelisting. Ich möchte hier bei freier Software bleiben. Ich werde mich mit KVM und Virtual Box (evtl OVirt Project) beschäftigen. Es bleibt ja zum größten Teil ein Hobby und kein kommerzielles Startup. Wenn ich exzessiv auf ausfallsicherheit und support acht geben müsste, wäre vm-ware aufgrund der haftung wirklich die bessere alternative.

Bzgl Root-Server mieten wäre die bessere alternative....mh ja könnte sein...ich müsste mich nicht um die hardware kümmern, bei Ausfall hab ich einen der haftet und sich schnell bewegen sollte damit der kasten wieder läuft und wenn die daten weg sind gibts ärger...aber naja wie gesagt bleibt erst einmal ein hobby. Die selektierung der Hardware macht mir spaß. Und dass ich genau weiß, was in meinem System los ist beruhigt mich :P

Bzgl der Thomas Krenn Profis... da hab ich mich natürlich auch umgeschaut...und ih muss sagen: die kochen auch nur mit wasser. Ich habe nichts ausergewöhnliches erkennen können. Dort kann ich mir ja auch 1HE Server zusammenklicken. Bis auf die Tatsache, dass sie im gegensatz zu mir C204/C206 Boards mit ECC Ram verbauen, aber das mache ich ja bewusst nicht. Wenn ich mir den kasten selber zusammenschraube, spare ich ordentlich, aber das ist auch okay. Wiedermal wäre auch hier haftung und garantie ein Grund dort zu kaufen.

Green-IT ist uebrigens in Kombination mit Virtualisierung und Festplattenverschluesslung ironisch; die durch die ganzen Operationen, Umleitungen, Hypervisor/Supervisor-Arbeiten, Messungen, ... anfallenden Overheads und "Nebenkosten" machen die paar Watt die deine sorgfaeltig ausgesuchte stromsparende Festplatte verbraucht wieder mehr als wett.
Ein eigener (meist idlender) Server ist uebrigens alles andere als green verglichen mit dem Leistungsersparnis (von Herstellung bis zu Stromverbrauch) den eine geteilte Architektur darstellt.
Nur dein Portemonnaie spart nicht, aber wir sind doch alle green, da muss man halt bissl was drauflegen... nicht?
Naja der Grund, warum ich virtualisiere ist ja der, dass ich >=2 Projekte getrennt voneinander auf verschiedenen "maschinen" betreiben möchte. Wenn ich jetzt einen Server habe, der aufgrund der Virtualisierung unter 50% Last (geschätzt 60W) läuft und im vergleich dazu >=2 Server die nicht virtualisieren unter ~10% last (geschätzt 45W), dann habe ich bei >=2 maschienen schon gewonnen oder? :rolleyes:

Zum Raid Controller...Jo da hab ich einen gefunden. Hatte eh nur vor 2 Platten zu verbauen, daher Raid 1 Controller via PCI x. Hab auch positive Rückmeldungen beim Kernel 2.6. erhalten. Von daher...try n error

Aber was mich eigtl wirklich dazu bewegt hat, diesen Thread zu eröffnen, ist die Frage ob die Intel CPU interne Graphics HD einfluss auf den Stromverbrauch hat, obwohl diese eigtl nicht gebraucht wird. :D

Grüße, Chiller
 
Google hat zwar festgestellt, dass sich ECC durchaus lohnt, aber...mh bei mir? Ich glaube mit einem Server kann ich das nicht in Euros umrechnen, was mein Speicher da sich wieder von der Platte holen muss, was er auf dem Weg verschlampt hat..also in watt...

Bei der Formulierung ist dir glaube ich der Sinn von ECC-Speicher noch nicht ganz klar. ECC ist ein Fehlerkorrektur, die kleinere Fehler ausgleichen kann. Ist dieser nicht verbaut, führt ein Fehler zu korrupten Daten oder das System stürzt ab (oder auch beides). Und wenn der Speicher was unterwegs verschlampt, dann holt er sich das ja eben nicht von der Platte wieder, denn die Information, daß ein Speicherfehler aufgetreten ist, fehlt ohne ECC ja ebenfalls.
Sobald sich ECC-Fehler beim Speicher bemerkbar machen, kannst du den Server oft noch ein paar Tage laufen lassen, um Ersatz ui besorgen und einen Termin abzustimmen, damit du an deinen Server ran kommst.
Ich persönlich würde übrigens wahrscheinlich keinen Eigenbauserver nehmen, sondern was fertiges von einem renomierten Hersteller nehmen, wenn es um ein 1HE-System geht. Da sind die Komponenten aufeinander abgestimmt, insbesondere, was die Kühlung angeht (so eine "Pizzaschachtel" bietet da nicht so viel Spielraum wie ein Tower o.ä.)
 
MOD: Fullquote entfernt

Sinn und Funktion von ECC ist mir bekannt. Fehlererkennung/korrektur Einzelbitfehler / Mehrfach ... Hamming... Aber in der Tat sprichst du einen wichtigen Punkt an: Was passiert bei RAM Ohne Fehlerkorrekturverfahren? Ich werde das mal recherchieren. Aber mal ganz Leihenhaft ausgedrückt....bei >99% der Desktoprechner kommt Nicht ECC Ram zum einsatz und dort funktioniert es doch auch. Mein Heimserver läuft seit über einem Jahr reibungslos 24/7 ohne ECC...Bei Desktopsoftware wie Bildverarbeitung Musik Videos etc sind bitfehler eh egal da man den unterschied eh nicht merkt. Ich verstehe natürlich dass es bei db software etc natürlich gefährlicher ist, aber auch hier gibt es prüfsummen etc die ebenfalls fehler softwareseitig erkennen.
 
Last edited by a moderator:
Sofern ein Bit im Programmcode kippt, kann das zu seltsamen Verhalten führen oder das Programm stürzt schlicht ab - wenns Kernel-Code ist kann es auch zu einer Kernel-Panic (Linux) bzw. einem Bluescreen (Windows) o.ä. führen.
Prüfsummen sind ja schön und gut, aber sie werden ja aus Daten im RAM berechnet.
Aus der beruflichen Erfahrung: Das RAM stirbt, ist in den meisten Fällen ein schleichender Prozess. Mit der Zeit nimmt die Anzahl der Fehler pro Zeiteinheit zu.
Letztendlich mußt du abwägen: Wie schnell kannst den den Speicher tauschen und kannst du damit leben, daß dein Server über diesen Zeitraum nicht nutzbar ist. Wenn du die Mehrkosten des Speichers auf die Nutzungszeit hoch rechnest, dann gilt wieder das Argument von Thunderbird: Die anderen Kosten (wie das Housing) sind da deutlich höher. Einerseits bist du bereit mehr Geld als bei einem gemieteten Server auszugeben (Housing ist meist teuerer), andererseits willst du bei der Hardware knausern.
 
Wenn Dein Bitfehler aus 10101110 mal eben 10101010 macht, kann es für Dich sehr schnell sehr teuer werden.
Da helfen softwareseitige Prüfsummen absolut gar nichts, da die Prüfsummen nicht im Voraus feststehen können. Selbst wenn, wer garantiert Dir denn, dass die Prüfsumme nicht einen Bitfehler enthält?
 
Selbst wenn, wer garantiert Dir denn, dass die Prüfsumme nicht einen Bitfehler enthält?
Auch ein Fehler in einem Parity-Bit kann erkannt und behoben werden wenn man auf Hamming-Codierung setzt.
ECC-RAM kann typischerweise 1-Bit Fehler beheben und bis zu 4Bit-Fehler (jeweils je Block) beheben egal an welcher Stelle das Bit gekippt ist.

Um die Sicherheit zu erhoehen kann man mit mehreren(!) Hypervisor-Prozessen die Ausfuehrungsram kontrollieren und gegen Checksummen kontrollieren um sicher zu stellen dass es wenigstens 2-3x zu >4Bit-Fehler gekommen sein muss um ueberhaupt kritisch zu sein.

Sicherheit bedeutet nicht dass etwas nicht passieren kann sondern dass der Aufwand dem Nutzen entsprechend angepasst ist.

Es ist (theoretisch) auch moeglich dass die CPU Rechenfehler aus korrekten Eingabewerten ausgibt. Ausserdem hat ein System mehr Komponenten als nur RAM und CPU, was willst du gegen Bitfehler auf beiden Festplatten machen? =)
 
Zuerst mal ein MOD Hinweis: Bitte unterlasse Fullquotes (habe eines entfernt) und achte auf Deine Recht- sowie Groß- und Kleinschreibung. Hier sind einige Mängel festzustellen. Wir achten hier recht akkurat auf guten Ausdruck, um das Forum in einem guten Zustand zu halten. Damit wollen wir niemanden ärgern, sondern das ist die Querschnittsmeinung der (teils langjährigen) Benutzer und ein Zeichen des Respekts. ;)

Aber was mich eigtl wirklich dazu bewegt hat, diesen Thread zu eröffnen, ist die Frage ob die Intel CPU interne Graphics HD einfluss auf den Stromverbrauch hat, obwohl diese eigtl nicht gebraucht wird. :D

Du musst es so sehen: irgendeine Grafik brauchst Du im Server. Ob das nun mit einem separaten On-Board Speicherchip, einer Grafikkarte oder mit der in die CPU integrierten Grafikeinheit erledigt wird, ist doch an sich gleich. Ich würde sogar meinen, dass die CPU-Grafik noch den geringsten Energieverbrauch hat und nur vernachlässigbaren Strom zieht, wenn man kein 3D oder OpenCL damit macht. Insofern ist das m.E. wieder ein irrelevanter Punkt. :p
 
@d4f: Bekannt ;) Ändert aber nichts daran, dass die Checksummen nicht vor der Verarbeitung feststehen können. Wenn sie das täten, wäre die Verarbeitung hinfällig, da längst geschehen ;)
 
Hallo Community,

Ich wollte das Thema jetzt mal zum Abschluss bringen. Ich habe mir einen Server zusammengebaut, installiert und in ein Rechenzentrum gestellt. Läuft seit 14 Tagen wie geschmiert. Ich geb dann bescheid, wenn er abschmiert. :p

Hardware: i5-3450 + H77 Board + 16GB DDR3 (Non ECC) + 3Ware Hardware-Raid Controller + 2x650GB WD Green + Midi Tower + 350W Netzteil 80+ Bronze

Ihr seht also, ich hab mir einige eurer Hinweise zu Herzen genommen (Quad-Core + Midi-Tower [Besser zu kühlen] + Viel RAM (VMs)), wenn auch nicht alle (ECC).

Der Server läuft nun bei ~45W. Unter Last wären es 82W.

Ich wollte euch danken, auch wenn meine Frage bzgl. der Intel internen Grafik eigtl. unbeantwortet geblieben ist. :D

Danke & liebe Grüße,
Chiller
 
Back
Top