@ Joe User: Hey, cool, ich kann fast allem aus Deinem Post #22 zustimmen.
Warum sollte ich denn meine CPUs nicht bei <20° Celsius betreiben?
Achtung Witz: Es steht natürlich jedem frei, seinen Rechner in den Kühlschrank zu stellen.
Wir reden hier nach wie vor über Server in Rechenzentren, richtig?:
Ganz einfach: weils nicht wirtschaftlich ist. Es gibt einen, vermutlich relativ engen, Bereich, in dem "Verbrauch der CPU" plus "nötige Energie um die Verlustleistung wieder wegzukühlen" ein Minimum erreichen.
Wenn man sich
dieses sehr interessante Whitepaper von Knürr und Siemens Fujitsu so ansieht, achten Rechenzentren - mittlerweile - auf das peinlichste auf den Energieverbrauch pro Leistung und versuchen, ihn so weit wie möglich zu optimieren. Und dazu gehört eben auch die Energie, die nötig ist, die Verlustleistung wegzukühlen.
(Btw: auch sehr interessant ist, dass in dem Whitepaper die CPUs nur einen nicht allzugroßten Teil aller Energiekosten ausmachen. Man sollte also die Auswirkungen verschiedener Architekturen in Relation sehen.)
Davon abgesehen gibt es für die meisten technischen Geräte einen spezifizierten Bereich, in dem sie optimal funktionieren. Es ist m.E. OK, wenn auch CPU Hersteller ihren Geräten einen entsprechenden Bereich mit auf den Weg geben. Für Extremfälle (kalt wie warm) gibt es auch speziell angepasste Technik, die diese Spezifikationen dann auch abkann.
EDIT: Dass die CPU Bugs ein "No-Go" darstellen, kann ich allerdings nicht unterschreiben. Kommt es auf Hochpräzision an, muss es da auf mehreren (auch Software)Ebenen entsprechende Kontrollmechanismen geben (und die gibt es). Sich da nur auf die Fehlerfreiheit einer CPU zu verlassen, reicht da so oder so nicht.
EDIT2: Hm, "below zero" hat man es auch gleich noch mit ganz anderen Problemen zu tun, Stichwort "Kondensation". Wasser an der CPU ist nicht so toll...