Hallo, wie kommt eigentlich die hohe idle-Leistungsaufnahme von Xeon-E7-Systemen zusammen? Ich habe einmal unterschiedliche Rechner verglichen, einige Notebooks (i5 und i7) erreichen eine idle-Leistungsaufnahme von 3 - 5 W. Unter Vollast steigt sie auf 90 W und mehr. Bei E7-Servern liegt die idle-Leistungsaufnahme bei so 500 - 600 W. Unter Volllast sind es 900 W. Auch einige Karten verhalten sich ähnlich. Eine i350-Netzwerkkarte erzeugt auch dann, wenn kein Netzwerkkabel eingesteckt ist, viel Hitze. Was haben die Hersteller hier "falsch" gemacht? Sind da "sicherheitshalber" die meisten Energiesparfunktionen abgeschaltet?
Mit Messwerten eines Xeon e7 kann ich nicht dienen. Aber ein Dell T320 mit Xeon e5-1410v2 und 4xSAS-Disk plus RAID-Controller, 2xNetzteil und Outband-Management verbraucht laut ebd. Management 83W in samstäglicher Ruhe und über die Woche Peaks bis 113W wenn er mal was zu tun hat (Mittel 87W). Drauf ist VMware ESXi.
:
Bearbeitet durch User
Was steckt in dem 500-600W Teil alles drin? Anzahl CPUs, Disks, Speicher, 10Gb-Ethernet, ...? Laptop-CPUs sind auf niedrige Idle-Power optimiert. Takt sinkt, Spannung wird runter gefahren, Caches ganz abgeschaltet, evtl. für die Cores getrennt. Je mehr du runter fährst, desto länger dauert es, wieder hoch zu fahren. Es liegt deshalb nahe, dass man sowohl die Server-CPUs als auch die Grundeinstellung der gesamten Rechner anders einstellt und optimiert, als bei PCs oder gar Laptops. Für Server mit mehreren Sockeln könnte es noch andere Grenzen geben.
https://www.anandtech.com/show/4285/westmereex-intels-flagship-benchmarked/6 https://www.anandtech.com/show/9193/the-xeon-e78800-v3-review/16
Ein IBM/Lenovo x3650 M5, 2x Xeon e5-2680v3, 384 GB RAM, 2x Ethernet 10Gb, 8x Ethernet 1Gb, 2x Fibre Channel 8Gb, 0 Disks, 2 Netzteile kommt auf min 200W max 300W AC-Leistung in 24h. Bei derzeit ~20% mittlerer Auslastung sind es 230W DC insgesamt, davon 120W für die CPUs und 150W für das RAM. Angabe direkt aus dem Outband Management. Ja, ich kann addieren ;-). Dein 500-600W Kollege muss schon ein ziemlich dicker Hobel sein.
:
Bearbeitet durch User
Server werden gekauft für Arbeit: da MUSS die Auslastungsanzeige ALLER CPUs IMMER über 80% liegen. Entsprechend interessiert nur die Leistungsaufnahme unter Vollast. Ist das nicht so, hat man Geld für HW zum Fenster rausgeschmissen. Investitionseffizienz oder so...
Postscriptum: Die Kühlanlage, welche bei Server ohnehin ZWINGEND ist und für Maximalleistung bei Sommerspitzentemperaturen dimensioniert wird, arbeitet unterhalb +/- halber Max.Kühlleistung dramatisch ineffizient. Niemand will also eine Serveranlage (Servers+ Netzwerkswitches+ NAS+ Kühlung) in einem anderen als im oberen Drittel/Vierter der Leistung betreiben. Weil Geldverschwendung.
Rechnerknecht schrieb: > Server werden gekauft für Arbeit: da MUSS die Auslastungsanzeige ALLER > CPUs IMMER über 80% liegen. Unsinn. Server sind Dienstleister. Sie müssen den Dienst schnell genug leisten. In vielen Fällen reagieren Server mit über 80% Auslastung verzögert und den Anwender merkt es. Und mal auf Blech bezogen, ohne Virtualisierung: Aus welchem Jahrgang eines Museums müsstest du als mittleres Unternehmen die Hardware klauen, um einen AD-Server zu 80% auszulasten? Du verwechselst das mit Supercomputern in klein und gross. Mit Rechnern, deren Hauptaufgabe im Berechnen besteht. Egal ob es um Atombomben oder harmlosere Aufgaben geht. Das sind aber keine Server im üblichen Sinn.
Auch die Serverboards lassen sich meistens mit etlichen stand-by Funktionen fahren, sofern sie dafür ausgerüstet sind. Letztlich ist das eine Frage des BIOS und dessen Nutzung durch das OS. Windows hat da ja oft so seine eigene Vorstellung wann man wo was sparen kann. Da werden schon mal Lüfter runtergefahren, die eigentlich noch laufen sollten, um das Bauteil weiter runterzukühlen und Platten werden ungeschickt gestoppt. Bei den Servern ist DAS oft ein wesentlicher Punkt.
Rechnerknecht schrieb: > Die Kühlanlage, welche bei Server ohnehin ZWINGEND ist und für > Maximalleistung bei Sommerspitzentemperaturen dimensioniert wird, > arbeitet unterhalb +/- halber Max.Kühlleistung dramatisch ineffizient. Die Kosten sind entscheidend. Investition und Betrieb. Effizienz ist ein Faktor darin, aber nicht der einzige. Die Effizienz sinkt mit geringerer Kühlleistung. So weit stimmt es. Aber trotzdem sinkt mit sinkender Kühlleistung der Energieverbrauch. Wenn also mit den Jahren die Wärmeleistung eines RZ sinkt, weil trotz steigender Anzahl von Services die Anzahl der Rechner sinkt, dann sinkt auch der Energieverbrauch der Klimaanlage. Schlimmer dran ist man deshalb nicht. Irgendwann braucht man mal eine neue Klimaanlage und wird dann die Dimensionierung anpassen. Aber die Dinger leben recht lang. Unser letzter Tausch hatte seinen Grund im nicht mehr zulässigen Kältemittel. > Niemand will also eine Serveranlage (Servers+ Netzwerkswitches+ NAS+ > Kühlung) in einem anderen als im oberen Drittel/Vierter der Leistung > betreiben. In hiesigen Breiten ist das schwierig zu erreichen. Das vermaledeite Wetter macht einem da einen bösen Strich durch die Rechnung. Ulkigerweise ziehen die Gross-RZs trotzdem lieber nach Schweden als nach Gran Canaria, obwohl die Temperaturschwankung übers Jahr in GC wesentlich kleiner ist. ;-) PS: Server werden auch dort verwendet, wo man nicht gleich 1000 Kisten in einem Raum unterbringt. PPS: Obiger Dell hat schon die kleinste CPU, die man für einen Server mit der gewünschten Redundanz kriegen konnte. Trotzdem kommt der höchstens mal beim Dotnet-Update auf etwas Auslastung. Liegt eben an seiner Rolle, in Aussenstelle(n).
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.