Ich wollte einen Server im 19 Zoll - Gehäuse selber zusammenstellen. Das Angebot an leeren 19-Zoll Gehäusen für den Eigenbau ist bei den üblichen Versendern sehr überschaubar, und auch E-Bay sieht es nicht viel besser aus. Mir ist aufgefallen, dass sämtliche 19-Zoll Leergehäuse dem Aufbau eines klassischen Desktop folgen (Platten, DVD etc. vorne, Platine hinten mit Anschlüssen zur Rückseite. Im 19 Zoll Schrank hätte ich aber lieber die Netzwerk- und sonstigen Buchsen vorne, da auch Switch und Patchpanel auf dieser Seite enden. Gibt es denn technische Gründe, welche gegen einen solchen Aufbau sprechen? Fertige Server z.B. bei Krenn bekommt man ja auch mit Netzwerkbuchsen vorne. Kann mir jemand vielleicht einen Hinweis auf irgendwelche Spezialversender geben, bei denen die Auswahl an Rack-Gehäusen größer ist? LG hardwarebastler
Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum Hot-Swappen sitzen. Denn da muss man öfter ran, als an das Netzwerkkabel (nie). Die werden einfach von hinten nach vorne durchgeführt. Bei Thomas Krenn ist mir auf Anhieb auch kein Server bekannt der die Buchsen vorne hat. Allerdings kenn ich das von diversen Routern (oder auch "Servern" die als Router herhalten sollen: da sind dann 4..X Netzwerkbuchsen vorne). Was ist denn dein angepeilter Verwendungszweck?
hardwarebastler schrieb: > Gibt es denn technische Gründe, welche gegen einen solchen Aufbau > sprechen? Fertige Server z.B. bei Krenn bekommt man ja auch mit > Netzwerkbuchsen vorne. würde ich umständlich finden, man muss der Server ja nach vorne rausziehen können, wenn dort alles Kabel rumhängen wird das schwerer. Oft hat man sogar Teleskopschienen, wo die Kabel an einem Schwenkarm geführt werden, damit den Server rausziehen und Hot-Plug von Komponenten machen könnte. USB und Monitor machen vorne sinn, falls man wirklich mal auf die Konsole schauen muss.
Im Übrigens sind seeeeeehr viele Gehäuse auf ein spezielles Mainboard (oder eine Reihe) zugeschnitten, da gibt es relativ wenige Standards...
SR schrieb: > Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum > Hot-Swappen sitzen. Denn da muss man öfter ran, als an das Netzwerkkabel > (nie). Die werden einfach von hinten nach vorne durchgeführt. Man kann die Patchpanel in den Serverracks auch hinten montieren. > Bei Thomas Krenn ist mir auf Anhieb auch kein Server bekannt der die > Buchsen vorne hat. Gibts bei VGA+USB mittlerweile öfter, für Konsole auf Rolltisch.
:
Bearbeitet durch User
hardwarebastler schrieb: > Im 19 Zoll Schrank hätte ich aber lieber die > Netzwerk- und sonstigen Buchsen vorne Ich habe einen recht alten, teuren 19-Zoll-Schrank von Schroff, wenn ich den genau betrachte, gibt es überhaupt keinen Unterschied zwischen hinten und vorne, der ist in X und Y Richtung völlig symmetrisch aufgebaut. Daher kann man einen Switch oder einen Server einbauen wie man will. Vorne ist in der Praxis da wo Anzeige-LEDs sind, aber in Zeiten von Remote-Desktops ist das auch nicht mehr so wichtig. Peter II hat recht, es sollten alle Kabel auf einer Seite sein, sonst ist der Ausbau zu umständlich. Das gilt eigentlich immer, ich habe da so einen Mini-PC, wo Kabel vorne und hinten eingesteckt werden müssen, das ist ausgesprochen blöd und sieht hässlich aus. Georg
bei den 19" Gehäusen ist Chenbro als Hersteller ganz groß dabei. Wenn nicht sogar der größte....
SR schrieb: > Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum > Hot-Swappen sitzen. Platten mit Hot-Swap hatte ich eigentlich nicht vorgesehen. > Bei Thomas Krenn ist mir auf Anhieb auch kein Server bekannt der die > Buchsen vorne hat. Ich habe gerade auch keinen mehr im Angebot gefunden. Früher war da sogar die Möglichkeit, die Suche nur auf solche Server zu beschränken. > Was ist denn dein angepeilter Verwendungszweck? Es soll ein vorhandener Tower in das Rack umziehen. Der Tower dient derzeit als Fileserver und MySQL-Server, daneben stellt er die virtuellen Maschinen für verschiedene Test- und Entwicklungszwecke zur Verfügung. Derzeit hat er zwei Ethernet-Ports (einmal für den Hauptserver, einmal mit den ganzen VLANs für die virtuellen Maschinen). An die Platten musste ich bisher noch nie außerplanmäßig ran, wohl aber an Ethernet sowie USB (zum Anschluss der externen Backup-Platte).
Man kann gebrauchte SUNs und IBM Blades gebraucht kaufen. So ab um die 100 Euro. Leistungsfähig und stromhungrig. Klimaanlage einplanen...
Was in den letzten Jahren an Servern rauskam ist recht sparsam. Dell-Server von ~2013, CPU e5-1410, 4 SAS Disks, 2x 750W Netzteile: Normalzustand 84W, Peaks bis 110W, gemessen durch Management-Modul.
:
Bearbeitet durch User
Jörg schrieb: > https://www.ico.de/19-gehaeuse Bei denen gibt es z.B. Gehäuse, die "verkehrt herum" sind: https://www.ico.de/4he-servergehaeuse-e4208-atx-8x-hdd--9gy420
SR schrieb: > Die Anschlüsse sind für gewöhnlich hinten, weil vorne die Platten zum > Hot-Swappen sitzen. Denn da muss man öfter ran, als an das Netzwerkkabel > (nie). Die werden einfach von hinten nach vorne durchgeführt. Wenn man die Netzwerkkabel nicht nach vorne durchführt, sondern stattdessen die Switchports nach hinten verlegt (also den Switch quasi "umgekehrt" ins Rack schraubt), kann man sich eine Menge Gefummel, Kabelsalat, und -- nicht zu vergessen -- die Gefahr sparen, daß bei der Montage oder Demontage von Maschinen die Kabel gequetscht, beschädigt oder gar abgeschoren werden. Man kann auch beide Link-LEDs eines Netzwerkkabels sehen, ohne erst um das Rack herumlaufen und das Kabel aufwändig verfolgen zu müssen... und Netzwerkkabel spart's auch. Wenn man dann noch ein Gehäuse finden würde, bei dem Diskbays, USB- und Display- oder HDMI-Ports nach vorne herausgeführt sind und hinten nur noch Power und Netz-Zwerg... ein Träumchen. ;-)
Sheeva P. schrieb: > Wenn man dann noch ein Gehäuse finden würde... Da musst Du wohl erst Dein CAD und dann den Schneidbrenner anwerfen... ;-)
Jörg schrieb: > Sheeva P. schrieb: >> Wenn man dann noch ein Gehäuse finden würde... > > Da musst Du wohl erst Dein CAD und dann den Schneidbrenner anwerfen... > ;-) Ja, leider. Wenn ich handelsübliche 19"-Gehäuse sehe, frage ich mich, ob deren Planer noch nie ein Rack von nahem gesehen haben. Dabei kann es doch nicht so schwer sein, irgendeine Art von Display-Anschluß und USB nach vorne zu schleifen... aber die wollen wohl lieber ihre verka**ten KVM-Switches verkaufen, die 99,9% der Zeit sowieso nicht gebraucht werden, wertvolle HEs belegen und -- der blanke Hohn -- im Jahre 2017 immer noch regelmäßig große Probleme haben, wenn man übers Netzwerk darauf zugreifen und Sonderzeichen wie "|" oä. eingeben will --- wozu braucht man das schon...!!1! (Nach Wutanfall verreist.)
Sheeva P. schrieb: > Ja, leider. Wenn ich handelsübliche 19"-Gehäuse sehe, frage ich mich, ob > deren Planer noch nie ein Rack von nahem gesehen haben. Dabei kann es > doch nicht so schwer sein, irgendeine Art von Display-Anschluß und USB > nach vorne zu schleifen... Ist das nicht Standard? Zumindest kenne ich es aus den raren Servertests der iX so.
:
Bearbeitet durch User
Reinhard S. schrieb: > Ist das nicht Standard? Zumindest kenne ich es aus den raren Servertests > der iX so. Bei Servern ist das längst üblich. Aber hier geht es nicht um fertige Server der üblichen Marken, mit vollständig proprietärem Aufbau. Sondern um Leergehäuse, die Mainboards mit einem der üblichen Standardmasse aufnehmen können. Dabei entsteht das Problem, dass Platinen mit Standardmassen keine passenden Monitor-Anschlüsse innen bieten, und nur manche immerhin USB-Anschlüsse. Solche Gehäuse müssten also ein Kabel mitbringen, dass mindestens den Monitor-Anschluss von der hinteren Anschlussblende nach vorne legt.
:
Bearbeitet durch User
Reinhard S. schrieb: > Sheeva P. schrieb: >> Ja, leider. Wenn ich handelsübliche 19"-Gehäuse sehe, frage ich mich, ob >> deren Planer noch nie ein Rack von nahem gesehen haben. Dabei kann es >> doch nicht so schwer sein, irgendeine Art von Display-Anschluß und USB >> nach vorne zu schleifen... > > Ist das nicht Standard? Zumindest kenne ich es aus den raren Servertests > der iX so. Bei Dell jedenfalls nicht. ;-(
Sheeva P. schrieb: > Bei Dell jedenfalls nicht. ;-( Direkt aus dem aktuellen Programm: http://i.dell.com/das/dih.ashx/673w/das/xa_____/global-site-design%20WEB/f07c54cc-ce4f-c986-20b5-0fa1b0c35090/1/OriginalJPG?id=Dell/Product_Images/Dell_Enterprise_Products/Enterprise_Systems/PowerEdge/PowerEdge_R220/pdp/server-poweredge-r220-pdp-love-07.jpg http://i.dell.com/das/dih.ashx/673w/das/xa_____/global-site-design%20WEB/02340059-376a-56f9-695e-d961525b4c98/1/OriginalJPG?id=Dell/Product_Images/Dell_Enterprise_Products/Enterprise_Systems/PowerEdge/Poweredge_R820/Overview/servers-poweredge-r820-pdp-1.jpg
:
Bearbeitet durch User
Nur hat ein Konsumermainboard in einem Server einfach gar nichts zu suchen deshalb gibt es so einen Bullshit wohl nicht. Server sind die Dinger, die nur alle paar Jahre mal neu gestartet werden. Da gehört ECC Ram rein, Xeon Prozessoren und Sever grade SSDs oder SAS Festplatten. Raid 10 oder Raid 6 Kontroller natürlich ebenso statt fakeraid in Intelspielweise. mfg Michael
Michael O. schrieb: > Nur hat ein Konsumermainboard in einem Server einfach gar nichts zu > suchen deshalb gibt es so einen Bullshit wohl nicht. Von Supermicro gibt es Server-Mainboards mit Standardmassen.
Michael O. schrieb: > Nur hat ein Konsumermainboard in einem Server einfach gar nichts zu > suchen deshalb gibt es so einen Bullshit wohl nicht. > Server sind die Dinger, die nur alle paar Jahre mal neu gestartet > werden. Da gehört ECC Ram rein, Xeon Prozessoren und Sever grade SSDs > oder SAS Festplatten. Raid 10 oder Raid 6 Kontroller natürlich ebenso > statt fakeraid in Intelspielweise. ja das war früher mal so. OK - ECC ist sinnvoll. Aber Raid Controller schon nicht mehr, sie halten einfach mit der Entwicklung nicht mehr stand. Viel zu langsam und unflexibel. CPUs können das heute nebenbei erledigen. Teilweise verlagert man die Raid Funktionalität schon ins Dateisystem. Google betreibt alles nur "billig" Server, nichts mit Xeon.
Peter II schrieb: > Google betreibt alles nur "billig" Server, nichts mit Xeon. Ich fürchte nur, dass es hier im Forum nicht viele Leute gibt, deren Hardware-Park sich mit Google messen kann. ;-) Google betreibt extrem viele Server, bei denen aufgrund Aufgabenstellung und Einsatzweise oft keine besondere Verfügbarkeit oder Fehlerrate verlangt wird. Da kann es sich lohnen, eine eigene Truppe für Hardware-Beschaffung und Service zu betreiben. Hast du aber beispielsweise ein Dutzend über die Jahre beschaffte und damit recht unterschiedliche Server, von denen eine höhere Verfügbarkeit erwartet wird, dann lohnt sich das nicht. Es kommt zu selten vor, um ausreichende Ersatzbevorratung und auch Verfügbarkeit von eigenem Wartungspersonal zu rechtfertigen. Folglich kann es sich für normale Unternehmen schon lohnen, hochwertige Server mit passendem Servicevertrag zu kaufen.
:
Bearbeitet durch User
A. K. schrieb: > Hast du aber beispielsweise ein Dutzend über die Jahre beschaffte und > damit recht unterschiedliche Server, von denen eine höhere Verfügbarkeit > erwartet wird, dann lohnt sich das nicht. Es kommt zu selten vor, um > ausreichende Ersatzbevorratung und auch Verfügbarkeit von eigenem > Wartungspersonal zu rechtfertigen. Ich betreue auch für ein paar kleine firmen ein paar Server, die doch sehr aufs Geld achten. Meine Erfahrung zeigt das man mit guter "home" Technik auch sehr weit kommt. Wenn dort man 24 Stunden nicht geht, stellt das aber auch kein Problem hat. Dann lieber nach 2-3 Jahren alles Raus und neu - ist besser als ein guten Server 5 Jahre lang zu betreiben. Ein defekte Dell-Netzteil eines Server kostet nach 3 Jahren fast so viel wie ein neuer PC. Wenn aber 100 Mitarbeiter ohne einen Server nicht arbeiten können und das System 24/7 verfügbar sein muss sieht es natürlich anders aus. Unter Server versteht jeder halt etwas anders.
Peter II schrieb: > Teilweise verlagert man die Raid > Funktionalität schon ins Dateisystem. Yep. Allerdings ist das Thema noch zu frisch, um im Servereinsatz weite Kreise zu ziehen. Ausser vielleicht wenn man einen Bezug zu Sun/Oracle hat. Problem hier, soweit ich das überblicke, liegt im Service-Szenario. (1) Eine rot blinkende Platte durch eine Ersatzplatte auswechseln, auf dass das System den Rest selber erledige. (2) Im Betriebs/Filesystem die defekte Platte rauskonfigurieren und die neue hinzu definieren. Gibts seit Urzeiten (z.B. Anfang der 90er mit AIX). Variante (1) ist fast narrensicher. In Variante (2) gibts einige Möglichkeiten sich durch Verwechselung oder Tippfehler ins Aus zu manövrieren, sofort oder mit Zeitzünder. Ziel hier muss sein, die Systeme mit im Betriebs- oder Filesystem integrierten RAID so zu pefektionieren, dass (1) draus wird. Ist man da schon so weit?
Peter II schrieb: > Wenn dort man 24 Stunden nicht geht, > stellt das aber auch kein Problem hat. Bei uns schon. Ein paar Stunden zur falschen Zeit und die Kacke ist mörderisch am dampfen. Da nimmt man dann schon etwas Rücksicht drauf. > ist besser als ein guten Server 5 Jahre lang zu betreiben. Hab grad erst zwei Server stillgelegt, von anno 2000. Einmal war Mainboard-Tausch fällig, das wars. Mit den Originalplatten von 2000. Die hatten in dem Fall nicht mal Plattenspiegelung, eben weil es zwei Systeme waren und jemand Geld sparen wollte. Einer davon war seit über zwei Jahren nicht mehr gebootet worden. Es kann schon Gründe geben, Systeme lang zu betreiben: Wenn Funktion und Inhalt 17 Jahre lang der gleiche ist, dann ist jeder nicht zwingende Wechsel mit einiger Arbeitszeit verbunden. Die Funktion schiebt sich ja nicht von alleine auf den Ersatz (im Zeitalter von Virtualisierung ggf. schon, aber dafür waren die zu alt). > Ein defekte Dell-Netzteil eines Server kostet nach 3 Jahren fast so viel > wie ein neuer PC. Aber auch in Fällen mit nicht ganz so hoher Verfügbarkeitsanforderung stellt sich u.U. die Frage, was billiger ist: teureres Equipment oder teureres Personal. Kleinere effizientere IT mit etwas höheren Invest- und Wartungskosten, oder mehr Personal mit billigerem Gerät. Von oben gesehen ist die erste Variante empfehlenswert. Wobei guten Equipment nicht selten 10 Jahre im Einsatz ist, hab da überwiegend gute Erfahrungen. Die letzten Jahre läuft das dann manchmal in anderer Funktion ohne Wartung, denn wenn man die nicht einzeln beschafft, dann sortiert man 1-2 der gleichen Kisten als Ersatz aus und besorgt sich Ersatzteile auch mal bei ebay. Aber die werden dann nur dort eingesetzt, wo es nicht auf die erwähnten paar Stunden ankommt. Anno Intel P4 gab es mal ein paar Anwendungen, die auf AMD super liefen, auf den P4 aber hundsmiserabel. AMD gab es aber damals nur beim PC Händler um die Ecke. Qualitätsunterschied und Haltbarkeit waren extrem verschieden. > Unter Server versteht jeder halt etwas anders. Yep.
:
Bearbeitet durch User
hardwarebastler schrieb: > Mir ist aufgefallen, dass sämtliche 19-Zoll Leergehäuse dem Aufbau eines > klassischen Desktop folgen Es gibt schon 19" Gehäuse mit Front IO, als Industrie PCs z.B. bei Abeco: http://www.abeco.de/produktkatalog?page=shop.browse&category_id=70 Oder auch Advantech hat solche Kisten. Die liefern allerdings nicht an Privatleute.
A. K. schrieb: > Sheeva P. schrieb: >> Bei Dell jedenfalls nicht. ;-( > > Direkt aus dem aktuellen Programm: > http://i.dell.com/das/dih.ashx/673w/das/xa_____/global-site-design%20WEB/f07c54cc-ce4f-c986-20b5-0fa1b0c35090/1/OriginalJPG?id=Dell/Product_Images/Dell_Enterprise_Products/Enterprise_Systems/PowerEdge/PowerEdge_R220/pdp/server-poweredge-r220-pdp-love-07.jpg > http://i.dell.com/das/dih.ashx/673w/das/xa_____/global-site-design%20WEB/02340059-376a-56f9-695e-d961525b4c98/1/OriginalJPG?id=Dell/Product_Images/Dell_Enterprise_Products/Enterprise_Systems/PowerEdge/Poweredge_R820/Overview/servers-poweredge-r820-pdp-1.jpg Kewl, danke. Da muß ich wohl mal mit meinem Chef reden. ;-)
A. K. schrieb: > Aber auch in Fällen mit nicht ganz so hoher Verfügbarkeitsanforderung > stellt sich u.U. die Frage, was billiger ist: teureres Equipment oder > teureres Personal. Kleinere effizientere IT mit etwas höheren Invest- > und Wartungskosten, oder mehr Personal mit billigerem Gerät. Von oben > gesehen ist die erste Variante empfehlenswert. Naja, der Trend, der sich im HA- und HP-Umfeld in den letzten paar Jahren abzeichnet, geht jedenfalls von den wenigen fetten, teuren Büchsen hin zu Clustern von vielen kleinen Maschinchen. Verteilte Dateisysteme wie Ceph und GlusterFS, verteilte Anwendungen wie Apache Storm, Apache Gearpump oder Twitter Heron fürs Streamprocessing in Realtime, Microbatching-Systeme wie Apache Spark oder ausgewachsene Batchapplikationen wie jene aus dem Apache Hadoop-Umfeld, das geht alles schon deutlich in eine Richtung, ebenso die Datenbankwelt mit Oracle-Cluster und Postgres-XL. Und dazu kommen noch die verteilten Datastores aus dem NoSQL-Bereich, wie Elasticsearch, MongoDB oder Redis, die die traditionellen SQL-Datenbanken in einigen Bereichen ergänzen und teilweise sogar ablösen. In unserem Umfeld (HP-Computing zur Betrugsprävention bei Versicherungen, Banken und Zahlungsprozessoren) werden dicke Maschinen heute zwar immer noch genutzt, aber meistens nur als Virtualisierungsträger. Unterdessen sehe ich in den letzten Jahren immer mehr Cluster aus kleinen Maschinchen, die einfach mehr "Bang per Buck" liefern, einfach und preiswert von der Stange zu beschaffen sind, und bei wichtigen Themen wie Ausfallsicherheit und Skalierbarkeit erhebliche, häufig entscheidende Vorteile bieten. Und sobald eine gewisse Größenordnung überschritten wird, ist das häufig auch ökonomisch die effizientere Lösung.
Sheeva P. schrieb: >> Kleinere effizientere IT mit etwas höheren Invest- >> und Wartungskosten, oder mehr Personal mit billigerem Gerät. > > Naja, der Trend, der sich im HA- und HP-Umfeld in den letzten paar > Jahren abzeichnet, geht jedenfalls von den wenigen fetten, teuren > Büchsen hin zu Clustern von vielen kleinen Maschinchen. Eindeutig, so läufts auch. Nur meinte ich mit besseren Maschinen keine dicken fetten Maschinen, sondern bezog das auf die Qualität. Ausfälle kosten auch dann Arbeit, wenn die Verfügbarkeit trotzdem gewährleistet ist. Die dicksten haben 2 CPU-Sockel - das war mal anders. Muss allerdings als VM-Host genug RAM reinpassen. HP ist wiederum eine andere Baustelle. Für einen Schrank mit zig gleichen Rechnern für Lastaufteilung besteht bei uns kein Bedarf. Dafür aber Unmengen von verschiedensten überwiegend harmlosen Anwendungen/Webpräsenzen, die sich in der Virtualisierung tummeln.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.