Forum: PC Hard- und Software Hyper V - VM - Festplatte?


von Apfel (Gast)


Lesenswert?

Hallo,

ich verstehe nicht ganz die Funktionalität von virtuellen Festplatten.
Ich habe eine SQL Datenbank diese soll eigentlich immer auf einer 
eigenständigen Festplatte laufen.

Heißt das: A ich binde eine physikalische Festplatte für die VM ein?
oder B kann ich auch eine zweite virtuelle Festplatte einbinden?

Danke

von (prx) A. K. (prx)


Lesenswert?

Apfel schrieb:
> Ich habe eine SQL Datenbank diese soll eigentlich immer auf einer
> eigenständigen Festplatte laufen.

Sagt wer? Obacht: Manche bezeichnen D: als Festplatte, egal wo und 
worauf es liegt, verwechseln das also mit einem Filesystem.

Ich würde es mal so formulieren: Eine intensiv genutzte Datenbank, die 
auf einer HDD platziert wird, sollte wenns geht nicht zusammen mit 
anderen intensiv auf Disk zugreifenden Anwendungen auf der gleichen HDD 
landen. Wenn die VM aber eine VDisk auf SSD verwendet, kannst du solche 
Tips von anno dunnemal getrost ignorieren.

: Bearbeitet durch User
von svensson (Gast)


Lesenswert?

Kommt auf die Datenbank an, die gibt es von klein bis riesig.

Eine große, produktive Datenbank würde ich ohnehin niemals in einer VM 
laufen lassen, weil die VM leicht selbst ein Flaschenhals werden kann. 
Von Ausfallsicherheit und Managementproblemen ganz zu schweigen...

Natürlich kann eine VM auch mehrere vDisks haben, die auch als 
virtuelles RAID konfiguriert sein können. Manche Hostsysteme können auch 
dedizierte Hardware an die VMs "durchreichen", z.B. Netzwerkkarten oder 
auch Laufwerke. Das ist allerdings immer von vielen Faktoren abhängig, 
u.a. OS, Treiber, Hardware und nicht zuletzt der 
Virtualisierungssoftware selbst.

Wenn die Datenbank langfristig gebraucht wird, dann würde ich von 
Virtualisierungen stark abraten, zumal die ganze Software meistens mehr 
kostet als ein zusätzlicher physischer Server.

Für Testumgebungen oder kleine, wenig belastete Systeme (die aus welchen 
Gründen auch immer getrennt werden sollen) hingegen ist die 
Virtualisierung ideal.

von Icke ®. (49636b65)


Lesenswert?

Eine virtuelle Festplatte ist nichts weiter als eine Datei, die wiederum 
auf einem physischen Laufwerk des VM-Hostes liegt. Auf welchem 
Hostlaufwerk, läßt sich i.d.R. frei konfigurieren oder später auch 
verschieben, der virtuelle Server bekommt davon nichts mit. Es kann 
durchaus Sinn machen, die virtuellen Platten auf verschiedene physische 
Hostlaufwerke zu legen, wenn die virtuellen Server sehr plattenlastig 
arbeiten. Wie A.K. schon richtig bemerkt hat, spielen die Zugriffszeiten 
bei SSDs kaum eine Rolle, aber bei klassischen HDDs sieht das anders 
aus. Und wenn häufig sehr große Dateien bewegt werden müssen, rückt auch 
die Dauertransferrate ins Licht. Das Ganze ist extrem 
verwendungsabhängig, Pauschaltips sind eher schwierig.

von guest (Gast)


Lesenswert?

svensson schrieb:
> zuletzt der Virtualisierungssoftware selbst.

Er sprach doch explizit von Hyper-V.
Und ja, das kann auch komplette physikalische Laufwerke in den Gast 
reinreichen, was bei einer DB aus Performancegründen durchaus sinnvoll 
sein kann. Für große DBs würde sich eventuell sogar SAN anbieten.

von (prx) A. K. (prx)


Lesenswert?

svensson schrieb:
> Eine große, produktive Datenbank würde ich ohnehin niemals in einer VM
> laufen lassen, weil die VM leicht selbst ein Flaschenhals werden kann.
> Von Ausfallsicherheit und Managementproblemen ganz zu schweigen...

Was ist für dich "gross"? Zudem sind "gross" und "hoch belastet" 
unabhängige Parameter.

Ausfallsicherheit und Management kann in VMs einfacher implementiert 
sein, als direkt auf realer Hardware.

> Wenn die Datenbank langfristig gebraucht wird, dann würde ich von
> Virtualisierungen stark abraten, zumal die ganze Software meistens mehr
> kostet als ein zusätzlicher physischer Server.

Man sollte die Gesamtsituation betrachten. Hat man hunderte von VMs auf 
einer Handvoll Virtualisierungshosts laufen, mit VDisks auf NAS/SAN? 
Oder geht es um 2 Server insgesamt, mit lokalen Disks?

Wir haben mittlerweile sämtliche selbst gehosteten DBs auf einem 
zentralen hochverfügbaren Storage-System und sämtliche DB-Server in der 
Virtualisierung. Teils über VDisks auf NFS, teils über NFS direkt.

: Bearbeitet durch User
von Icke ®. (49636b65)


Lesenswert?

svensson schrieb:
> Eine große, produktive Datenbank würde ich ohnehin niemals in einer VM
> laufen lassen, weil die VM leicht selbst ein Flaschenhals werden kann.

Virtualisierung ist Stand der Technik und funktioniert mittlerweile sehr 
stabil und performant. Ich habe gerade erst ein konventionelles System 
aus mehreren (Blech-)Servern (1x DC/Fileserver, 1x SQL-Server, 4x 
Terminalserver) virtualisiert. Jetzt läuft alles auf einem einzigen 
physischen Server, ohne Performanceeinbußen. Im Gegenteil, die gefühlte 
Arbeitsgeschwindigkeit hat sich sogar verbessert, wozu die SSDs für 
System und Programme sicher beitragen. Als Datengrab dient aus 
Kostengründen ein RAID10 aus 8 klassischen HDDs.

> Von Ausfallsicherheit und Managementproblemen ganz zu schweigen...

Das ist eher ein Argument PRO Virtualisierung. Redundanz läßt sich 
wesentlicher einfacher realisieren und das Management erst recht. Mal 
schnell einen (virtuellen) Server sichern? Einfach die virtuellen 
Festplatten irgendwohin kopieren. Geht problemlos auch per Fernwartung. 
Keine Turnschuhadministration mit Imaging-Software oder Streß mit 
RAID-Controllern mehr. Hardwaretausch nötig? Virtuelle Maschinen und 
Platten sichern, Host neu aufsetzen, alles zurückkopieren, fertig. Kein 
Streß mit nicht booten wollenden Maschinen oder Treiberinstallationen.

> Wenn die Datenbank langfristig gebraucht wird, dann würde ich von
> Virtualisierungen stark abraten, zumal die ganze Software meistens mehr
> kostet als ein zusätzlicher physischer Server.

Siehe vorstehend, Performanceprobleme sind nicht zu befürchten. Und 
Kosten auch nicht. Hyper-V ist Bestandteil jeder Standard Windows-Server 
Lizenz. Mit einer einzigen Lizenz dürfen sowohl der Host als auch zwei 
virtuelle Server betrieben werden. Und eine weitere Lizenz kostet nicht 
mehr als ein Desktop-Rechner.

von (prx) A. K. (prx)


Lesenswert?

Apfel schrieb:
> Ich habe eine SQL Datenbank diese soll eigentlich immer auf einer
> eigenständigen Festplatte laufen.

Immer sinnvoll: Produktive potentiell wachsende Daten mitsamt ihrer 
Temp- und Logfiles sollten auf einem separaten Filesystem liegen. Also 
in Windows sowas wie C: fürs System und D: (oder mehr) für die Daten. 
Weil voll laufende Daten dann nicht zum Problem für die Wartung vom 
System werden.

von Icke ®. (49636b65)


Lesenswert?

A. K. schrieb:
> Immer sinnvoll: Produktive potentiell wachsende Daten mitsamt ihrer
> Temp- und Logfiles sollten auf einem separaten Filesystem liegen. Also
> in Windows sowas wie C: fürs System und D: (oder mehr) für die Daten.

Und das Ganze natürlich auch auf getrennten virtuellen Festplatten, 
nicht etwa als Partitonen auf einer.

von svensson (Gast)


Lesenswert?

Ich habe nur meine Erfahrungen wiedergegeben.

Zu Zeiten des Virtualisierungshype habe ich auch mit Servern gearbeitet, 
deren Datenfestplatten im SAN lagen. Sogar Systeme mit virtuellen 
Bootplatten waren geplant. Alle nur 1HE hoch.
Es wurde damals sogar von oben vorgeschlagen, die DC zu virtualisieren, 
wovon selbst M$ abgeraten hat.

Ausfallsicherheit, Hochverfügbarkeit, Cluster. Alles schön und gut, 
jedenfalls solange bis der berühmte Murphy den single-point-of-failure 
gefunden hat, dann gibt es aber lange Gesichter.

Jedenfalls bin ich wieder zurück zu ganz stinknormaler Hardware von der 
Stange mit ganz stinknormalen RAID-Controllern und handelüblichen 
Festplatten. Sind natürlich immer noch CTO, aber aus lauter 
handelsüblichen Komponenten, die ggf. auch nachbeschaffbar sind.

Vielleicht werde ich aber auch langsam alt...

von (prx) A. K. (prx)


Lesenswert?

Das wird sicherlich kein zentrales Argument von Virtualisierung sein, 
aber angenehm ist es: Ein virtueller Linux-Server legt in 20 Sekunden 
einen vollständigen Reboot hin. Der Virtualisierungshost selbst braucht 
dafür 5 Minuten, die meiste Zeit geht in Selbsttests und Firmware von 
I/O-Modulen drauf.

Das erspart so manche Überstunde. Etliche VM kann ich bei dieser kurzen 
Unterbrechung zu günstigen Zeiten tagsüber aktualisieren, ohne dass es 
gross auffällt. Um den Host selbst zu aktualisieren, schiebe ich seine 
VMs unterbrechungsfrei auf seine Kollegen und habe ihn dann frei.

von (prx) A. K. (prx)


Lesenswert?

svensson schrieb:
> die DC zu virtualisieren, wovon selbst M$ abgeraten hat.

Ja, aber das ist Vergangenheit. Heute kein Problem mehr. Einer der 
AD-Server liegt bei uns nur deshalb direkt auf übrig gebliebener alter 
Hardware, damit man im Extremfall kein Münchhausen sein muss. Bei AD/DNS 
und DHCP wärs besser, wenn man vorneweg rankommt. Wir werden diese 
redundanten Sekundärserver aber wahrscheinlich auf einen separaten und 
voll selbständigen kleinen Virtualierungshost konzentrieren.

> jedenfalls solange bis der berühmte Murphy den single-point-of-failure
> gefunden hat, dann gibt es aber lange Gesichter.

Mit Virtualisierung löst man die Verfügbarkeitsfrage einmal, indem man 
Virtualisierungsplattform bis runter zu Storage und Netzwerk 
entsprechend auslegt. Ohne Virtualisierung löst man sie für jeden Server 
erneut, und möglicherweise bei jedem auf andere Art. Ist natürlich eine 
Frage der Grösse der Umgebung.

: Bearbeitet durch User
von svensson (Gast)


Lesenswert?

> Wir werden diese Funktionen aber wahrscheinlich auf einen separaten und
> voll selbständigen Virtualierungshost konzentrieren.
Die Ironie in diesem Satz bleibt Dir hoffentlich nicht verborgen...

Da kann man eben auch gleich einen physischen Server nehmen, bei dem die 
Komplexität mit der Virtualisierung entfällt.

Und ich würde gerne sehen, wie die 50 TB eines Fileservers schnell von 
einer VM zur anderen transferiert werden.

> Mit Virtualisierung löst man die Verfügbarkeitsfrage einmal, indem man
> Virtualisierungsplattform bis runter zu Storage und Netzwerk
> entsprechend auslegt.

Klingt nach Consultant, da ist immer alles kein Problem.

> Ist natürlich eine Frage der Grösse der Umgebung.

Und vor allem eine Frage des Geldes.

von (prx) A. K. (prx)


Lesenswert?

svensson schrieb:
>> Wir werden diese Funktionen aber wahrscheinlich auf einen separaten und
>> voll selbständigen Virtualierungshost konzentrieren.

> Die Ironie in diesem Satz bleibt Dir hoffentlich nicht verborgen...

Wenn man mehrere ADCs und DHCPs hat, und jeweils einer davon auf Blech 
liegt, kann man dieses Blech auf einen separaten Virtualisierungshost 
mit lokalen Disks legen, ohne dass die Verfügbarkeit zu riskieren. 
Wichtig ist dabei nur, dass dieser Host unabhängig von NAS und der 
übrigen VMware-Infrastruktur ist.

> Da kann man eben auch gleich einen physischen Server nehmen, bei dem die
> Komplexität mit der Virtualisierung entfällt.

Wenn es bei einem einzigen bleibt...

> Und ich würde gerne sehen, wie die 50 TB eines Fileservers schnell von
> einer VM zur anderen transferiert werden.

Der Fileserver ist ein hochverfügbares NAS, das sich redundant auf 2 
getrennte Gebäude verteilt. Als Fileserver wird er direkt verwendet, die 
VDisks der VMs liegen dort via NFS. Crasht ein Virtualisierungshost, 
werden dessen kritische VMs automatisch auf den anderen Hosts neu 
gestartet.

Verschoben wird für Wartung eines Hosts nur der laufende Kontext einer 
VM, nicht deren Disks, so dass es bei einer laufenden VM je nach 
Aktivität nur Sekunden bis wenige Minuten dauert und dabei vom Anwender 
nicht bemerkt wird. Solche Migration findet zwecks Load Balancing auch 
automatisch im Normalbetrieb statt.

> Klingt nach Consultant, da ist immer alles kein Problem.

Bin Anwender seit VMware ESXi 1.5

>> Ist natürlich eine Frage der Grösse der Umgebung.
>
> Und vor allem eine Frage des Geldes.

Grösse und Geld gehen Hand in Hand. Neben Beschaffungs- und 
Wartungskosten spielen aber auch Gehälter eine Rolle. Virtualisierung 
spart Admins. In grösseren Umgebungen ist das günstiger als hunderte 
Server in Blech.

Zudem spielt natürlich auch eine Rolle, mit welcher Ausfallzeit man 
leben kann. Wenn einem Bäcker abends zentrale Geräte abrauchen und 
sämtliche Filialen tags drauf nix zum beissen anbieten können, fällt das 
unangenehm auf. Stellt man Streichhölzer her, kann man das gelassener 
angehen.

: Bearbeitet durch User
von svensson (Gast)


Lesenswert?

Wir "produzieren" nur heiße Luft. ;-))

von Icke ®. (49636b65)


Lesenswert?

svensson schrieb:
> Ausfallsicherheit, Hochverfügbarkeit, Cluster. Alles schön und gut,
> jedenfalls solange bis der berühmte Murphy den single-point-of-failure
> gefunden hat, dann gibt es aber lange Gesichter.

Man kann die Systeme durchaus vollständig redundant auslegen, sodaß der 
Ausfall einer beliebigen Komponente nicht zur Beinträchtigung des 
laufenden Betriebes führt. Ja, das kostet Geld und ja, das kostet 
Hirnschmalz. Deswegen wird es nur in Umgebungen gemacht, wo 
Hochverfügbarkeit wirtschaftlicher ist als die Inkaufnahme von 
Ausfallzeiten. Alle anderen Systeme haben ganz zwangsläufig SPOFs. In 
einer virtualisierten Umgebung streikt die Hardware des VM-Hostes, 
System fällt aus. In einer konventionellen, nicht redundanten Umgebung 
streikt der Domänencontroller, System fällt aus. Der Datenbankserver 
streikt, alle darauf basierenden Anwendungen fallen aus (geht also nicht 
mehr viel außer im Internet surfen). Der Terminalserver streikt, System 
fällt aus, außer man hat mehrere TS. Macht für die Verfügbarkeit also 
keinen Unterschied, ob virtualisiert oder Blech. Interessant wird es bei 
der Wiederherstellung des Systems. Habe ich Carepacks für die 
Serverhardware, rufe ich beim Support an und die kümmern sich um die 
Reparatur. Habe ich keine Carepacks, muß ich bei klassischem Blech 
entweder Ersatzteile vorhalten oder diese kurzfristig beschaffen können. 
Letzteres kann schon nach wenigen Jahren zum Problem werden. Besorg mal 
Ersatz für ein drei Jahre altes Servermainboard. Inzwischen haben sich 
die CPU-Sockel geändert und meist sind auch die RAM-Module nicht 
kompatibel. Du mußt also neuere Hardware verbauen, die andere Treiber 
erfordert und hast oft Streß, den Server wieder zum Hochfahren zu 
überreden (ja, ich kenne das). Hast du obendrein keine 
Baremetal-Sicherung und es geht richtig schief, dann gute Nacht.
Mit virtualisierten Servern ist neue Hardware völlig unkritisch. 
Lediglich der Host muß installiert werden, das dauert im Normalfall 
keine Stunde. Danach die VMs wieder drauf und los gehts. Im Extremfall 
kann ich sogar einen Notbetrieb auf Desktophardware improvisieren.
Die technischen Vorteile der Virtualisierung überwiegen ganz klar. Und 
sie spart noch dazu Kosten. Denn ich brauche sowohl weniger physische 
Maschinen als auch weniger Lizenzen, denn auf Blech benötigst du für 
jeden Server eine separate Lizenz, bei VMs genügt eine für zwei 
virtuelle Server.
Mir fällt echt kein Argument ein, weshalb man heutzutage nicht 
virtualisieren sollte.

von svensson (Gast)


Lesenswert?

> In einer konventionellen, nicht redundanten Umgebung streikt der
> Domänencontroller, System fällt aus.

Falsch DC, DHCP und DNS existieren redundant als physische Maschinen. 
Ja, einzelne Dienste können ausfallen, aber die meisten bleiben 
funktionsfähig. Und die HPC-Server zu virtualisieren wäre völlig absurd.

> Ersatzteile vorhalten oder diese kurzfristig beschaffen können

Genau deshalb habe ich z.B. die Festplatten lagernd. Gerade habe ich 
vier Maschinen ausgemustert, die satte 10 Jahre in Betrieb waren - okay, 
die meisten Platten waren nicht so alt.

> Mit virtualisierten Servern ist neue Hardware völlig unkritisch.
Und dann ist die neue Hardware plötzlich nicht mehr für die alten 
Versionen zertifiziert (oder es fehlen gar Treiber) und für die neuen 
braucht man neue Lizenzen, die dann aber leider die alten OS nicht mehr 
unterstützen. Auch hier gibt es viele Fallstricke.

> Und sie spart noch dazu Kosten.
Was zu beweisen wäre. Meist ist die "ausfallsichere Hardware" deutlich 
teurer als zwei Standardgeräte. Lizenzen bekomme ich umsonst, das ist 
kein Argument. Wenn womöglich noch "Externe" eingekauft werden müssen, 
dann wird das richtig teuer.

von Icke ®. (49636b65)


Lesenswert?

svensson schrieb:
> Falsch DC, DHCP und DNS existieren redundant als physische Maschinen.

Natürlich kann man auch in virtualisierter Umgebung noch einen 
physischen Backup-DC integrieren. Da sind wir aber schon auf dem Weg 
Richtung Redundanz.

> Ja, einzelne Dienste können ausfallen, aber die meisten bleiben
> funktionsfähig.

Bei den meisten meiner Kunden bewirkt schon der Ausfall nur eines 
wichtigen Servers annähernde Arbeitsunfähigkeit. Ohne Fileserver keinen 
Zugriff auf Userprofile und allgemeine Daten, ohne Datenbankserver keine 
Arbeit mit der Branchensoftware und ohne Terminalserver auch nicht. Mit 
einem Backup-DC können sich die Leute noch anmelden, es nützt ihnen aber 
nichts.

> Genau deshalb habe ich z.B. die Festplatten lagernd.

Festplatten sind nicht das Thema, da leicht beschaffbar. Größer als die 
alte geht immer. Aber hast du auch Mainboards, Speicherriegel und 
Controller auf Lager?

> Und dann ist die neue Hardware plötzlich nicht mehr für die alten
> Versionen zertifiziert (oder es fehlen gar Treiber)

Der Supportzeitraum für Betriebssysteme ist i.d.R. wesentlich länger als 
der Produktlebenszyklus von Hardware. CPU- und Mainboardgenerationen 
werden gewöhnlich nach 2-3 Jahren obsolet und baugleiche Mainboards sind 
oft schon nach wenigen Monaten nicht mehr erhältlich. Für Windows 
Betriebssysteme läuft die Unterstützung mindestens 5 Jahre, praktisch 
eher 10 Jahre. Für die virtuellen Maschinen spielt es außerdem keine 
Rolle, auf welcher Hardware und unter welchem OS der Hypervisor läuft, 
solange er die gleiche virtuelle Umgebung emuliert.

> Auch hier gibt es viele Fallstricke.

Nicht wirklich viele. Auf jeden Fall um Größenordnungen weniger als bei 
physischen Maschinen.

> Was zu beweisen wäre. Meist ist die "ausfallsichere Hardware" deutlich
> teurer als zwei Standardgeräte.

Was ist ausfallsicher? Redundante Netzteile und Festplatten sollten bei 
Servern selbstverständlich sein, alles andere ist ohnehin nur einmal da. 
Natürlich kommt ein fetter, als VM-Host geeigneter Server teurer als ein 
anwendungsspezifischer und weniger leistungsfähiger. Aber bei rein 
physischer Struktur brauchst du eben für jeden Server ein eigenes Blech. 
Und die werden in der Summe wieder teurer als der dicke Brummer.

> Lizenzen bekomme ich umsonst, das ist kein Argument.

Das ist für dich kein Argument, für den normalen Anwender schon. Siehe 
meinen oben beschriebenen Praxisfall. Für 6 physische Server müßte ich 6 
Lizenzen kaufen. Bei einem physischen Gerät und 6 VMs brauche ich nur 
drei. Ergibt eine Ersparnis von fast 2000€ allein bei den Lizenzen.

> Wenn womöglich noch "Externe" eingekauft werden müssen,
> dann wird das richtig teuer.

Firmen ohne eigenen Admin müssen das unabhängig von der Struktur 
sowieso. Die Zeiten, wo ein Mitarbeiter, "der was von Computern 
versteht", das System nebenbei administrieren konnte, sind schon lange 
vorbei. Da Virtualisierung den Administrationsaufwand verringert, ergibt 
sich auch hier Kostenreduzierung.

von (prx) A. K. (prx)


Lesenswert?

Icke ®. schrieb:
> Natürlich kommt ein fetter, als VM-Host geeigneter Server teurer als ein
> anwendungsspezifischer und weniger leistungsfähiger. Aber bei rein
> physischer Struktur brauchst du eben für jeden Server ein eigenes Blech.
> Und die werden in der Summe wieder teurer als der dicke Brummer.

Heutige Prozessoren sind sehr oft wesentlich leistungsfähiger als 
einzelne Server benötigen. Ob ADC oder DHCP auf 2 Cores oder 4 läuft 
merkt niemand, weshalb man auf einem Minimal-Host mit 4 Cores - kleiner 
gibts schon lange nicht mehr - etliche VMs betreiben kann. Dicker wird 
nur das RAM.

Wenn alle VMs einer nicht-trivialen Umgebung einzeln als Blech 
implementiert werden, dann steckt sehr viel mehr Geld drin als in einem 
diese Umgebung abdeckenden Virtualisierungshost (*). Jedes Stück Blech 
hat dann mindestens 4 sich meist langweilende Cores, 3 
Netzwerkanschlüsse (1x Management, 2x Anbindung), 2 Netzteile, genug 
Switches für die Netzwerk-Anschlüsse, Racks fürs Blech, Platz für die 
Racks, dicke Kabelbündel und Patchpanels, ...

Der Virtualisierungshost dafür hat 1-2 HEs, keine Bootdisk (µSD oder 
USB-Stick), 3-5x Netzwerk, dafür aber genug RAM. Als ich das letzte mal 
nachsah, kriegte man in einen normalen 1 HE Server 1,5 TB RAM rein. Als 
einzelnen Server kriegt man heute wohl kaum etwas unter 8 GB, ob man die 
braucht oder nicht. Dem DHCP-Server reichen aber 2 GB locker aus. Somit 
ist auch die Summe an RAM virtualisiert geringer als in Blech, noch 
völlig ohne Deduplication von RAM und Paging auf Hypervisor-Ebene 
gerechnet.

*: Betriebssystem-Kosten auch. Mit Windows als Datacenter-Edition sind 
alle VMs eines Hosts abgedeckt, und bei Linuxen wie Redhat oder Suse 
sieht es ähnlich aus. Nur Oracle sollte man grossräumig umfahren, deren 
Lizenzierung ist einfach nur grotesk.

: Bearbeitet durch User
von svensson (Gast)


Lesenswert?

> Hardware
In den letzten 10 Jahren hatte ich nur Festplatten (davon aber 
reichlich), Netzteile und Lüfter als Ausfälle.* NT+Lüfter bekomme ich am 
nächsten Tag. Die Festplatten haben ohnehin 5 Jahre Garantie, d.h. die 
lagernden werden eingesetzt und die Austauschplatten kommen am nächsten 
Tag.

Und natürlich laufen AD, DHCP und DNS zusammen auf jeweils einer 
physischen Maschine. Da sind dann auch noch die PS und die /homes, damit 
sich die Maschinen nicht zu sehr langweilen.

Trotzdem bleibe ich bei etwa 20 physikalischen Servern.

> Jedes Stück Blech hat dann mindestens 4 sich meist langweilende Cores
Die HPC haben bis zu 40 Cores.

> 3 Netzwerkanschlüsse (1x Management, 2x Anbindung)
Na und? Die kosten doch nichts, weil auf dem Mainboard enthalten. 
Wohingegen eine 4-Port-ESX-fähige schon einmal 1000 Euro kosten kann.

> 2 Netzteile
Zwei Netzteile und zwei Strompfade sind bei uns ohnehin Standard.

> genug Switches für die Netzwerk-Anschlüsse, Racks fürs Blech,
> Platz für die Racks
Der Serverraum ist ohnehin vorhanden. Und ein managebarer Switch pro 
Rack ist selbst von CISCO aus der Portokasse bezahlbar. Und ein/zwei 
Kabel pro Server ist noch kein Kabelbündel...

> Firmen ohne eigenen Admin müssen das unabhängig von der Struktur sowieso.
Ja, aber der "Virtualisierungsexperte" ist eben teurer als der normale 
Admin. Und wenn dann alle drei Jahre die teure Hardware erneuert werden 
muß, weil ja kein Support mehr da ist und alle Dienste auf einer 
Maschine vereint zu gefählich sind, dann landet die ganze Matsche 
schließlich in der Cloud -> Admin überflüssig.


* Nur im SAN ist ein Mainboard kaputtgegangen, das dann wochenlang um 
den Globus unterwegs war = da standen dann die virtualisierten 
Maschinen.

von (prx) A. K. (prx)


Lesenswert?

svensson schrieb:
>> 3 Netzwerkanschlüsse (1x Management, 2x Anbindung)

> Na und? Die kosten doch nichts, weil auf dem Mainboard enthalten.

Auf der Server-Seite nicht. Dafür aber auf der anderen Seite, also in 
Form von Switch-Ports und Verkabelung. Das läppert sich.

> Wohingegen eine 4-Port-ESX-fähige schon einmal 1000 Euro kosten kann.

Wenn man unterhalb der oben beschriebenen Enterprise-Umgebung in der 
Zentrale bleibt, reicht das aus, was der Server mitliefert. In 
Aussenstellen steckt die kleinste Kiste, die damals verfügbar war: 4 
gelangweilte Cores und von 3 Ethernets onboard werden nur 2 genutzt.

Die in der Zentrale sind etwas besser ausgerüstet, aber wenn du einige 
hundert aktive VMs auf einer Handvoll Hosts laufen lässt, sind auch die 
Kosten für 2x 10Gb Ethernet pro Host drin.

> Der Serverraum ist ohnehin vorhanden.

Einer davon wurde vor ein paar Jahren halbiert, weil Platz knapp und 
dank Virtualisierung und zentralem Storage halb leer.

> Und ein managebarer Switch pro
> Rack ist selbst von CISCO aus der Portokasse bezahlbar. Und ein/zwei
> Kabel pro Server ist noch kein Kabelbündel...

Bei einigen hundert Servern?

> Und wenn dann alle drei Jahre die teure Hardware erneuert werden
> muß, weil ja kein Support mehr da ist

Gekauft mit 5 Jahren Support. Es gibt Firmen, die Hardware-Service 
darüber hinaus anbieten und das nutzen wir auch. Die älteren der 
zentralen Hosts haben CPUs von 2012. Dem geplanten Ersatz kam Spectre in 
die Quere, statt dessen kamen 2 in anderer Rolle ausgemusterte Altserver 
hinzu.

Bei den Servern der Aussenstellen lebte die letzte Generation 10 Jahre. 
Bei zweistelliger Anzahl hat man dann eben Reserve im Lager.

Ersatzteile und Erweiterungskomponenten für ältere Server gibts günstig 
bei Ebay und anderen Leichenfledderern, wenn nicht zu exotisch. Haben 
wir auch schon öfter genutzt.

> Maschine vereint zu gefählich sind, dann landet die ganze Matsche
> schließlich in der Cloud -> Admin überflüssig.

Yep. Kenne ich aus anderer Firma gleicher Branche und Grössenordnung. 
Wer braucht schon immer Festnetztelefonie (ist in der Cloud), notfalls 
wird halt gemailt oder gechattet. Und für den Fall, dass das auch in der 
Cloud ist gibts Mobiltelefone. Zum fairen Ausgleich ist das teuer als 
bei uns und wird mit grösserer Mannschaft betrieben. ;-)

> * Nur im SAN ist ein Mainboard kaputtgegangen, das dann wochenlang um
> den Globus unterwegs war = da standen dann die virtualisierten
> Maschinen.

Wie Icke schon beschrieb: Wenn Host FUBAR und es ist eilig, dann nimmt 
man einen anderen. Muss nicht identische Hardware sein. Egal ob Intel 
oder AMD, nur bei der Live-Migration ist das wichtig.

: Bearbeitet durch User
von Icke ®. (49636b65)


Lesenswert?

svensson schrieb:
> Ja, aber der "Virtualisierungsexperte" ist eben teurer als der normale
> Admin.

Kann ich nicht bestätigen. Ob ich ein AD auf einem physischen oder 
virtuellen Server aufsetze, nimmt sich vom Anspruch her nichts. Den 
Hypervisor zu installieren und die VMs anzulegen, ist jetzt auch nicht 
sooo kompliziert. Wer in der Lage ist, Netzwerke auf physischer Struktur 
zu administrieren, wird auch kein Problem damit haben, sich das für 
Virtualisierung nötige Zusatzwissen nebenbei autodidaktisch anzueignen. 
Jedenfalls sind die Stundensätze bei mir die gleichen, egal ob physisch 
oder virtuell.

> Und wenn dann alle drei Jahre die teure Hardware erneuert werden
> muß, weil ja kein Support mehr da ist und alle Dienste auf einer
> Maschine vereint zu gefählich sind, dann landet die ganze Matsche
> schließlich in der Cloud -> Admin überflüssig.

Wenn aus Kostengründen Dienste in die Cloud verlagert werden, ist 
bestimmt nicht die Virtualisierung schuld. Denn die ist im Endeffekt 
billiger als eine Blechfarm. Allerdings könnten sich Admins, die nicht 
mit der Zeit gehen, entbehrlich machen ;-)

von svensson (Gast)


Lesenswert?

> aber wenn du einige hundert aktive VMs auf einer Handvoll Hosts laufen
> lässt

Da liegt der Hund begraben. Ich rede von 20 Servern und Du von 
hunderten.

> Switch-Ports und Verkabelung

Switchports kosten fast nichts, bei unseren Geräten im Rack etwa 10 Euro 
pro Port. Selbst der Core-Switch kostete nur 3.500 Euro bei 50 Ports. 
Kabel kosten unter 3 Euro, da ist fast schon die Beschriftung teurer als 
das Kabel selbst.

> sind auch 2x 10Gb Ethernet drin.

Bekam ich leider nicht genehmigt, da man Angst vor Folgekosten hatte: 
"Nachher wollen Sie noch einen Außenanschluß mit 10 Gigabit..."

> Administration
Damit meine ich jetzt nicht eine VM anzulegen und dort Win2012 zu 
installieren (einen VM-Server haben wir auch mit derzeit 4 VMs auf 
Linux), sondern das ganze Storage auszulegen. Unsere 175 Festplatten 
passen halt nicht in ein Home-NAS.

PS: Cloud ist bei uns verboten.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.