Ich würde in meinem neuen PC gern RAID 10 umsetzen. Habe ich das richtig verstanden, dass ich dafür mindestens vier SATA-Festplatten benötige? Theoretisch wäre doch dann dieses Board dafür geeignet, weil dort steht 4 x SATA? https://geizhals.de/biostar-a320mh-a1857862.html?hloc=at&hloc=de
:
Bearbeitet durch User
Mit welchem Betriebssystem? Und kannst Du dann von dem Raid10 auch booten? Und was versprichst Du Dir von dem RAID10? Warum keine SSD? fchk
:
Bearbeitet durch User
Torben S. schrieb: > Theoretisch wäre doch Praktisch sind ein paar Backup-Platten an sicheren Orten wertvoller, als ein verschwundener PC mit dem teuersten Raid. RAID schützt nicht vor tragischen Irrtümern und rm -r !!! Es hilft nur bei kranken Platten (falls diese nicht wie die Fliegen am gleichen Tag sterben) die Zuverlässigkeit etwas zu erhöhen. Je größer die Platten sind, desto länger kann ein Rebuild brauchen! Drei Tage sind durchaus möglich je nach Auslastung und Datenmenge.
Torben S. schrieb: > Ich würde in meinem neuen PC gern RAID 10 umsetzen. Warum? Wenn Verfügbarkeit an erster Stelle steht, nimmt man RAID-1. Wenn es viele Daten sind, eher RAID-5. > Habe ich das richtig > verstanden, dass ich dafür mindestens vier SATA-Festplatten benötige? Ja. > Theoretisch wäre doch dann dieses Board dafür geeignet, weil dort > steht 4 x SATA? Aber nur, wenn du sonst kein weiteres SATA Gerät betreiben willst. DVD-ROM oder -Writer evtl? Externe SATA-Platte für Backup? Und dann hat das auch den Nachteil, daß du das RAID so aufsetzen mußt, daß dein BIOS es erkennt und davon booten kann. In vielen Fällen ist es sinnvoller, eine einzelne Platte (SSD!) zum Booten des Betriebssystems zu verwenden und weitere Platten per Betriebssystem-Treiber zum RAID zu verknüppern. Da kommen dann die Daten drauf. Viele BIOSse haben gar eigenwillige Vorstellungen davon, wie ein RAID aufgebaut sein sollte und meist braucht das Betriebssystem dann spezielle Treiber, um so ein BIOS-RAID ansprechen zu können. Oder es geht vielleicht auch gar nicht, wenn der Board-Hersteller dein Betriebssystem nicht unterstützt.
Axel S. schrieb: > Warum? Wenn Verfügbarkeit an erster Stelle steht, nimmt man RAID-1. Wenn > es viele Daten sind, eher RAID-5. Und wenn man es sehr eilig hat nimmt man heute SSD(s) über NVMe/PCIe. RAID-10 per SATA löst Probleme von gestern.
:
Bearbeitet durch User
Problem bei RAID-10: Wenn eine Platte ausfällt, das Raid also degraded läuft oder rebuilded, liegt die meiste Last exakt auf der Platte die nicht ausfallen darf. In der Theorie verkraftet ein RAID10 den Ausfall von "1½ Platten", d.H. beim Zweiten Ausfall kann man Glück oder Pech haben. In der Realität hat man Pech. Ein bischen Optimieren lässt es sich, wenn man die Raid1-Pärchen im Raid10 mit verschiedenen Herstellern bildet. Aber im Endeffekt bringt Raid10 kaum Verbesserung in der Ausfallsicherheit ggü. Raid5. Ich würd da heute lieber ein Software-Raid6 nehmen. Da können immer zwei Platten ausfallen, Kapazitätsverlust ist wie beim Raid10, und aktuelle CPUs haben genug Kerne/Threads/Mhz, dass das bischen Checksummen-Berechnen nicht weiter auffällt. Und wenn die Geschwindigkeit wichtig ist: NVMe-SSD als Cache dazuschalten. Dafür taugt das Biostar a320mh leider nicht, hat keinen m.2 Steckplatz. Für ein paar € mehr: https://www.heise.de/preisvergleich/gigabyte-ga-a320m-s2h-a1742705.html?hloc=at&hloc=de
:
Bearbeitet durch User
Εrnst B. schrieb: > Problem bei RAID-10: Wenn eine Platte ausfällt, das Raid also degraded > läuft oder rebuilded, liegt die meiste Last exakt auf der Platte die > nicht ausfallen darf. Ja, schon mehrfach erlebt. Leistungseinbuße, Risiko, dass die andere HD aus der gleichen Serie auch noch stirbt und es ewig lange dauert bis alles wieder normal läuft.
Hier wird gesagt, dass man als Alternative SSD verwenden soll. Aber auch mit einer SSD kann man doch ein RAID 10 konfigurieren, oder liege ich hier falsch. Die Ausfallwahrscheinlichkeit ist doch bei den SSDs nicht unbedingt gering. Dass es so schwer ist, von einem RAID-Laufwerk zu booten hätte ich nicht gedacht. Schließlich ist RAID-Einstellungen heute fast Bestandteil jedes Mainboards.
Torben S. schrieb: > Hier wird gesagt, dass man als Alternative SSD verwenden soll. Aber auch > mit einer SSD kann man doch ein RAID 10 konfigurieren, oder liege ich > hier falsch. Die Ausfallwahrscheinlichkeit ist doch bei den SSDs nicht > unbedingt gering. Fehler 1: "mit einer SSD": Du brauchst 4 identische. Fehler 2: Die Ausfallursachen sind andere. Bei mechanischen Festplatten ist es meist die Mechanik, bei SSDs war es anfangs oft die Firmware. Mir sind schon einige Festplatten gestorben, aber bislang keine SSD. Fehler 3: Raid ist kein Backup. Raid erhöht die Verfügbarkeit, wenn Du darauf angewiesen bist, dass der Rechner niemals ausfällt. Das ist bei Dir eher nicht der Fall. Du nimmt eine neue Festplatte oder SSD, spielst Dein letztes Backup zurück, und weiter gehts. Als Backupmedium nimmst Du externe Festplatten (Plural), die Du zwecks Backup anklemmst, Backup durchführst, und dann wieder in den Schrank legst. Damit überlebt Dein Backup auch einen Blitzeinschlag. > Dass es so schwer ist, von einem RAID-Laufwerk zu booten hätte ich nicht > gedacht. Schließlich ist RAID-Einstellungen heute fast Bestandteil jedes > Mainboards. Fehler 4: s.o. fchk
Torben S. schrieb: > Ich würde in meinem neuen PC gern RAID 10 umsetzen. Habe ich das richtig > verstanden, dass ich dafür mindestens vier SATA-Festplatten benötige? ja > Theoretisch wäre doch dann dieses Board dafür geeignet, weil dort steht > 4 x SATA? > https://geizhals.de/biostar-a320mh-a1857862.html?hloc=at&hloc=de ja, unterstützt auch irgendwie (?) raid level. Was für Platten willst du denn benutzen? Ich habe grade 2 8TB Platten gekauft, und das vollschreiben einer dieser Platten dauert 15 Stunden - wichtig falls dir im RAID mal eine ausfällt und ein resync mit einer neuen Platte fällig wird. Wenn du das Geld übrig hast, schlage ich vor du baust den Rechner so wie du ihn haben willst (mit Raid), und ziehst im laufenden Betrieb mal eine Platte um zu sehen wie das System reagiert. Oder du lässt das mit dem RAID und schaffst dir eine geeignete Backuplösung an - Externe USB3(.1) Platten (Plural) zum Beispiel. So mache ich das, siehe Bild. Backupplatte 3 befindet sich momentan im Büro falls mir hier die Bude abfackelt - das wird rotiert.
Torben S. schrieb: > Hier wird gesagt, dass man als Alternative SSD verwenden soll. Aber auch > mit einer SSD kann man doch ein RAID 10 konfigurieren, RAID-10 verwendete man, weil es schneller als RAID-1 ist. Bei SSDs ist nicht aber so sehr die Disk der begrenzende Faktor, als vielmehr die einzelne Schnittstelle und die Summe der Schnittstellen. SSDs an SATA werden massgeblich durch dieses SATA begrenzt, weshalb man mit 2 guten Disk an NVMe/PCIe besser dran ist, als mit 4 an SATA. Und an solche Limits musst du auf einem Anwender-PC erst einmal real herankommen - nicht nur mit der Stoppuhr beim Benchmark. > Die Ausfallwahrscheinlichkeit ist doch bei den SSDs nicht > unbedingt gering. Nicht schlechter als HDD. Sorg bei einem Privat-PC lieber für einen Backup. Gegen gelöschte oder geransomwarete Disks hilft kein RAID.
:
Bearbeitet durch User
oszi40 schrieb: > Risiko, dass die andere HD > aus der gleichen Serie auch noch stirbt RAID ist sinnlos, wenn nicht eine defekte Platte SOFORT ausgetauscht wird. Dazu dient ja z.B. die EMail-Nachricht an den Administrator. Oder es ist schon eine Reserveplatte eingebaut, aber dazu fehlen dem TO dann wirklich die Schnittstellen. Georg
Ich hab' außerdem noch im Hinterkopf, dass vom Mainboard in Hardware unterstütztes RAID auch viel "Spaß" bereiten kann, wenn das Mainboard irgendwann mal ausgetauscht werden muss und auf dem neuen Exemplar dann ein anderer RAID-Controller werkelt, der das vorhandene RAID nicht erkennen möchte - auch für diesen Fall braucht man UNBEDINGT ein Backup. Ist das noch aktuell?
Matthias L. schrieb: > Ich hab' außerdem noch im Hinterkopf, dass vom Mainboard in Hardware > unterstütztes RAID auch viel "Spaß" bereiten kann, wenn das Mainboard > irgendwann mal ausgetauscht werden muss und auf dem neuen Exemplar dann > ein anderer RAID-Controller werkelt, der das vorhandene RAID nicht > erkennen möchte - auch für diesen Fall braucht man UNBEDINGT ein Backup. > > Ist das noch aktuell? Ja. Wobei Hardware-Raid bei PCIe in den meisten Fällen nicht mehr viel Sinn macht. Bei PCI hatte man ein Bandbreitenproblem, weil sich alle Geräte den PCI-Bus teilen mussten. Wenn man die RAID-Operationen auf den Controller verlagern konnte, hatte man einen deutlichen Geschwindigkeitsvorteil. PCIe ist aber kein Bus mehr, sondern eine Punkt-zu-Punkt Verbindung, die CPUs sind schnell genug, und inzwischen ist SATA zum Flaschenhals geworden, und man hängt die Speichermedien direkt an PCIe. Wenn das Board Bifurcation kann (also einen x16 Slot in 4 x4 Ports aufteilen), dann kann man sehr einfach 4 NVMe SSDs in einem Slot betreiben. Die meisten Gamerboards können das aber nicht. fchk PS: Die üblichen Broadcom/Avago/LSI 3008 SAS-Controller auf aktuellen Serverboards werden heutzutage meist als reiner HBA (also dummer Host Bus Adapter) betrieben, insbesondere wenn man nicht Windows fährt, sondern Linux oder FreeBSD mit ZFS.
:
Bearbeitet durch User
c.m. schrieb: > So > mache ich das, siehe Bild. Backupplatte 3 befindet sich momentan im Büro > falls mir hier die Bude abfackelt - das wird rotiert. Seit 09:43 frage ich mich, wie die Festplatten auf dem Foto eigentlich gehalten werden. "Backup 1" mag ja noch auf dem Regalboden stehen... aber die anderen beiden schweben ja! Sachen gibt's heutzutage...
Von oben aufgenommen, aber als von der Seite aufgenommen interpretiert, scheint vieles zu schweben. ;-)
:
Bearbeitet durch User
Aladdin schrieb: > Seit 09:43 frage ich mich, wie die Festplatten auf dem Foto eigentlich > gehalten werden. "Backup 1" mag ja noch auf dem Regalboden stehen... > aber die anderen beiden schweben ja! Sachen gibt's heutzutage... Heliumgefüllte Festplatten. Auf der untersten sind mehr Daten, deswegen schwerer.
Torben S. schrieb: > Hier wird gesagt, dass man als Alternative SSD verwenden soll. Das hast du falsch verstanden. Das sind keine Alternativen. > Dass es so schwer ist, von einem RAID-Laufwerk zu booten hätte ich > nicht gedacht. Es ist nicht schwer. Es ist halt nur so, daß du dafür das RAID von deinem BIOS zusammensetzen lassen mußt. > Schließlich ist RAID-Einstellungen heute fast Bestandteil jedes > Mainboards. Richtig. Nur kann das Betriebssystem mit dem, was das BIOS für ein RAID hält, mitunter eher wenig anfangen. Betriebssysteme greifen nicht mehr per BIOS auf die Hardware zu, sondern verwenden eigene (bessere, schnellere) Treiber. Das BIOS macht kaum mehr, als die Hardware zu initialisieren und den Bootloader des eigentlichen Betriebssystems zu laden. Danach ist es weg vom Fenster. Das bedingt, daß dein BIOS und das Betriebssystem sich einig darüber sein müssen, wie das RAID aufgebaut ist. Insbesondere, welches Format die Metadaten (Superblock) haben müssen. Wenn sie da nicht zusammenkommen, kann entweder das BIOS den Bootloader nicht laden oder das BIOS kriegt zwar den Booloader ins RAM, aber das Betriebssystem findet nachher den Rest des RAIDs nicht. Beides doof. A. K. schrieb: > RAID-10 verwendete man, weil es schneller als RAID-1 ist Nein. Wer bist du? Weiß der echte "A. K.", daß du seinen Account benutzt? RAID-10 hat weniger mit Geschwindigkeit zu tun, als damit, mehr als 2 Platten für entsprechend höhere Kapazität nutzen zu können. RAID-1 aka Mirror ist beim Schreiben so schnell wie eine einzelne Platte. Beim Lesen theoretisch schneller, wenn der RAID-Treiber die Zugriffe auf die Platten verteilt (macht er meist nicht). ABER: RAID-1 liefert nur die Kapazität der kleinsten Platte im RAID (praktisch sind die Platten genau deswegen gleich groß). Mehr als 2 Platten kann man verwenden, kriegt dadurch aber nicht mehr Kapazität, nur mehr Ausfallsicherheit. RAID-0 andererseits schreibt Blöcke immer wechselweise auf die Platten. Was sowohl beim Lesen als auch beim Schreiben die Geschwindigkeit erhöht. Und man kann im Prinzip beliebig viele Platten in ein RAID-0 packen und die Kapazität erhöht sich entsprechend. Problem: fällt eine Platte aus, fehlen überall im Datenbereich deren Blöcke. Im Normalfall sind dann alle Daten futsch (weil unvollständig). RAID-10 kombiniert beide Modi. Es werden immer zwei Platten zu einem RAID-1 zusammengefaßt. Und mehrere dieser RAID-1 "Platten" werden dann wie ein RAID-0 verschaltet. Man erhält so die halbe Gesamtkapazität aller verbauten Platten. RAID-4 ist komplizierter zu bedienen. Es verwendet n Festplatten und speichert auf n-1 Platten Nutzdaten und auf der letzten Platte eine Prüfsumme. Fällt eine der "Datenplatten" aus, sind die Daten aus der Prüfsumme rekonstruierbar. RAID-5 ist von der Logik her wie RAID-4, allerdings wird nicht mehr eine einzelne Platte für die Prüfsumme genutzt, sondern blockweise ist immer rundherum eine der n Platten für die Prüfsumme zuständig. Sowohl mit RAID-4 als auch mit RAID-5 darf eine der Platten ausfallen ohne daß man Daten verliert. Und man hat von der Gesamtkapazität von n Platten nur die Kapazität einer Platte Verlust. Wenn man viele Daten sicher speichern will, ist RAID-5 eigentlich das, was man will. Aber das Berechnen der Prüfsummen ist aufwendig und man hat sich lange Zeit nicht so recht getraut, das in einen Treiber (sei es Betriebssystem oder BIOS) zu packen. Deswegen dann RAID-10 als zweitbeste Lösung. Oder bei kleinen Datenmengen einfach nur RAID-1. Heutzutage ist RAID-10 eine Anachronie. Wenn man Datensicherheit will, dann entweder RAID-1 (wenig Daten) oder RAID-5 (viel Daten). Wenn man mehr als 4 Platten hat, will man eigentlich nicht RAID-5, sondern RAID-6. Aber darüber reden wir ein anderes Mal.
Bisher klang das nur am Rand an, daher nochmal deutlich: Guck dir mal ZFS an. Ein aktuelles Ubuntu kann das wunderbar. Moderne CPUs sind auch schnell genug um da so schnell schreiben zu können wie ein Gigabit Netzwerk Daten liefern kann. RAM ist auch billig. ZFS hat viele Vorteile, ich finde vor allem Checksummen sehr sinnvoll, die Funktion scrub mit der alle Daten überprüft und neu geschrieben werden was gegen Bitrot hilft und dann kann das noch Snapshots.
Axel S. schrieb: > RAID-10 hat weniger mit Geschwindigkeit zu tun, als damit, mehr > als 2 Platten für entsprechend höhere Kapazität nutzen zu können. Man kann Filesysteme über mehrere logische Platten verteilen, ohne auf RAID-10 zurückgreifen zu müssen: Spanning. Womit das Kapazitätsproblem abgehakt werden kann, ohne jenseits der Paarbildung von RAID-1 gleiche Typen zu benötigen.
:
Bearbeitet durch User
A. K. schrieb: > Man kann Filesysteme über mehrere logische Platten verteilen Kamikaze RAID nennt man das nicht ohne Grund. Wobei es eigentlich nur ein AID ist.
Gustl B. schrieb: >> Man kann Filesysteme über mehrere logische Platten verteilen > > Kamikaze RAID nennt man das nicht ohne Grund. Wobei es eigentlich nur > ein AID ist. Du meist RAID-0. Andere Baustelle. Spanning ist nicht Striping. Ich schrieb nicht rein zufällig von logischen Platten. Bilde RAID-1 Paare - das sind die logischen Platten - und leg drüber dann Spanning. Ist genauso sicher wie RAID-10, erfordert nur paarweise gleiche Typen und ist in trivialer Weise beliebig erweiterbar. RAID-10 hat demgegenüber die bessere Performance.
:
Bearbeitet durch User
Stimmt, da hatte ich zu ungenau gelesen. Ja, Spanning ist OK, ist ja quasi JBOD? Aber wie verhält sich das mit aktuellen Dateisystemen, wenn das nach einiger Zeit Nutzung fragmentiert dann liegen doch auch Dateien auf mehreren Platten gleichzeitig. Das wäre dann der (R)AID0 Nachteil ohne den (R)AID0 Vorteil (Geschwindigkeit).
Gustl B. schrieb: > Stimmt, da hatte ich zu ungenau gelesen. Ja, Spanning ist OK, ist ja > quasi JBOD? JBOR gewissermassen. J-B-O-RAID1. ;-) > Aber wie verhält sich das mit aktuellen Dateisystemen, wenn das nach > einiger Zeit Nutzung fragmentiert dann liegen doch auch Dateien auf > mehreren Platten gleichzeitig. Das wäre dann der (R)AID0 Nachteil ohne > den (R)AID0 Vorteil (Geschwindigkeit). Spanning mehrerer RAID-1 Paare liegt bei der Performance schlechter als RAID-10. Die Wahrscheinlichkeit von Hotspots ist hoch, also Last auf einem Disk-Paar und Langeweile bei den anderen. Für weitere Aussagen muss man zwischen den Zugriffs- und Anwendungsarten unterscheiden, also wenige lange Streams parallel (Durchsatz) gegenüber sehr viele unabhängigen Zugriffen in beispielsweise Fileservern für hunderte Anwender (Zugriffszeit, statistische Verteilung). Wird kompliziert. Fragmentierung ist auch ein Thema, aber auch da hängt es davon ab, was man mit den Daten macht. Viele denken bei Performance nur an den Durchsatz grosser Files, wo das eine zentrale Rolle spielt. Das ist aber nur ein Szenario. Die vielen parallel laufenden eher zufälligen und kurzen Zugriffe auf Fileserver oder bei manchen Datenbanken sind ein anderes - bis dann der Backup sequentiell drauf zugreifen will, und sich dadurch regelmässig das Szenario ändert. Wenn man ausserdem noch COW-Filesysteme betrachtet, wie ZFS, brtfs oder WAFL, mit ihrer natürlichen Tendenz zu Fragmentierung, wirds noch komplizierter. Oder wurde, denn bei SSDs ist das kein Thema mehr.
:
Bearbeitet durch User
Natürlich kann man auch heute noch ein RAID 10 einsetzen. Obsolet sind heute lediglich RAID 3 und Raid 4, die von den meisten Controllern auch überhaupt nicht mehr angeboten werden. Es gibt auch noch RAID 50 oder 60, aber dafür benötigt man dann sehr viele Festplatten. Ob man HDD oder SSD einsetzt, ist eine Frage des Geldbeutels bzw. der gewünschten Kapazität, denn SSD sind nun einmal teurer, gerade die großen. Persönlich würde ich <b>immer</b> einen Controller in Hardware vorziehen (Extrakarte), da dieser i.a. mehr Kanäle hat und auch solche Features wie ein Hot-Spare ermöglicht. Dem Betriebssystem wird einfach eine Festplatte vorgegaukelt. Am neuen Hyper-V-Virtualisierungsserver habe ich eine RAID 10 Kombination mit Hot-Spare eingesetzt (7 Platten HDD). Das System ist schon erstaunlich schnell. Für PCs vielleicht unbedeutend erfordert eine große Zahl an Festplatten nahezu zwingend ein RAID, denn die Ausfallwahrscheinlichkeiten von 24 Festplatten, selbst der Enterprisevarianten, ergeben eine zu gringe Zuverlässigkeit des Gesamtsystems - ohne RAID.
Bei normalen SATA Platten besteht zudem die Gefahr, daß sie die hohe Schreibleistung im RAID Betrieb übel nehmen. Da brauchts schon was ordentliches und keine normalen Desktop Platten und dann wirds schnell teuer. Gruß Jörg
Raid-Fan schrieb: > Persönlich würde ich <b>immer</b> einen Controller in Hardware vorziehen > (Extrakarte) Nur mit einem zuverlässigen backup-Konzept (sollte eh selbstverständlich sein). Fällt der Controller aus sind die Daten futsch, und wenn er zuverlässig ist und einige Jahre läuft gibt es ihn dann auch nicht mehr zu kaufen. Georg
georg schrieb: > gibt es ihn dann auch nicht mehr zu kaufen. Nicht frisch ab Werk, aber gängige Profi-Modelle wie die verbreiteten LSI-Logics gibts auch 10 Jahre später noch als Ersatzteile zu kaufen. Man verschenkt aber an Möglichkeiten, wenn man das so macht. Filesysteme wie ZFS oder btrfs integrieren RAID-1 gleich mit, ohne dabei aber die Disk-Grössen zu koppeln. Weils bei solchen Systemen nur drauf ankommt, dass jeder Block auf 2 Disks gespeichert wird, aber keine 1:1 Abbildung zweier Disks nötig ist. Aus anfangs 2x 2TB entstehen mit einer zusätzlichen 4TB Disk summarum 4TB gespiegelt.
:
Bearbeitet durch User
Joerg F. schrieb: > Bei normalen SATA Platten besteht zudem die Gefahr, daß sie die hohe > Schreibleistung im RAID Betrieb übel nehmen. Weshalb ist die Schreibleistung bei RAID so viel höher?
Raid-Fan schrieb: > Natürlich kann man auch heute noch ein RAID 10 einsetzen. Das hat auch niemand behauptet. Man kann heute auch noch mit einer Pferdekutsche fahren. Ist halt mehr so ein Hobby. > Persönlich würde ich immer einen Controller in Hardware vorziehen > (Extrakarte), da dieser i.a. mehr Kanäle hat und auch solche Features > wie ein Hot-Spare ermöglicht. Nichts davon spricht für einen Hardware RAID Controller. Ein Mainboard oder "dummer" SATA Controller kann ebenso viele Kanäle haben. Spares kannst du mit einem Software-RAID auch haben. Hardware RAID Controller haben im wesentlichen zwei Vorteile: 1. sie können einen Batterie-gepufferten Cache haben und dadurch beim Schreiben sicher cachen. Ein Software RAID kann (und wird) System-RAM zum Cachen verwenden. Aber der ist bei z.B. einem Stromausfall weg. 2. sie können mit "dummen" BIOSsen und "dummen" Betriebssystemen verwendet werden, weil das RAID aus deren Sicht wie eine einzelne Platte aussieht. Das wars dann auch schon mit Vorteilen. Nachteile gibt es etliche: 1. wenn der Controller ausfällt, wird man u.U. Schwierigkeiten haben, ein Nachfolgemodell zu finden, das das alte RAID erkennt. 2. Firmware-Updates sind selten und mühsam. 3. wenn die vorgesehene Anzahl Platten erreicht ist, geht i.d.R. nichts mehr. Bei einem Software-RAID steckst du einfach einen weiteren Controller auf das Board und kannst weitere Festplatten dazu nehmen.
Ich habe meine Daten mittlerweile alle auf die NAS ausgelagert und greife über Netztwerk darauf zu, auch zum arbeiten. Lokal sind nur noch Programme und Games. Wenn da die SSDs flöten gehn ist es egal. Auf der NAS nutze ich ZFS.
Axel S. schrieb: > Das wars dann auch schon mit Vorteilen. Nachteile gibt es etliche: > > 1. wenn der Controller ausfällt, wird man u.U. Schwierigkeiten haben, > ein Nachfolgemodell zu finden, das das alte RAID erkennt. > > 2. Firmware-Updates sind selten und mühsam. > > 3. wenn die vorgesehene Anzahl Platten erreicht ist, geht i.d.R. nichts > mehr. Bei einem Software-RAID steckst du einfach einen weiteren > Controller auf das Board und kannst weitere Festplatten dazu nehmen. 4. Der Trend geht dazu, NVMe-SSDs direkt per PCIe x4 (4 Lanes mit Gen3 oder Gen4) an den Prozessor anzubinden, um maximale Datentransferraten und minimale Latenzen zu erhalten. Hier wäre jeder Raid-Controller einfach zu langsam. Du brauchst einfach einen Xeon oder EPYC, um ein 1HE-Chassis mit 12 oder 24 Laufwerken zu befeuern. Und der hat natürlich die passende Software, um auf diesen 24 Laufwerken passende Filesysteme und Volume Manager zu fahren. fchk
@Axel S. Zwei weitere Vorteile hast Du vergessen: 3. Das Hardware-RAID funktioniert immer, auch bei Ausfall der Platten. Bei Software-RAIDs habe ich da schon die tollsten Sachen erlebt, z.B. das das Ding erst wieder booten wollte als die defekte Platte durch eine neue ersetzt wurde. Aktuelle Controller nuten übrigens Supercaps und Flash, um den Cache sicher zu speichern (unbegrenzt). Die alten Systeme mit Akku müssen innerhalb von drei Tagen ans Netz zurück. 4. Betriebssystem-Update oder gar Wechsel des OS gehen problemlos, was wichtig ist, wenn die Maschinen sehr lange betrieben werden sollen/müssen. > 1. wenn der Controller ausfällt, wird man u.U. Schwierigkeiten haben, > ein Nachfolgemodell zu finden, das das alte RAID erkennt. Nicht, wenn man einen der Marktführer nimmt. > 2. Firmware-Updates sind selten und mühsam. Stimmt, drei Mausklicks sind wirklich kaum zumutbar. Eine ausgereifte Firmware benötigt außerdem auch keine Updates. > 3. wenn die vorgesehene Anzahl Platten erreicht ist, geht i.d.R. nichts > mehr. Bei einem Software-RAID steckst du einfach einen weiteren > Controller auf das Board und kannst weitere Festplatten dazu nehmen. Oder man steckt einfach einen zweiten RAID-Controller hinzu. ;) Frank K. schrieb: > Der Trend geht dazu, NVMe-SSDs direkt per PCIe x4 (4 Lanes mit Gen3 > oder Gen4) an den Prozessor anzubinden, um maximale Datentransferraten > und minimale Latenzen zu erhalten. Das mag sein, wenn man höchste Leistung im Storage benötigt. Wenn ich aber 50 TB damit realisieren möchte, dann wird das ein teuer Spaß.
Raid-Fan schrieb: > Frank K. schrieb: >> Der Trend geht dazu, NVMe-SSDs direkt per PCIe x4 (4 Lanes mit Gen3 >> oder Gen4) an den Prozessor anzubinden, um maximale Datentransferraten >> und minimale Latenzen zu erhalten. > > Das mag sein, wenn man höchste Leistung im Storage benötigt. Wenn ich > aber 50 TB damit realisieren möchte, dann wird das ein teuer Spaß. Geht so. Schau mal hier: https://www.servethehome.com/hands-on-with-the-1u-half-petabyte-supermicro-edsff-server/ 50TB sind ja nur 4 von den EDSFF-Laufwerken. Die Maschine hat 32 davon. Und ja, der Bedarf ist da. NVMe gibts auch für das 2.5" Format und heißt dort U.2, und man überlegt, auch rotierende Festplatten damit auszustatten, als Ersatz und technologische Nachfolge für SAS3. fchk
Raid-Fan schrieb: > @Axel S. > > Zwei weitere Vorteile hast Du vergessen: > > 3. Das Hardware-RAID funktioniert immer, auch bei Ausfall der Platten. Das ist gar kein Argument, weil es nicht stimmt. > Bei Software-RAIDs habe ich da schon die tollsten Sachen erlebt Ach komm. Zeig mir eine kaputte Software RAID Implementierung und ich zeige dir einen kaputten Hardware RAID Controller. Und nein, Windows zählt nicht. Das ist kein (Server-) Betriebssystem. Fehler kommen vor. Aber ein Betriebssystem sieht deutlich öfter Updates, als die Firmware eines RAID Controllers. Tatsächlich habe ich in meiner Laufbahn als Sysadm einige RAID Hardware gehabt, die in ihrer gesamten Lebenszeit keinerlei Update gesehen hat. > 4. Betriebssystem-Update oder gar Wechsel des OS gehen problemlos, was > wichtig ist, wenn die Maschinen sehr lange betrieben werden > sollen/müssen. Updates gehen auch mit Software RAID. Und Betriebssystem-Wechsel in Verbindung mit lang laufender Hardware? Du beliebst zu scherzen. Aber hier lauern noch Negativpunkte für Hardware RAID Controller: X. Das Management-Tool gibt es nicht für das Ziel-Betriebssystem oder zumindest nicht für die aktuelle Version. X+1. Das Management-Tool gibt es nur in einer GUI-Ausführung. Den Server im 500km entfernten Rechenzentrum erreiche ich aber nur über eine Dial-In Verbindung oder den Terminalserver. X+2. Das Kernel-Modul für den RAID Controller compiliert nicht mit dem aktuellen Linux-Kernel. Variante: es ist binary-only und lädt nicht. Als Admin habe ich jetzt die Wahl, den alten Kernel mit z.B. einem Sicherheitsproblem weiter laufen zu lassen. Oder den Kernel zu updaten, aber danach keine Daten mehr zu haben. Diese Diskussion hatte ich mal mit einem Sales-Menschen von Fu-Sie. Der wollte partout nicht einsehen, daß mir ihr binary-only Kernelmodul für von ihnen handverlesene Distributionskernel nicht paßt. Sie haben uns dann keine Hardware verkauft.
Axel S. schrieb: >> 3. Das Hardware-RAID funktioniert immer, auch bei Ausfall der Platten. > > Das ist gar kein Argument, weil es nicht stimmt. Okay, das war eine unzulässige Verkürzung. Ich meinte damit, daß ich noch kein HWraid erlebe, das bei Ausfall einer oder zwei (RAID 6) Platten nicht funktioniert hat. Bei SW RAID 1 z.B. jedoch schon bis die Ersatzplatte da war. > Und Betriebssystem-Wechsel in > Verbindung mit lang laufender Hardware? Du beliebst zu scherzen. Nö, kommt bei uns durchaus vor. Z.B. Win2k3R2 auf 2k8R2 auf 2k12R2 unter Beibehaltung sämtlicher Daten. Hat wunderbar funktioniert. Einen Domänencontroller würde ich jedoch nie wieder in-Place updaten, sondern immer den neuen parallelstellen und dann die Rollen verlagern. (Da hat es nämlich nicht so toll funktioniert.) Frank K. schrieb: > 50TB sind ja nur 4 von den EDSFF-Laufwerken. Die Maschine hat 32 davon. Ich habe nicht gesagt, daß es nicht geht, sondern daß es teuer wird. Ich warte imemr gerne etwas ab, dann sinken die Preise und Standards haben sich etabliert. Heute ist ja noch nicht einmal klar, welcher/welche der ganzen Linealformate sich durchsetzen wird.
Raid-Fan schrieb: > Einen Domänencontroller würde ich jedoch nie wieder in-Place updaten, Domaincontroller sind nicht repräsentativ, sondern ein sehr spezielles Thema. Auch Restore von Backup oder Snapshot sind da etwas heikel.
:
Bearbeitet durch User
Raid-Fan schrieb: > Okay, das war eine unzulässige Verkürzung. Ich meinte damit, daß ich > noch kein HWraid erlebe, das bei Ausfall einer oder zwei (RAID 6) > Platten nicht funktioniert hat. > Bei SW RAID 1 z.B. jedoch schon bis die Ersatzplatte da war. Eine gute Implementierung ist für gewöhnlich besser als eine schlechte, egal ob mit Hardware oder Software. Es gibt schlechte Lösungen in beiden Szenarien. Leider weiss man aber nicht immer vorher, welche gut und welche schlecht ist. Mit der Steuersoftware der LSI RAID-Controller habe ich beispielsweise gemischte Erfahrungen gemacht. Die verbindet ja über Netz, was an sich eine gute Idee ist, denn nicht für alle Systeme gibts diese Admin-Software. Aber genau da...
:
Bearbeitet durch User
Vielen Dank für die vielen Beiträge. Ich habe unter den Beiträgen gelesen, dass ein RAID 10 kein Backup ersetzt. Ich hab's glaube ich durcheinandergebracht. Gut an dem Prinzip RAID 10 finde ich, dass die Daten, ohne dass ich als Anwender davon etwas merke, gespiegelt werden. Ich habe jetzt aber auch Begriffen, dass ein RAID 10 kein Backup-Ersatz ist. Mich würde mal interessieren, wie ihr ein Backup anlegt?
Torben S. schrieb: > Vielen Dank für die vielen Beiträge. Ich habe unter den Beiträgen > gelesen, dass ein RAID 10 kein Backup ersetzt. Ich hab's glaube ich > durcheinandergebracht. Gut an dem Prinzip RAID 10 finde ich, dass die > Daten, ohne dass ich als Anwender davon etwas merke, gespiegelt werden. > Ich habe jetzt aber auch Begriffen, dass ein RAID 10 kein Backup-Ersatz > ist. Mich würde mal interessieren, wie ihr ein Backup anlegt? Ich nehme nackte SATA-Festplatten und sowas hier: https://www.reichelt.de/5-25-wechselrahmen-fuer-2-5-3-5-hdd-shark-qpim-p139153.html?&trstct=pol_0&nbc=1 Wichtig ist, dass die hierfür benutzen SATA-Ports im BIOS auf AHCI stehen und Hotswap aktiviert ist. Dann habe ich mehrere Möglichkeiten: 1. ich kann ein bootfähiges 1:1 Image anfertigen 2. ich kann Dateien oder ganze Images in komprimierter Form auf der Platte lagern. Als Software unter Windows ist http://www.drivesnapshot.de/de/ganz genial. Ansonsten Clonezilla, Acronis oder wasweißich. Wichtig dabei: 1. Die Backup-Medien nach Gebrauch auswerfen und in den Schrank legen Dann haben Trojaner und Blitzeinschläge keine Chance. 2. Mehrere Backup-Generationen bereit halten, mindestens drei. 3. Wenn Du ganz sicher gehen willst, lagere einen (weiteren) Backup-Satz extern. Das hilft dann auch gegen Feuer, Diebstahl, Staatssicherheit etc. fchk
Torben S. schrieb: > Mich würde mal interessieren, wie ihr ein Backup anlegt? Windows Spielekiste: 1. Herunterfahren des Rechners immer mit "Hardlinkbackup". Macht Backups von Verzeichnissen (z.b. c:/User, c:/Steam etc) auf eine andere Platte, recht schnell da es mit Hardlinks arbeitet und nur Änderungen zum vorherigen Backup tatsächlich kopiert. 2. Circa jeden Monat Vollbackup der "C:" SSD mit Clonezilla, das auf einer weiteren Platte bootfähig installiert ist. Der Spielerechner hat demnach eine 2TB SSD für OS und Spiele, eine 2TB HD für Hardlinkbackup, und eine 8TB Platte mit bootfähigem Clonezilla und Speicherplatz für die Images. Alle Platten sind fest im Rechner verbaut - Das macht man normalerweise nicht so, aber es ist tatsächlich nur der Spielerechner auf dem nichts anderes - wichtiges - gespeichert ist. Linux Kiste: Auf diesem Rechner habe ich alles wichtige: Mail, Projektdaten, lokales Git Repository, private Daten wie Docu Scans, Bilder. Der Rechner ist verschlüsselt, also fällt ein Bare Metal Backup wie mit Clonezilla flach. 1. Jeden Freitag (aka "Freitag ist Backup Tag!") zweimal rsync Backup auf je eine USB3 externe Disk (habe 3), eine davon wird am Montag mit ins Büro genommen, und die aus dem Büro wird wieder mitgebracht. Das rsync Backup funktioniert genau so wie Hardlinkbackup, ebenfalls recht schnell, je nach dem wie viele Änderungen angefallen sind. Ich habe aus allen Backupquellen schon Restores gemacht, einschließlich dem Clonezilla Windows Backup als Win10 nicht mehr starten wollte (vor etwa einem Monat).
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.