Hallo zusammen, Ich bin ja ein grosser Fan von ZFS und nutze es auch für mehrere Server. Unter anderem auf einem NAS mit RAIDZ-2. Jetzt habe ich dazu mal eine Frage. Und zwar wird mir der Platz auf dem RAIDZ-2 langsam knapp. a) soll ich "einfach" eine Disk nach der anderen im Pool ersetzen durch eine Grössere? (und zwischendrin dann resilvern lassen) ich habe autoexpand=on gesetzt, d.h. sobald alle Disks ersetzt sind, sollte der Pool dann automatisch expandieren und der grössere Speicherplatz nutzbar sein. b) kann ich zu einem bestehenden RAIDZ-2 mit 4 Disks auch weitere Disks hinzufügen, unter Beibehaltung der Redundanz? wahrscheinlich müsste ich dann 2 identische Disks hinzufügen? Wie würde man es am besten machen? Grüsse Tobias
a) Ich denke, das geht so. autoexpand habe ich aber nicht probiert. Musst nur genau gucken, wie du sie hinzufügst, bei meinem letzten Versuch (allerdings zu einem single-device pool) habe ich mich vertan und die neue Disk angehängt statt zu spiegeln. :-( Das wird man dann nicht wieder los, da muss man alles auflösen und offline kopieren. Zu b) kann ich so nichts sagen, habe ich noch nicht gemacht.
Jörg W. schrieb: > autoexpand habe ich aber nicht probiert. Autoexpand funktioniert definitiv, mit einer VM habe ich das ausprobiert, allerdings nur mit einer einzelnen Disk. Aber mit autoexpand=on expandiert der Pool, sobald das System "merkt", dass da eine grössere Disk drin steckt. Wie würdest du es machen Jörg, wenn du 6 Disks zu 8 TB hast. Wie expandiert man da den Pool? Eigentlich möchte man so einen grossen Pool ja dann nicht zerstören und neu bilden, weil das viel zu lange dauert und zu aufwendig ist. Für ein anderes Projekt will ich einen bestehenden JBOD mit 40TB durch ZFS ersetzen und frage mich, ob ich da besser 8 Disks zu 6 TB nehme für den Start oder 6 Disks zu 8 TB. Soll aber natürlich expandierbar sein. Jörg W. schrieb: > Zu b) kann ich so nichts sagen, habe ich noch nicht gemacht. nach länglichem Herumsuchen glaube ich, das funktioniert nicht, ist aber seit Jahren auf der Todo-Liste bei den ZFS Entwicklern.
Tobias P. schrieb: > Eigentlich möchte man so einen grossen Pool ja dann nicht zerstören und > neu bilden, weil das viel zu lange dauert und zu aufwendig ist. Ich habe das auch nicht freiwillig gemacht. :-) War nur Unachtsamkeit. In der Folge musste ich einen Großteil der Daten über Tape sichern und von da restaurieren. (Bei mir war es die Ablösung einer HDD durch eine SSD, die ich eigentlich via Spiegelung machen wollte.) Vielleicht ist es ja gar nicht so unsinnig, ein paar kleinere alte Disks billig zu nehmen und damit erstmal "off-site" zu experimentieren? SCSI könnte da geschwindigkeitsmäßig im Vorteil sein, ist zumindest meine Erfahrung. Falls du diesen Weg gehen willst, könnte ich dir einen Stapel 300-GB-SAS-Disks überlassen. Die liegen nur noch rum, braucht niemand mehr.
:
Bearbeitet durch Moderator
Jörg W. schrieb: > Vielleicht ist es ja gar nicht so unsinnig, ein paar kleinere alte Disks > billig zu nehmen und damit erstmal "off-site" zu experimentieren? SCSI > könnte da geschwindigkeitsmäßig im Vorteil sein, ist zumindest meine > Erfahrung. Falls du diesen Weg gehen willst, könnte ich dir einen Stapel > 300-GB-SAS-Disks überlassen. Die liegen nur noch rum, braucht niemand > mehr. das wäre sicher vernünftig, aber ich muss sowieso neue Hardware kaufen, weil im Moment alles in Gebrauch ist. Habe keinen "Experimentierserver" mehr weil komplett alles voll ist, darum muss ich ja auch was machen :-) von daher, die SAS Disks wären cool, aber ich hab im Moment nichts, wo ich sie rein bauen kann :-D unser Serverraum wird renoviert und wir kriegen neue 25 GBit Leitungen, und da bietet es sich an, gleich unseren Storage auch zu erneuern... Jörg W. schrieb: > In der Folge musste ich einen Großteil der Daten über Tape sichern und > von da restaurieren. das hat sicher keinen Spass gemacht. Davor fürchte ich mich auch, aber mir wird nichts anderes übrig bleiben, da ich im Moment die Daten über 3 NAS verteilt habe und gerne auf einem Einzelnen Storage zusammenführen möchte.
Tobias P. schrieb: >> In der Folge musste ich einen Großteil der Daten über Tape sichern und >> von da restaurieren. > > das hat sicher keinen Spass gemacht. Naja, konnte man paar Stunden rödeln lassen. Aber ja, war blöd.
Tobias P. schrieb: > Wie würde man es am besten machen? Lesen und verstehen und dann bewerten ob dir das hilft: https://arstechnica.com/gadgets/2021/06/raidz-expansion-code-lands-in-openzfs-master/
Mag sein, dass ich im Git-Log was übersehen habe, aber bei FreeBSD finde ich noch nicht, dass es schon übernommen worden wäre. Ist die Frage, was Tobias da als System benutzt.
Jörg W. schrieb: > Mag sein, dass ich im Git-Log was übersehen habe, aber bei FreeBSD finde > ich noch nicht, dass es schon übernommen worden wäre. Ist die Frage, was > Tobias da als System benutzt. ich benutze Debian 12 auf dem betreffenden System. Ich habe gerade "schnell" einen Test gemacht und einen zpool erstellt mit Files, also zpool create test raidz2 /home/file1 /home/file2 /hime/file3 /home/file4 und dann habe ich versucht, 2 zusätzliche "Disks" hinzuzufügen. Offenbar ist die Änderung in Debian 12 auch noch nicht enthalten, denn das schlägt fehl, "cannot attach". Also geht es so wohl nicht. Man wird also entweder autoexpand=on verwenden und jede Disk einzeln durch eine Grössere ersetzen müssen, oder man zerstört den Pool und legt ihn neu an. Das ist recht unschön :-(
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.