Die Frage klingt sicher erstmal merkwürdig ... Wenn man unter Windows oder MacOSX im Explorer/Finder mehrere Dateien gemeinsam auswählt und dann mit Rechtsklick komprimieren lässt, werden immer alle ausgewählten Dateien zusammen in ein Archiv gepackt. Jetzt meine "merkwürdige" Frage: Gibts irgend eine Möglichkeit oder Option, dass jede dieser Dateien für sich alleine gepackt wird? Und geradezu perfekt wäre es, wenn danach die ungepackte Version auch gleich noch gelöscht bzw. in den Papierkorb verschoben werden könnte. Wenn dass dann auch noch automatisch für ganze Verzeichnisse ... aber ich will nicht übertreiben. Oder muss ich mir sowas selber programmieren? Danke für Tips! P.S. Mir ist klar, dass sowas mit einem Skript/Batchfile geht, aber ich bin nun mal GUI-Fan und würde das bevorzugen.
Winrar für Windows. Da brauchst du das nur anklicken.
Danke, für Windows wäre das also geklärt. Für Mac habe ich eine Soft mit dem Namen "Keka" gefunden, die das können soll ...
Frank E. schrieb: > eine Möglichkeit oder Option, RAR hat viele Optionen und sogar Prüfzahlen. Man sollte sich damit beschäftigen. https://www.heise.de/download/product/winrar-1380
Skript/Batchfile. Sollte man besser so gestalten das nach Packen noch ein Verify stattfindet bevor gelöscht wird.
Frank E. schrieb: > Frage: Gibts irgend eine Möglichkeit oder > Option, dass jede dieser Dateien für sich alleine gepackt wird? Was erhoffst du dir davon? Wenn Dateien in ein Archiv zusammengefasst werden, dann ist die Kompressionsrate in der Regel wesentlich höher, als wenn du alle Dateien einzeln komprimierst. > Und > geradezu perfekt wäre es, wenn danach die ungepackte Version auch gleich > noch gelöscht bzw. in den Papierkorb verschoben werden könnte. Du kannst per Skript alle Dateien einzeln komprimieren und dann beim Entpacken angeben, dass die komprimierte Datei nach dem entpacken gelöscht wird.
Also die Frage ist prinzipiell beantwortet, danke, aber weil hier noch manche nach dem Grund fragen: Mein ganz konkreter Analss war, dass ich einige tausend PDFs auf einem NAS und in einer Clound liegen habe, bei denen der Platz langsam knapp wird. Je nach Erstellungsart ist in PDF-Files aber manchmal ganz erheblich "Luft" drinnen (großer Effekt bei Komprimierung), manchmal weniger. Da ich für den Zugriff trotzdem die einzelnen Files benötige und nicht etwa einen einzigen riesigen "Klumpen", meine Frage. Ich habe gestern abend noch meine iCloud-Belegung mit der Mac-Software "Keka" von 98% auf 70% reduzieren können. Das reicht erstmal wieder für einige Zeit.
Frank E. schrieb: > Möglichkeit oder Option, dass jede dieser Dateien für sich alleine > gepackt wird? Das ist keine Eigenschaft eines Packprogrammes, sondern Nano schrieb: > Du kannst per Skript alle Dateien einzeln komprimieren Also 60/40 schrieb: > Skript/Batchfile Gruss Chregu
Ein guter Admin hat immer ausreichend leeren Speicher verfügbar! Bei solchen Klimmzügen mit komprimieren schleichen sich nur neue Fehler ein und schneller wird der Zugriff auch selten. Kauf Dir größere Platten oder lagere aus, bevor es zu spät ist. Auch ein Packprogramm braucht temporär mehr Platz zum Arbeiten.
Total Commander - der kann das, was Du wünscht (und noch viel mehr) - bis auf die Batch-Möglichkeit (zumindest ist mir das nicht bekannt).
man könnte natürlich auch mit einem PDF-Tool "die Luft" raus lassen ...
Christian M. schrieb: > Frank E. schrieb: >> Möglichkeit oder Option, dass jede dieser Dateien für sich alleine >> gepackt wird? > > Das ist keine Eigenschaft eines Packprogrammes, sondern > > Nano schrieb: >> Du kannst per Skript alle Dateien einzeln komprimieren > > Also > > 60/40 schrieb: >> Skript/Batchfile > > Gruss Chregu Prinzipiell sicher richtig, aber gerade bei langen Netzwerk-Pfaden ziemlich unbequem. Aber es wurden ja Tools mit GUI gefunden, also warum (an dieser Stelle) zurück zum CLI, wenn es keinerlei Vorteile bringt?
G. H. schrieb: > man könnte natürlich auch mit einem PDF-Tool "die Luft" raus > lassen ... Richtig, aber wenig rraxis-relevant. Welches PDF-Tool arbeitet systematisch ganze Verzeichnisse druch? Ich habe ja eben keinen Bock und keine Zeit, stundenlang einzelne PDFs auszuwählen und "durchzuleiern".
Christian M. schrieb: > Frank E. schrieb: >> Möglichkeit oder Option, dass jede dieser Dateien für sich alleine >> gepackt wird? > > Das ist keine Eigenschaft eines Packprogrammes, sondern > > Nano schrieb: >> Du kannst per Skript alle Dateien einzeln komprimieren > > Also > > 60/40 schrieb: >> Skript/Batchfile > > Gruss Chregu Hm. Aber bei WinRar und Keka ist das einfach so mit drin in der GUI. Warum sollte ich das nicht nutzen? Mit ist der (situationsbedingte!) Vorteil von Shell und Skripten durchaus bewusst, aber wenn es eine GUI-Lösung gibt, bevorzuge ich selbstverständlich diese.
oszi40 schrieb: > Ein guter Admin hat immer ausreichend leeren Speicher verfügbar! > Bei > solchen Klimmzügen mit komprimieren schleichen sich nur neue Fehler ein > und schneller wird der Zugriff auch selten. Kauf Dir größere Platten > oder lagere aus, bevor es zu spät ist. Auch ein Packprogramm braucht > temporär mehr Platz zum Arbeiten. Dem würde ich natürich prinzipiell nicht widersprechen. Aber es hat nun mal "pressiert" und da hat das Komprimieren als schnelle Lösung geholfen. Es gab keine Probleme mit Temp-Files, wahrscheinlich werden die temporär auf dem Computer erstellt, auf dem auch die Software läuft.
Hugo H. schrieb: > Total Commander - der kann das, was Du wünscht (und noch viel > mehr) - > bis auf die Batch-Möglichkeit (zumindest ist mir das nicht bekannt). Mit dem Tool habe ich sehr unangenheme Erfahrungen in Windows-Netzwerken. Bei Zugriffsversuchen auf Dateien von anderen Rechnern aus (was ja in Netzwerken vorkommen soll), kommt später gerne mal eine Fehlermeldung, dass der Pfadname zu lang ist und man hat endlos Trouble, da wieder ranzukommen. Nervt, nö danke.
Frank E. schrieb: > Trouble, da wieder ranzukommen. Nervt, nö danke. Bei rar gab es manchmal auch schon fehlende Dateien z.B. wegen fehlender Rechte. Man sollte als wachsam bleiben und wenn möglich das Log ansehen.
Ich frage mich wieso der TO zwar so große Mengen PDF's hat, aber kein DMS. Die erledigen so Aufgaben i.d.R. automatisch.
Frank E. schrieb: > Nervt, nö danke. Ich hatte damit noch nie Probleme - ob Netzwerk oder sonst wie. Nutze 10.xxx aktuell - das ist schnell und zuverlässig. Ein "Schweizer Messer" unter den File-Managern. Ist Dir die Lizenz zu teuer?
:
Bearbeitet durch User
Frank E. schrieb: > Prinzipiell sicher richtig, aber gerade bei langen Netzwerk-Pfaden > ziemlich unbequem. Aber es wurden ja Tools mit GUI gefunden, also warum > (an dieser Stelle) zurück zum CLI, wenn es keinerlei Vorteile bringt? Weil du das per CLI direkt auf dem NAS ausführen könntest, das geht sehr viel schneller, als die Daten ein paar mal im Netzwerk rumzuschieben. Zumindest gilt das, wenn dein NAS etwas taugt, dir also einen ssh Zugriff erlaubt.
Bitte den Archiven Wiederherstellungsinformationen zusprechen.
Keks F. schrieb: > Bitte den Archiven Wiederherstellungsinformationen zusprechen. Dem kurzgefassten Keksarchivar gib ich gerne ein virtuelles Bier aus! Dem Trollo-TE/TO hier nicht, denn er hat nur eine Bildungslücke bzw. eine AUS Tast(atur)lücke von ca 100 S. Videotext und auch kein Problem damit.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.