Und falls ja, welche benutzt ihr?
Die Cortanaschnüffelapp ist schon AUS! Und mehr Schnüffler braucht es nicht.
"locate" für Dateien, "recoll" für Inhalte. Aber ich hab wahrscheinlich deine Frage falsch verstanden.
Nano schrieb: > Und falls ja, welche benutzt ihr? "Engines", darunter stelle ich mir Zeug vor, was im Hintergrund läuft. Sowas wird natürlich erst garnicht installiert und falls es vorinstalliert ist (Windows, Browserscheiß) wird's totgelegt. Das kann ich mir leisten, weil ich nur sehr selten etwas suchen muss, ich habe Ordnung in meiner Ablage. Und wenn doch mal die Ausnahme von der Regel greift, dann nutze ich Agent Ransack. Die erste Suche dauert natürlich mangels persistentem Index relativ lange, aber Iterationen gehen dann schneller. Und im Gegensatz z.B. zur Windows-Suche findet der alles, was er finden sollte und nicht nur das, was Microsoft meint, was eine Suchengine dem Benutzer präsentieren dürfte.
Sofern man überhaupt so etwas braucht - praktisch jedes Fremdprogramm ist brauchbarer als die Windows Explorer Suche. Georg
Meine Dateien suche ich einfach lokal im Explorer. Das brauche ich aber relativ selten, inzwischen habe ich eine ganz gute Struktur aufgebaut.
Wenn Du nur nach Dateinamen suchen möchtest, reicht dir /s irgendwas.jpg
c-hater schrieb: > "Engines", darunter stelle ich mir Zeug vor, was im Hintergrund läuft. > Sowas wird natürlich erst garnicht installiert und falls es > vorinstalliert ist (Windows, Browserscheiß) wird's totgelegt. Nunja, die fressen nur am Anfang bei der Indexierung Leistung, danach nur wenn sie vom Kernel informiert werden und auf einer n Core CPU sollte das heutzutage vernachlässigbar sein. > Das kann ich mir leisten, weil ich nur sehr selten etwas suchen muss, > ich habe Ordnung in meiner Ablage. Und wenn doch mal die Ausnahme von > der Regel greift, dann nutze ich Agent Ransack. Die erste Suche dauert > natürlich mangels persistentem Index relativ lange, aber Iterationen > gehen dann schneller. Ich nutze zum Arbeiten kein Windows. D.h. alle meine Daten habe ich unter Linux und da muss ich keine proprietäre Desktop Search Engine wie Agent Ransack nutzen, sondern habe die Wahl aus einer Vielzahl von Open Source Desktop Search Engines. Früher, zu Zeiten von Gnome 2 habe ich eine benutzt. Ich glaube das war Tracker: https://en.wikipedia.org/wiki/Tracker_(search_software) Dann haben die Gnome Leute aber die Desktop Search Engine auf eine andere, ich glaube Beagle war es, umgestellt und die war so grottig, dass ich die nicht mehr nutzen wollte. Seitdem nutze ich keine mehr. Eine Struktur in meinen Verzeichnissen hatte ich schon immer. Dennoch ging es mit der Desktop Search Engine schneller und bequemer. Schließlich wurde alles indexiert, von PDF Dateien bis zu Textdateien. Händisch mit Programmen wie grep oder was passendes für PDF Dateien braucht man halt immer verschiedene Tools.
FollsplunkDulchTechnik! schrieb: > Die Cortanaschnüffelapp ist schon AUS! > Und mehr Schnüffler braucht es nicht. Weißt du eigentlich was eine Desktop Search Engine ist? Das ist etwas lokales. Wenn du Angst vor lokalen Schnüffelprogrammen hast, die die Daten von Lokal zu dir nach lokal schicken, dann solltest du besser gar keinen Rechner benutzen.
Nano schrieb: > Benutzt ihr eine Desktop search engines Ja, sogar nicht nur auf dem Desktop-PC, sondern auch auf dem Laptop ;-) > Und falls ja, welche benutzt ihr? Ich benutze ganz klassisch find, ggf. kombiniert mit weiteren Tools wie bspw. grep. Wie der Name "find" schon andeutet, sucht das Tool nicht nur nach Dateien, sondern findet sie auch garantiert, sofern sie existieren. Die ganzen Tools mit Indizierung und Datenbanken sind mir etwas zu undurchsichtig. Wenn sie keine oder zu wenige Suchergebnisse liefern, kann es auch daran liegen, dass die Datenbank nicht aktuell ist oder nicht die für die Suche relevanten Einträge enthält. Da ich dann sowieso noch eine vollständige Suche mit find machen muss, kann ich dies auch gleich tun. Dass find für die Suche mehr Zeit braucht, ist für mich kein Problem, da ich – wie einige meiner Vorschreiber – meine Dateien in sinnvollen Verzeichnisstrukturen organisiere und deswegen so gut wie nie ein ganzes Dateisystem (oder sogar mehrere davon) durchsuchen muss, sondern immer nur einen kleinen Teil davon. Deswegen dauert die Suche auch mit find meist nur Sekundenbruchteile, im Extremfall vielleicht ein paar Sekunden. > oder habt ihr sie abgeschaltet Das Beste an find: Es schaltet sich nach Benutzung von selber ab :)
Yalu X. schrieb: > Ich benutze ganz klassisch find, ggf. kombiniert mit weiteren Tools wie > bspw. grep. Wie der Name "find" schon andeutet, sucht das Tool nicht > nur nach Dateien, sondern findet sie auch garantiert, sofern sie > existieren. Das ist keine Desktop Sreach Engine. Das was du nutzt, sind gewöhnliche Suchprogramme. Die müssen immer von vorne suchen. Desktop Search Engines müssen das nicht, die indexieren die Daten und wenn sich was an den Daten ändert, werden sie vom Kernel informiert und passen die eine Änderung dann an. Deswegen sind die dann auch viel schneller und fressen insgesamt weniger Leistung. > Die ganzen Tools mit Indizierung und Datenbanken sind mir etwas zu > undurchsichtig. Wenn sie keine oder zu wenige Suchergebnisse liefern, > kann es auch daran liegen, dass die Datenbank nicht aktuell ist oder > nicht die für die Suche relevanten Einträge enthält. Siehe https://de.wikipedia.org/wiki/Linux_(Kernel)#Inotify Deine Suchtools machen davon keinen Gebrauch, die Desktop Search Engine schon. Insofern sind deren Datenbanken immer aktuell. Wenn sie das nicht sind, dann hat sie der Nutzer abgeschaltet, so dass sie nichts mitbekommen konnten. Eine Desktop Search Engine muss nämlich natürlich immer im Hintergrund auf Bereitschaft laufen, sonst ergibt sie keinen Sinn. Wenn sie dennoch ständig läuft und nichts findet, dann ist die Indexierung schlecht bzw. zu grob eingestellt. Oder der Index ist kaputt.
Gerhard Z. schrieb: > recoll Kannte ich bisher nicht.. dürfte aber genau das sein was ich schon länger suche... thx! 73
Nano schrieb: > Deswegen sind die dann auch viel schneller und fressen insgesamt weniger > Leistung. Ersteres ja, letzteres eher nicht. Es muß ja immer der Index aktuell gehalten werden, ob man was sucht oder nicht. Am sinnvollsten finde ich dabei noch locate/updatedb. (ohne Desktop ;-))
Wie manche meiner Vorredner: dank einer guten Datenstruktur brauche ich sowas nicht. Zu Zeiten, als ich mit Windows unterwegs war, reichte mir der Tree-View im TotalCommander (wie sehr ich dieses Tool vermisse!!!), weil es schlicht schneller war, als wenn ich mich händisch durch all die Ordner durchgekämpft hätte. Ist keine Engine und musste hin und wieder mit F2 aktuallisiert werden. Jetzt unter Linux benutze "find" und hin und wieder Catfish. Ist auch keine Engine und muss bei Bedarf aktualliert werden. Recoll werde ich mir anschauen. Danke für diesen Tipp.
Mehmet K. schrieb: > wie sehr ich dieses Tool vermisse Unter wine "nur" im Homedirectory funktioniert es ganz gut. Sieht nur hässlich aus ;)
Eines der ersten Dinge die ich bei Windows mache ist, das ich den INDEX-SEARCH-Dienst abschalte. Der Grund ist ich habe ein Gedächtnis. Um im Gegenzug zu meinen Büro herrscht auf meinen PC peinlichsten Ordnung. Ich weiß aus den Kopf noch wo ich vor 10 Jahren eine Datei abgelegt habe. Ich brauch keine Such-Dienste. Und wenn ich man bei einen Bekannten eine Datei suche dann stecke ich mein USB-Stick mit Total-Commander rein, klicke auch die Lupe und lege los. Der Index-Dienst macht in meinen Augen den Rechner langsamer. Und das mag ich nicht.
Mehmet K. schrieb: > im TotalCommander (wie sehr ich dieses Tool vermisse!!!) Dann installieren doch MC. Ist doch das pedeant zum Total-Commander unter Linux.
Daniel B. schrieb: > Everyting > https://www.voidtools.com/ > > Eins meiner meist genutzten Tools. > > Gruß Daniel +1
Nano schrieb: > Yalu X. schrieb: >> Ich benutze ganz klassisch find, ggf. kombiniert mit weiteren Tools wie >> bspw. grep. Wie der Name "find" schon andeutet, sucht das Tool nicht >> nur nach Dateien, sondern findet sie auch garantiert, sofern sie >> existieren. > > Das ist keine Desktop Sreach Engine. Mir ist schon klar, dass die Bezeichnung "Desktop Search Engine" üblicherweise nur für Suchtools mit Indizierung (oder meinetwegen auch "Indexierung") verwendet wird. Da diese für mich als Anwender aber im dieselbe Aufgabe erfüllen wie die klassischen Suchtools, ist für mich die Unterscheidung von geringer Bedeutung. Aber um deine Frage unter diesem Gesichtspunkt zu beantworten: Nein, ich benutze keine Desktop Search Engine :) Nano schrieb: >> Die ganzen Tools mit Indizierung und Datenbanken sind mir etwas zu >> undurchsichtig. Wenn sie keine oder zu wenige Suchergebnisse liefern, >> kann es auch daran liegen, dass die Datenbank nicht aktuell ist oder >> nicht die für die Suche relevanten Einträge enthält. > > Siehe > https://de.wikipedia.org/wiki/Linux_(Kernel)#Inotify Damit wird zwar die Datenbank zeitnah aktuell gehalten, dafür läuft die Engine jedesmal, wenn eine Datei erstellt oder geändert wird. Das frisst – ähnlich wie bei einem Virenscanner – fast ständig Rechenleistung. Hat man eine große Datei (bspw. von einer Datenbank), in der sehr oft ein paar wenige Bytes geändert werden, muss der Indexer jedesmal die komplette Datei durchforsten. Da ist es mir lieber, wenn die Rechenleistung nur dann verbraucht wird, wenn ich tatsächlich etwas suchen möchte. Auf den zweiten von mir genannten Punkt bist du nicht eingegangen: Yalu X. schrieb: > Wenn sie keine oder zu wenige Suchergebnisse liefern, kann es auch > daran liegen, dass die Datenbank […] nicht die für die Suche > relevanten Einträge enthält. Um eine vollständige Volltextsuche zu ermöglichen, müsste der Index ähnlich groß sein wie die Gesamtheit aller indizierten Dateien in komprimierter Form. Um die Größe des Index in akzeptablen Grenzen zu halten, muss folglich einiges an Information weggelassen werden, was aber die Suche unzuverlässig macht. Mir persönlich sind die Nachteile einer Desktop Search Engine bzgl. des Ressourcenverbrauchs und der Zuverlässigkeit der Suchergebnisse zu schwerwiegend in Relation zu den paar Sekunden Wartezeit bei der klassischen Suche. Ich schrieb explizit "für mich persönlich". Für jemanden, der seine Dateien kreuz und quer auf seinen Datenträgern herumfahren hat (zu diesen Leuten gehörte ich früher ebenfalls :)), sie somit nur über die Inhaltssuche wiederfinden kann und entsprechend oft die Suchfunktion bemühen muss, sieht das natürlich anders aus.
Nano schrieb: > Das ist keine Desktop Sreach Engine. Genau deswegen ist auch das linux-"find": brauchbar und akzeptabel. Leistet so ziemlich dasselbe, wie unter Windows Agent Ransack. Bloß halt ohne komfortables GUI... Alle üblichen "Desktop search engines" (in deinem Sinne) tuen zwar, was sie sollen, aber sie tuen auch noch einige Dinge mehr... Dinge, die ich nicht will! Meine Daten gehören mir und nicht dem Anbieter irgendwelcher Suchmaschinen! Starve them as good you can!
Gibts eigentlich auch Programme die mehrfach komprimierte Archive durchsuchen/indizieren? blah.iso>blup.zip>datei.doc.zst
Ich verwende Spotlight, nicht weil ich Dinge sonst nicht finden würde, sondern weil es schneller geht als sich durch Verzeichnisse zu hangeln.
Totalcommander, reicht völig
Yalu X. schrieb: > Nano schrieb: >> Siehe >> https://de.wikipedia.org/wiki/Linux_(Kernel)#Inotify > > Damit wird zwar die Datenbank zeitnah aktuell gehalten, dafür läuft die > Engine jedesmal, wenn eine Datei erstellt oder geändert wird. Das frisst > – ähnlich wie bei einem Virenscanner – fast ständig Rechenleistung. > Hat man eine große Datei (bspw. von einer Datenbank), in der sehr oft > ein paar wenige Bytes geändert werden, muss der Indexer jedesmal die > komplette Datei durchforsten. Da ist es mir lieber, wenn die > Rechenleistung nur dann verbraucht wird, wenn ich tatsächlich etwas > suchen möchte. Najaaa... also Datenbank wie etwa PostgreSQL oder MongoDB bieten ja selbst sehr leistungsfähige Suchwerkzeuge an, die wird man wohl nicht noch zusätzlich indexieren wollen. Zumal deren Daten ja ohnehin in einem Binärformat vorliegen, das der Indexer der Suchmaschine mit hoher Wahrscheinlichkeit nicht lesen kann... > Um eine vollständige Volltextsuche zu ermöglichen, müsste der Index > ähnlich groß sein wie die Gesamtheit aller indizierten Dateien in > komprimierter Form. Äh, jaein. "Richtige" Volltextsuchmaschinen wie beispielsweise Elasticsearch nutzen einen invertierten Index, dessen Größe sich primär an der Häufigkeit der indizierten Worte orientiert. Dafür lassen sie allerdings Suchen zu, sie mit klassischen Tools wie grep(1) und Co. nicht darstellbar sind: unscharfe Suchen mit einer angegebenen Damerau-Levenshtein-Distanz, phonetische Suchen. Auch die Art bzw. Einstellung der Indexierung spielt allerdings sowohl für die Suchen als auch für die Indexierung eine große Rolle; so können beim Tokenizing etwa Shingles und N-Grams oder auch ein Stemming angewendet werden. Und Elasticsearch kann beim Indexieren auch Texte aus Binärdateien wie Office-Dokumenten, EXIF-Tags aus Bilddateien oder die Mediainfos aus Videodateien extrahieren... Was "richtige" Suchmaschinen außerdem besser als grep(1) und Co. können, ist: sie können den Ergebnissen einen Score geben, und zum Beispiel Elasticsearch sortiert die Suchergebnisse nach diesem Score. Damit haben sogar die Volltextsuchmaschinen aller mir bekannten Datenbanken leider noch ziemliche Probleme... :-) Dabei ist zum Beispiel Elasticsearch so schnell, daß man sich sogar ein kleines Webinterface mit Autocompletion darauf bauen kann. Einfache Suchen auch über mehrere Millionen Dokumente sind in einstelligen, kompliziertere (unscharfe) Suchen brauchen meistens auch nicht mehr als eine zweistelligen Anzahl von Millisekunden... Wer also große Dokumentenbestände hat und diese oft und eventuell auch unscharf durchsuchen will, ist mit einer "richtigen" Suchmaschine vermutlich besser bedient als mit den klassischen UNIX-Shellwerkzeugen. Für einen Indexer würde ich im Übrigen ebenfalls inotify(7) benutzen, die Events jedoch in irgendeine Message Queue schreiben, die neuen Redis Streams lesen sich diesbezüglich ausgesprochen vielversprechend. Der eigentliche Indexer würde die Dateinamen dann aus der Message Queue lesen und per Bulk-Upload ins Elasticsearch pumpen -- das hätte den großen Vorteil, daß man den Indexer a) laufen lassen kann, wenn man ihn braucht, b) der Index nicht für jedes einzelne Dokument geöffnet und wieder geschlossen werden muß, was ziemlich teuer ist, und c) daß man den Indexer notwendigenfalls auch mal deaktivieren kann, wenn man die Leistung gerade mal für andere Aufgaben benötigt. Naja, wie dem auch sei: ich bin auch lieber mit locate(1), find(1), (e)grep(1) und Konsorten unterwegs... meine olle Büchse hat ohnehin zu wenig RAM und die neue wird wohl erst nächste oder übernächste Woche kommen. ;-)
Andreas B. schrieb: > Nano schrieb: >> Deswegen sind die dann auch viel schneller und fressen insgesamt weniger >> Leistung. > Ersteres ja, letzteres eher nicht. Es muß ja immer der Index aktuell > gehalten werden, ob man was sucht oder nicht. Das macht ja der Kernel mit inotify. Der sagt denen Bescheid. Deswegen hält sich der Leistungsbedarf für das aktuell halten stark in Grenzen. Aber jetzt zähle mal deine ganzen Suchen zusammen. Dein find sucht, wenn du die Suche nicht einschränkst, dir den ganzen Homeordner ab. Und das jedes mal, bei jeder Suchanfrage. Das braucht bei n Suchen insgesamt mehr Leistung, als über die Desktop Search Maschine. Es verhält sich sogar so, je öfters und mehr Suchen du machst, desto schlimmer schneidet find und Co im Vergleich ab.
Schlaumaier schrieb: > Ich brauch keine Such-Dienste. Die können weitaus mehr als nur suchen. Bspw. können sie die Daten auch gleich richtig aufbereiten. Z.B. sagen sie dir, dass dein Suchbegriff in den PDFs n, m und o gefunden wurden und zeigen dir diese Stelle mitsamt Kontext, also dem drumherum, auch an. Eine normale Dateisuche kann das nicht leisten. > Der Index-Dienst macht in meinen Augen den Rechner langsamer. Und das > mag ich nicht. Bei SSDs und n-Core CPUs fällt das eigentlich nicht ins Gewicht. Zumindest ist es bei Linux so, wenn man da eine performante Desktop Search Engine verwendet.
Yalu X. schrieb: > Damit wird zwar die Datenbank zeitnah aktuell gehalten, dafür läuft die > Engine jedesmal, wenn eine Datei erstellt oder geändert wird. Das frisst > – ähnlich wie bei einem Virenscanner – fast ständig Rechenleistung. Nein, das ist falsch. Die Desktop Suchmaschine schläft im Hintergrund und es ist nur der Kernel der sie dann kurz aufweckt. Dann aktualisiert diese ihre Daten und legt sich wieder schlafen. Mit einem Virenscanner ist das nicht vergleichbar. Der scannt kontinuierlich die Dateien, auf die man zugreift. > Hat man eine große Datei (bspw. von einer Datenbank), in der sehr oft > ein paar wenige Bytes geändert werden, muss der Indexer jedesmal die > komplette Datei durchforsten. Das gilt nicht wenn er Datenbank "aware" ist. Und übrigens kannst du solche Dateien auch von der Indexierung ausnehmen. > Auf den zweiten von mir genannten Punkt bist du nicht eingegangen: > > Yalu X. schrieb: >> Wenn sie keine oder zu wenige Suchergebnisse liefern, kann es auch >> daran liegen, dass die Datenbank […] nicht die für die Suche >> relevanten Einträge enthält. > > Um eine vollständige Volltextsuche zu ermöglichen, müsste der Index > ähnlich groß sein wie die Gesamtheit aller indizierten Dateien in > komprimierter Form. Um die Größe des Index in akzeptablen Grenzen zu > halten, muss folglich einiges an Information weggelassen werden, was > aber die Suche unzuverlässig macht. Das mag sein, aber Wörter wie "mag, das, sein, einiges, folglich, werden usw." muss man gar nicht indexieren. Da reicht in der Regel eine Indexierung von Subjekten.
c-hater schrieb: > Nano schrieb: > >> Das ist keine Desktop Sreach Engine. > > Genau deswegen ist auch das linux-"find": brauchbar und akzeptabel. > Leistet so ziemlich dasselbe, wie unter Windows Agent Ransack. Bloß halt > ohne komfortables GUI... find gibt's auch für Windows. > Dinge, die ich nicht will! Meine Daten gehören mir und nicht dem > Anbieter irgendwelcher Suchmaschinen! Wie schon gesagt, unter Linux sind die Desktop Search Engines Open Source und die Daten bleiben beim Besitzer.
-1 Bit schrieb: > Gibts eigentlich auch Programme die mehrfach komprimierte Archive > durchsuchen/indizieren? > > blah.iso>blup.zip>datei.doc.zst Eine rekursive Indizierung bis in Stufe n sollte jetzt nicht das Problem sein. Machbar wäre es schon. Wer es umsetzt muss man dann halt mal gucken.
Nano schrieb: > Aber jetzt zähle mal deine ganzen Suchen zusammen. Wenn man etwas Ordnung bei der Namensvergabe hat, findet dir/s irgendwas.* das Zeug schneller als manches Tool. Interessant wäre eher wenn der Bildinhalt indiziert werden könnte. Wenn auf dem Klassenfoto 30 Leute sind und das Tool findet automatisch Fritz (ohne Google) ohne das der Dateiname jemals Fritz oder Klasse03 enthielt.
Desktop Search Engines sind so ein bisschen die Hoffnung im Chaos ohne Arbeit investieren zu müssen Meine Erfahrung: Klappt nicht - desshalb habe ich meine Informationen in einem Dokuwiki organisiert. Mit Tags und Namespaces bin ich da deutlich erfolgreicher
Beitrag #6612199 wurde von einem Moderator gelöscht.
Nano schrieb: > Bei SSDs und n-Core CPUs fällt das eigentlich nicht ins Gewicht. Löl. Meine SSD hat 240 GB. Dr Rest einige Terrabytes. Was meinst du was der blöde Dienst allein an Strom frisst. Begründung : Die Festplatten schlafen die meiste Zeit. Der Dienst macht die dauernd wach und nervt. Und wie schon erwähnt. Ich brauche ihn nicht. Ich habe JEDE Datei auf allen Platten sauber im Griff. Damals vor 50-100 Jahren wusste man auch in welchen Ordnern die Bestellungen der Firma xyz von 1932 waren, gut sortiert nach Datum. Genau SO arbeite ich. Ergo muss ich mich nur in die passenden Unterordner begeben und das wars. Und die Fangen um es den NSA-Spionen schwerer zu machen allen mit 0-Daten an. NICHT Eigenen Dateien. Da ist nur Müll drin den ein Tool regelmäßig löscht.
Nano schrieb: > Bei SSDs und n-Core CPUs fällt das eigentlich nicht ins Gewicht. > Zumindest ist es bei Linux so, wenn man da eine performante Desktop > Search Engine verwendet. Das ist auch auf einem alten Rechner nicht wirklich ein Problem wenn man sich mal mit Prozessprioritäten auseinandersetzt. nice/renice Ein recoll bspw. setzt sich selber auf die niedrigste Stufe 19. Ein single CPU rennt beim ersten indizieren nat. eine Weile auf 100% Das stört den Rest aber nicht, wenn was anderes die CPU braucht hat es Vorrang. --
Ich nutze keine echte Desktop Search Engine, aber "Search Everything", was NUR nach Daeinamen sucht, das aber rasend schnell.
Schlaumaier schrieb: > Was meinst du > was der blöde Dienst allein an Strom frisst. Begründung so ein Unfug. Belege? Der Indexer Dienst braucht kaum Rechenzeit, siehe Taskmanager. Das ist auch logisch, der muss ja nur bei Schreibzugriffen checken ob eine Datei indiziert werden muss. Und du Gedächtniswunder willst uns sagen das du auf deinen TB Platten jede xml oder xy Datei kennst? Na klar.
Nano schrieb: > FollsplunkDulchTechnik! schrieb: >> Die Cortanaschnüffelapp ist schon AUS! >> Und mehr Schnüffler braucht es nicht. > > Weißt du eigentlich was eine Desktop Search Engine ist? Das dieses Cortanadingens auch lokal sucht, weisst du scheinbar nicht. Aber das Maul aufreissen. Allerdings so dusslig brogrammiert, dass selbst im Suchpfad befindliche Executables nicht gelistet werden. Erst wenn die (Cortana-)Engine es mal wieder fuer noetig befunden hat, ihren Index zu aktualisieren. > Das ist etwas lokales. > Wenn du Angst vor lokalen Schnüffelprogrammen hast, die die Daten von > Lokal zu dir nach lokal schicken, dann solltest du besser gar keinen > Rechner benutzen. Mit deiner triefenden Unkenntnis solltest eher du Angst vor Rechnern haben.
Johannes S. schrieb: > Und du Gedächtniswunder willst uns sagen das du auf deinen TB Platten > jede xml oder xy Datei kennst? Na klar. Mich interessieren nur MEINE Daten, nicht irgend welche DLL den da sind. Der Rest befindet sich wie oben beschrieben in Ordnern die ich alle kenne. Ich wusste auch damals in meiner Jugendzeit genau wo jeder Vorgang im Archiv stand. Und ich hab mein Praktikum in einer Firma mit einigen 100 Mio DM Umsatz gemacht. Allerdings brauch man dazu kein Supergedächtnis sondern nur ein einfaches Ordnungskonzept was ein Praktikant (war ich damals) nach 2 Stunden Einweisung verstehen kann. Aber wie so das einer verstehen, wenn es nicht einmal die Regierung tut. Ordnung sind halt längs vergessene Techniken. ;)
Und der Dienst frisst dadurch Strom das er eine schlafenden Platte aufweckt weil er eine Routine drin hat, die irgendwann mal ihre Daten überprüft und erneuert. Das macht sie oft dann wenn ich mal was zu futtern mache und dabei den PC an lasse. Da die Platten mit Motor nur Daten enthalten die ich kaum brauche, wie Temp-Backups, etc und jede Menge GB an Spielen ;) sind die beim normalen Arbeiten aus.
Schlaumaier schrieb: > Ordnung sind halt längs vergessene Techniken. ;) Wo du Recht hast hast du Recht: der Trend geht zur chaotischen Lagerhaltung, weil die effektiver ist. Georg
Georg schrieb: > Wo du Recht hast hast du Recht: der Trend geht zur chaotischen > Lagerhaltung, weil die effektiver ist. Nein. Da steckt aber immer eine DB dahinter, die jederzeit sehr genau weiss, wo was liegt. Und diverse Optimierungsalgorithmen, die Zeiten und Wege zur Befüllung und Entnahme optimieren sollen (und das auch recht effizient tun). Nix Chaos. Nur dummen Menschen ohne Einblick in die DB und die Optimierungsstrategien erscheint die resultierende Ablage chaotisch...
c-hater schrieb: > Georg schrieb: > >> Wo du Recht hast hast du Recht: der Trend geht zur chaotischen >> Lagerhaltung, weil die effektiver ist. > > Nein. Da steckt aber immer eine DB dahinter, die jederzeit sehr genau > weiss, wo was liegt. Und diverse Optimierungsalgorithmen, die Zeiten und > Wege zur Befüllung und Entnahme optimieren sollen (und das auch recht > effizient tun). > > Nix Chaos. Nur dummen Menschen ohne Einblick in die DB und die > Optimierungsstrategien erscheint die resultierende Ablage chaotisch... Setzen 6 Die chaotischen Lagerhaltung ist ein Fachbegriff. Das sollte man eigentlich wissen. Damit ist nicht gemeint, dass sie auch chaotisch wäre.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.