Forum: PC Hard- und Software Benutzt ihr eine Desktop search engines oder habt ihr sie abgeschaltet


von Nano (Gast)


Lesenswert?

Und falls ja, welche benutzt ihr?

von FollsplunkDulchTechnik! (Gast)


Lesenswert?

Die Cortanaschnüffelapp ist schon AUS!
Und mehr Schnüffler braucht es nicht.

von Gerhard Z. (germel)


Lesenswert?

"locate" für Dateien, "recoll" für Inhalte. Aber ich hab wahrscheinlich 
deine Frage falsch verstanden.

von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Und falls ja, welche benutzt ihr?

"Engines", darunter stelle ich mir Zeug vor, was im Hintergrund läuft. 
Sowas wird natürlich erst garnicht installiert und falls es 
vorinstalliert ist (Windows, Browserscheiß) wird's totgelegt.

Das kann ich mir leisten, weil ich nur sehr selten etwas suchen muss, 
ich habe Ordnung in meiner Ablage. Und wenn doch mal die Ausnahme von 
der Regel greift, dann nutze ich Agent Ransack. Die erste Suche dauert 
natürlich mangels persistentem Index relativ lange, aber Iterationen 
gehen dann schneller.

Und im Gegensatz z.B. zur Windows-Suche findet der alles, was er finden 
sollte und nicht nur das, was Microsoft meint, was eine Suchengine dem 
Benutzer präsentieren dürfte.

von Irgend W. (Firma: egal) (irgendwer)


Lesenswert?

c-hater schrieb:
...Agent Ransack...

+1

von Georg (Gast)


Lesenswert?

Sofern man überhaupt so etwas braucht - praktisch jedes Fremdprogramm 
ist brauchbarer als die Windows Explorer Suche.

Georg

von Andre (Gast)


Lesenswert?

Meine Dateien suche ich einfach lokal im Explorer.
Das brauche ich aber relativ selten, inzwischen habe ich eine ganz gute 
Struktur aufgebaut.

von oszi40 (Gast)


Lesenswert?

Wenn Du nur nach Dateinamen suchen möchtest, reicht dir /s irgendwas.jpg

von Miwi (Gast)


Lesenswert?

Nano schrieb:
> Und falls ja, welche benutzt ihr?

Launchy

von Nano (Gast)


Lesenswert?

c-hater schrieb:
> "Engines", darunter stelle ich mir Zeug vor, was im Hintergrund läuft.
> Sowas wird natürlich erst garnicht installiert und falls es
> vorinstalliert ist (Windows, Browserscheiß) wird's totgelegt.

Nunja, die fressen nur am Anfang bei der Indexierung Leistung, danach 
nur wenn sie vom Kernel informiert werden und auf einer n Core CPU 
sollte das heutzutage vernachlässigbar sein.

> Das kann ich mir leisten, weil ich nur sehr selten etwas suchen muss,
> ich habe Ordnung in meiner Ablage. Und wenn doch mal die Ausnahme von
> der Regel greift, dann nutze ich Agent Ransack. Die erste Suche dauert
> natürlich mangels persistentem Index relativ lange, aber Iterationen
> gehen dann schneller.

Ich nutze zum  Arbeiten kein Windows. D.h. alle meine Daten habe ich 
unter Linux und da muss ich keine proprietäre Desktop Search Engine wie 
Agent Ransack nutzen, sondern habe die Wahl aus einer Vielzahl von Open 
Source Desktop Search Engines.

Früher, zu Zeiten von Gnome 2 habe ich eine benutzt. Ich glaube das war 
Tracker:
https://en.wikipedia.org/wiki/Tracker_(search_software)

Dann haben die Gnome Leute aber die Desktop Search Engine auf eine 
andere, ich glaube Beagle war es, umgestellt und die war so grottig, 
dass ich die nicht mehr nutzen wollte. Seitdem nutze ich keine mehr.

Eine Struktur in meinen Verzeichnissen hatte ich schon immer. Dennoch 
ging es mit der Desktop Search Engine schneller und bequemer.
Schließlich wurde alles indexiert, von PDF Dateien bis zu Textdateien.
Händisch mit Programmen wie grep oder was passendes für PDF Dateien 
braucht man halt immer verschiedene Tools.

von Nano (Gast)


Lesenswert?

FollsplunkDulchTechnik! schrieb:
> Die Cortanaschnüffelapp ist schon AUS!
> Und mehr Schnüffler braucht es nicht.

Weißt du eigentlich was eine Desktop Search Engine ist?
Das ist etwas lokales.
Wenn du Angst vor lokalen Schnüffelprogrammen hast, die die Daten von 
Lokal zu dir nach lokal schicken, dann solltest du besser gar keinen 
Rechner benutzen.

von Yalu X. (yalu) (Moderator)


Lesenswert?

Nano schrieb:
> Benutzt ihr eine Desktop search engines

Ja, sogar nicht nur auf dem Desktop-PC, sondern auch auf dem Laptop ;-)

> Und falls ja, welche benutzt ihr?

Ich benutze ganz klassisch find, ggf. kombiniert mit weiteren Tools wie
bspw. grep. Wie der Name "find" schon andeutet, sucht das Tool nicht
nur nach Dateien, sondern findet sie auch garantiert, sofern sie
existieren.

Die ganzen Tools mit Indizierung und Datenbanken sind mir etwas zu
undurchsichtig. Wenn sie keine oder zu wenige Suchergebnisse liefern,
kann es auch daran liegen, dass die Datenbank nicht aktuell ist oder
nicht die für die Suche relevanten Einträge enthält. Da ich dann sowieso
noch eine vollständige Suche mit find machen muss, kann ich dies auch
gleich tun.

Dass find für die Suche mehr Zeit braucht, ist für mich kein Problem, da
ich – wie einige meiner Vorschreiber – meine Dateien in sinnvollen
Verzeichnisstrukturen organisiere und deswegen so gut wie nie ein ganzes
Dateisystem (oder sogar mehrere davon) durchsuchen muss, sondern immer
nur einen kleinen Teil davon. Deswegen dauert die Suche auch mit find
meist nur Sekundenbruchteile, im Extremfall vielleicht ein paar
Sekunden.

> oder habt ihr sie abgeschaltet

Das Beste an find: Es schaltet sich nach Benutzung von selber ab :)

von Nano (Gast)


Lesenswert?

Yalu X. schrieb:
> Ich benutze ganz klassisch find, ggf. kombiniert mit weiteren Tools wie
> bspw. grep. Wie der Name "find" schon andeutet, sucht das Tool nicht
> nur nach Dateien, sondern findet sie auch garantiert, sofern sie
> existieren.

Das ist keine Desktop Sreach Engine.

Das was du nutzt, sind gewöhnliche Suchprogramme. Die müssen immer von 
vorne suchen.
Desktop Search Engines müssen das nicht, die indexieren die Daten und 
wenn sich was an den Daten ändert, werden sie vom Kernel informiert und 
passen die eine Änderung dann an.
Deswegen sind die dann auch viel schneller und fressen insgesamt weniger 
Leistung.


> Die ganzen Tools mit Indizierung und Datenbanken sind mir etwas zu
> undurchsichtig. Wenn sie keine oder zu wenige Suchergebnisse liefern,
> kann es auch daran liegen, dass die Datenbank nicht aktuell ist oder
> nicht die für die Suche relevanten Einträge enthält.

Siehe
https://de.wikipedia.org/wiki/Linux_(Kernel)#Inotify

Deine Suchtools machen davon keinen Gebrauch, die Desktop Search Engine 
schon. Insofern sind deren Datenbanken immer aktuell.
Wenn sie das nicht sind, dann hat sie der Nutzer abgeschaltet, so dass 
sie nichts mitbekommen konnten.
Eine Desktop Search Engine muss nämlich natürlich immer im Hintergrund 
auf Bereitschaft laufen, sonst ergibt sie keinen Sinn.

Wenn sie dennoch ständig läuft und nichts findet, dann ist die 
Indexierung schlecht bzw. zu grob eingestellt. Oder der Index ist 
kaputt.

von Hans (Gast)


Lesenswert?

Gerhard Z. schrieb:
> recoll

Kannte ich bisher nicht.. dürfte aber genau das sein was ich schon 
länger suche... thx!

73

von Andreas B. (bitverdreher)


Lesenswert?

Nano schrieb:
> Deswegen sind die dann auch viel schneller und fressen insgesamt weniger
> Leistung.
Ersteres ja, letzteres eher nicht. Es muß ja immer der Index aktuell 
gehalten werden, ob man was sucht oder nicht.
Am sinnvollsten finde ich dabei noch locate/updatedb. (ohne Desktop ;-))

von Daniel B. (daniel_3d)


Lesenswert?

Everyting
https://www.voidtools.com/

Eins meiner meist genutzten Tools.

Gruß Daniel

von Mehmet K. (mkmk)


Lesenswert?

Wie manche meiner Vorredner: dank einer guten Datenstruktur brauche ich 
sowas nicht.
Zu Zeiten, als ich mit Windows unterwegs war, reichte mir der Tree-View 
im TotalCommander (wie sehr ich dieses Tool vermisse!!!), weil es 
schlicht schneller war, als wenn ich mich händisch durch all die Ordner 
durchgekämpft hätte. Ist keine Engine und musste hin und wieder mit F2 
aktuallisiert werden.
Jetzt unter Linux benutze "find" und hin und wieder Catfish. Ist auch 
keine Engine und muss bei Bedarf aktualliert werden.
Recoll werde ich mir anschauen. Danke für diesen Tipp.

von 900ss (900ss)


Lesenswert?

Mehmet K. schrieb:
> wie sehr ich dieses Tool vermisse

Unter wine "nur" im Homedirectory funktioniert es ganz gut. Sieht nur 
hässlich aus ;)

von Schlaumaier (Gast)


Lesenswert?

Eines der ersten Dinge die ich bei Windows mache ist, das ich den 
INDEX-SEARCH-Dienst abschalte.

Der Grund ist ich habe ein Gedächtnis. Um im Gegenzug zu meinen Büro 
herrscht auf meinen PC peinlichsten Ordnung. Ich weiß aus den Kopf noch 
wo ich vor 10 Jahren eine Datei abgelegt habe.

Ich brauch keine Such-Dienste. Und wenn ich man bei einen Bekannten eine 
Datei suche dann stecke ich mein USB-Stick mit Total-Commander rein, 
klicke auch die Lupe und lege los.

Der Index-Dienst macht in meinen Augen den Rechner langsamer. Und das 
mag ich nicht.

von Schlaumaier (Gast)


Lesenswert?

Mehmet K. schrieb:
> im TotalCommander (wie sehr ich dieses Tool vermisse!!!)

Dann installieren doch MC. Ist doch das pedeant zum Total-Commander 
unter Linux.

von Thomas S. (doschi_)


Lesenswert?

Daniel B. schrieb:
> Everyting
> https://www.voidtools.com/
>
> Eins meiner meist genutzten Tools.
>
> Gruß Daniel

+1

von Yalu X. (yalu) (Moderator)


Lesenswert?

Nano schrieb:
> Yalu X. schrieb:
>> Ich benutze ganz klassisch find, ggf. kombiniert mit weiteren Tools wie
>> bspw. grep. Wie der Name "find" schon andeutet, sucht das Tool nicht
>> nur nach Dateien, sondern findet sie auch garantiert, sofern sie
>> existieren.
>
> Das ist keine Desktop Sreach Engine.

Mir ist schon klar, dass die Bezeichnung "Desktop Search Engine"
üblicherweise nur für Suchtools mit Indizierung (oder meinetwegen auch
"Indexierung") verwendet wird. Da diese für mich als Anwender aber im
dieselbe Aufgabe erfüllen wie die klassischen Suchtools, ist für mich
die Unterscheidung von geringer Bedeutung.

Aber um deine Frage unter diesem Gesichtspunkt zu beantworten: Nein, ich
benutze keine Desktop Search Engine :)

Nano schrieb:
>> Die ganzen Tools mit Indizierung und Datenbanken sind mir etwas zu
>> undurchsichtig. Wenn sie keine oder zu wenige Suchergebnisse liefern,
>> kann es auch daran liegen, dass die Datenbank nicht aktuell ist oder
>> nicht die für die Suche relevanten Einträge enthält.
>
> Siehe
> https://de.wikipedia.org/wiki/Linux_(Kernel)#Inotify

Damit wird zwar die Datenbank zeitnah aktuell gehalten, dafür läuft die
Engine jedesmal, wenn eine Datei erstellt oder geändert wird. Das frisst
– ähnlich wie bei einem Virenscanner – fast ständig Rechenleistung.
Hat man eine große Datei (bspw. von einer Datenbank), in der sehr oft
ein paar wenige Bytes geändert werden, muss der Indexer jedesmal die
komplette Datei durchforsten. Da ist es mir lieber, wenn die
Rechenleistung nur dann verbraucht wird, wenn ich tatsächlich etwas
suchen möchte.

Auf den zweiten von mir genannten Punkt bist du nicht eingegangen:

Yalu X. schrieb:
> Wenn sie keine oder zu wenige Suchergebnisse liefern, kann es auch
> daran liegen, dass die Datenbank […] nicht die für die Suche
> relevanten Einträge enthält.

Um eine vollständige Volltextsuche zu ermöglichen, müsste der Index
ähnlich groß sein wie die Gesamtheit aller indizierten Dateien in
komprimierter Form. Um die Größe des Index in akzeptablen Grenzen zu
halten, muss folglich einiges an Information weggelassen werden, was
aber die Suche unzuverlässig macht.

Mir persönlich sind die Nachteile einer Desktop Search Engine bzgl.
des Ressourcenverbrauchs und der Zuverlässigkeit der Suchergebnisse zu
schwerwiegend in Relation zu den paar Sekunden Wartezeit bei der
klassischen Suche.

Ich schrieb explizit "für mich persönlich". Für jemanden, der seine
Dateien kreuz und quer auf seinen Datenträgern herumfahren hat (zu
diesen Leuten gehörte ich früher ebenfalls :)), sie somit nur über die
Inhaltssuche wiederfinden kann und entsprechend oft die Suchfunktion
bemühen muss, sieht das natürlich anders aus.

von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Das ist keine Desktop Sreach Engine.

Genau deswegen ist auch das linux-"find": brauchbar und akzeptabel. 
Leistet so ziemlich dasselbe, wie unter Windows Agent Ransack. Bloß halt 
ohne komfortables GUI...

Alle üblichen "Desktop search engines" (in deinem Sinne) tuen zwar, was 
sie sollen, aber sie tuen auch noch einige Dinge mehr...

Dinge, die ich nicht will! Meine Daten gehören mir und nicht dem 
Anbieter irgendwelcher Suchmaschinen!

Starve them as good you can!

von -1 Bit (Gast)


Lesenswert?

Gibts eigentlich auch Programme die mehrfach komprimierte Archive 
durchsuchen/indizieren?

blah.iso>blup.zip>datei.doc.zst

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Ich verwende Spotlight, nicht weil ich Dinge sonst nicht finden würde, 
sondern weil es schneller geht als sich durch Verzeichnisse zu hangeln.

von Peter Panda2 (Gast)


Lesenswert?

Totalcommander, reicht völig

von Sheeva P. (sheevaplug)


Lesenswert?

Yalu X. schrieb:
> Nano schrieb:
>> Siehe
>> https://de.wikipedia.org/wiki/Linux_(Kernel)#Inotify
>
> Damit wird zwar die Datenbank zeitnah aktuell gehalten, dafür läuft die
> Engine jedesmal, wenn eine Datei erstellt oder geändert wird. Das frisst
> – ähnlich wie bei einem Virenscanner – fast ständig Rechenleistung.
> Hat man eine große Datei (bspw. von einer Datenbank), in der sehr oft
> ein paar wenige Bytes geändert werden, muss der Indexer jedesmal die
> komplette Datei durchforsten. Da ist es mir lieber, wenn die
> Rechenleistung nur dann verbraucht wird, wenn ich tatsächlich etwas
> suchen möchte.

Najaaa... also Datenbank wie etwa PostgreSQL oder MongoDB bieten ja 
selbst sehr leistungsfähige Suchwerkzeuge an, die wird man wohl nicht 
noch zusätzlich indexieren wollen. Zumal deren Daten ja ohnehin in einem 
Binärformat vorliegen, das der Indexer der Suchmaschine mit hoher 
Wahrscheinlichkeit nicht lesen kann...

> Um eine vollständige Volltextsuche zu ermöglichen, müsste der Index
> ähnlich groß sein wie die Gesamtheit aller indizierten Dateien in
> komprimierter Form.

Äh, jaein. "Richtige" Volltextsuchmaschinen wie beispielsweise 
Elasticsearch nutzen einen invertierten Index, dessen Größe sich primär 
an der Häufigkeit der indizierten Worte orientiert. Dafür lassen sie 
allerdings Suchen zu, sie mit klassischen Tools wie grep(1) und Co. 
nicht darstellbar sind: unscharfe Suchen mit einer angegebenen 
Damerau-Levenshtein-Distanz, phonetische Suchen. Auch die Art bzw. 
Einstellung der Indexierung spielt allerdings sowohl für die Suchen als 
auch für die Indexierung eine große Rolle; so können beim Tokenizing 
etwa Shingles und N-Grams oder auch ein Stemming angewendet werden. Und 
Elasticsearch kann beim Indexieren auch Texte aus Binärdateien wie 
Office-Dokumenten, EXIF-Tags aus Bilddateien oder die Mediainfos aus 
Videodateien extrahieren...

Was "richtige" Suchmaschinen außerdem besser als grep(1) und Co. können, 
ist: sie können den Ergebnissen einen Score geben, und zum Beispiel 
Elasticsearch sortiert die Suchergebnisse nach diesem Score. Damit haben 
sogar die Volltextsuchmaschinen aller mir bekannten Datenbanken leider 
noch ziemliche Probleme... :-)

Dabei ist zum Beispiel Elasticsearch so schnell, daß man sich sogar ein 
kleines Webinterface mit Autocompletion darauf bauen kann. Einfache 
Suchen auch über mehrere Millionen Dokumente sind in einstelligen, 
kompliziertere (unscharfe) Suchen brauchen meistens auch nicht mehr als 
eine zweistelligen Anzahl von Millisekunden... Wer also große 
Dokumentenbestände hat und diese oft und eventuell auch unscharf 
durchsuchen will, ist mit einer "richtigen" Suchmaschine vermutlich 
besser bedient als mit den klassischen UNIX-Shellwerkzeugen.

Für einen Indexer würde ich im Übrigen ebenfalls inotify(7) benutzen, 
die Events jedoch in irgendeine Message Queue schreiben, die neuen Redis 
Streams lesen sich diesbezüglich ausgesprochen vielversprechend. Der 
eigentliche Indexer würde die Dateinamen dann aus der Message Queue 
lesen und per Bulk-Upload ins Elasticsearch pumpen -- das hätte den 
großen Vorteil, daß man den Indexer a) laufen lassen kann, wenn man ihn 
braucht, b) der Index nicht für jedes einzelne Dokument geöffnet und 
wieder geschlossen werden muß, was ziemlich teuer ist, und c) daß man 
den Indexer notwendigenfalls auch mal deaktivieren kann, wenn man die 
Leistung gerade mal für andere Aufgaben benötigt.

Naja, wie dem auch sei: ich bin auch lieber  mit locate(1), find(1), 
(e)grep(1) und Konsorten unterwegs... meine olle Büchse hat ohnehin zu 
wenig RAM und die neue wird wohl erst nächste oder übernächste Woche 
kommen. ;-)

von Nano (Gast)


Lesenswert?

Andreas B. schrieb:
> Nano schrieb:
>> Deswegen sind die dann auch viel schneller und fressen insgesamt weniger
>> Leistung.
> Ersteres ja, letzteres eher nicht. Es muß ja immer der Index aktuell
> gehalten werden, ob man was sucht oder nicht.

Das macht ja der Kernel mit inotify.
Der sagt denen Bescheid. Deswegen hält sich der Leistungsbedarf für das 
aktuell halten stark in Grenzen.

Aber jetzt zähle mal deine ganzen Suchen zusammen.
Dein find sucht, wenn du die Suche nicht einschränkst, dir den ganzen 
Homeordner ab.
Und das jedes mal, bei jeder Suchanfrage.

Das braucht bei n Suchen insgesamt mehr Leistung, als über die Desktop 
Search Maschine. Es verhält sich sogar so, je öfters und mehr Suchen du 
machst, desto schlimmer schneidet find und Co im Vergleich ab.

von Nano (Gast)


Lesenswert?

Schlaumaier schrieb:
> Ich brauch keine Such-Dienste.

Die können weitaus mehr als nur suchen.
Bspw. können sie die Daten auch gleich richtig aufbereiten.

Z.B. sagen sie dir, dass dein Suchbegriff in den PDFs n, m und o 
gefunden wurden und zeigen dir diese Stelle mitsamt Kontext, also dem 
drumherum, auch an.
Eine normale Dateisuche kann das nicht leisten.

> Der Index-Dienst macht in meinen Augen den Rechner langsamer. Und das
> mag ich nicht.

Bei SSDs und n-Core CPUs fällt das eigentlich nicht ins Gewicht.
Zumindest ist es bei Linux so, wenn man da eine performante Desktop 
Search Engine verwendet.

von Nano (Gast)


Lesenswert?

Yalu X. schrieb:
> Damit wird zwar die Datenbank zeitnah aktuell gehalten, dafür läuft die
> Engine jedesmal, wenn eine Datei erstellt oder geändert wird. Das frisst
> – ähnlich wie bei einem Virenscanner – fast ständig Rechenleistung.

Nein, das ist falsch.
Die Desktop Suchmaschine schläft im Hintergrund und es ist nur der 
Kernel der sie dann kurz aufweckt. Dann aktualisiert diese ihre Daten 
und legt sich wieder schlafen.

Mit einem Virenscanner ist das nicht vergleichbar. Der scannt 
kontinuierlich die Dateien, auf die man zugreift.


> Hat man eine große Datei (bspw. von einer Datenbank), in der sehr oft
> ein paar wenige Bytes geändert werden, muss der Indexer jedesmal die
> komplette Datei durchforsten.

Das gilt nicht wenn er Datenbank "aware" ist.
Und übrigens kannst du solche Dateien auch von der Indexierung 
ausnehmen.

> Auf den zweiten von mir genannten Punkt bist du nicht eingegangen:
>
> Yalu X. schrieb:
>> Wenn sie keine oder zu wenige Suchergebnisse liefern, kann es auch
>> daran liegen, dass die Datenbank […] nicht die für die Suche
>> relevanten Einträge enthält.
>
> Um eine vollständige Volltextsuche zu ermöglichen, müsste der Index
> ähnlich groß sein wie die Gesamtheit aller indizierten Dateien in
> komprimierter Form. Um die Größe des Index in akzeptablen Grenzen zu
> halten, muss folglich einiges an Information weggelassen werden, was
> aber die Suche unzuverlässig macht.

Das mag sein, aber Wörter wie "mag, das, sein, einiges, folglich, werden 
usw." muss man gar nicht indexieren. Da reicht in der Regel eine 
Indexierung von Subjekten.

von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Nano schrieb:
>
>> Das ist keine Desktop Sreach Engine.
>
> Genau deswegen ist auch das linux-"find": brauchbar und akzeptabel.
> Leistet so ziemlich dasselbe, wie unter Windows Agent Ransack. Bloß halt
> ohne komfortables GUI...

find gibt's auch für Windows.


> Dinge, die ich nicht will! Meine Daten gehören mir und nicht dem
> Anbieter irgendwelcher Suchmaschinen!

Wie schon gesagt, unter Linux sind die Desktop Search Engines Open 
Source und die Daten bleiben beim Besitzer.

von Nano (Gast)


Lesenswert?

-1 Bit schrieb:
> Gibts eigentlich auch Programme die mehrfach komprimierte Archive
> durchsuchen/indizieren?
>
> blah.iso>blup.zip>datei.doc.zst

Eine rekursive Indizierung bis in Stufe n sollte jetzt nicht das Problem 
sein.
Machbar wäre es schon. Wer es umsetzt muss man dann halt mal gucken.

von oszi40 (Gast)


Lesenswert?

Nano schrieb:
> Aber jetzt zähle mal deine ganzen Suchen zusammen.

Wenn man etwas Ordnung bei der Namensvergabe hat, findet dir/s 
irgendwas.* das Zeug schneller als manches Tool. Interessant wäre eher 
wenn der Bildinhalt indiziert werden könnte. Wenn auf dem Klassenfoto 30 
Leute sind und das Tool findet automatisch Fritz (ohne Google) ohne das 
der Dateiname jemals Fritz oder Klasse03 enthielt.

von dave4 (Gast)


Lesenswert?

Desktop Search Engines sind so ein bisschen die Hoffnung im Chaos ohne 
Arbeit investieren zu müssen
Meine Erfahrung: Klappt nicht - desshalb habe ich meine Informationen in 
einem Dokuwiki organisiert. Mit Tags und Namespaces bin ich da deutlich 
erfolgreicher

Beitrag #6612199 wurde von einem Moderator gelöscht.
von Schlaumaier (Gast)


Lesenswert?

Nano schrieb:
> Bei SSDs und n-Core CPUs fällt das eigentlich nicht ins Gewicht.

Löl.  Meine SSD hat 240 GB.  Dr Rest einige Terrabytes.  Was meinst du 
was der blöde Dienst allein an Strom frisst. Begründung : Die 
Festplatten schlafen die meiste Zeit. Der Dienst macht die dauernd wach 
und nervt.

Und wie schon erwähnt. Ich brauche ihn nicht. Ich habe JEDE Datei auf 
allen Platten sauber im Griff.

Damals vor 50-100 Jahren wusste man auch in welchen Ordnern die 
Bestellungen der Firma xyz von 1932 waren, gut sortiert nach Datum. 
Genau SO arbeite ich. Ergo muss ich mich nur in die passenden 
Unterordner begeben und das wars.

Und die Fangen um es den NSA-Spionen schwerer zu machen allen mit 
0-Daten an. NICHT Eigenen Dateien. Da ist nur Müll drin den ein Tool 
regelmäßig löscht.

von 1of1 (Gast)


Lesenswert?

Nano schrieb:

> Bei SSDs und n-Core CPUs fällt das eigentlich nicht ins Gewicht.
> Zumindest ist es bei Linux so, wenn man da eine performante Desktop
> Search Engine verwendet.

Das ist auch auf einem alten Rechner nicht wirklich ein Problem wenn man 
sich mal mit Prozessprioritäten auseinandersetzt.

nice/renice

Ein recoll bspw. setzt sich selber auf die niedrigste Stufe 19.
Ein single CPU rennt beim ersten indizieren nat. eine Weile auf 100% 
Das stört den Rest aber nicht, wenn was anderes die CPU braucht hat es 
Vorrang.

--

von Matthias L. (limbachnet)


Lesenswert?

Ich nutze keine echte Desktop Search Engine, aber "Search Everything", 
was NUR nach Daeinamen sucht, das aber rasend schnell.

von Johannes S. (Gast)


Angehängte Dateien:

Lesenswert?

Schlaumaier schrieb:
> Was meinst du
> was der blöde Dienst allein an Strom frisst. Begründung

so ein Unfug. Belege?
Der Indexer Dienst braucht kaum Rechenzeit, siehe Taskmanager. Das ist 
auch logisch, der muss ja nur bei Schreibzugriffen checken ob eine Datei 
indiziert werden muss.
Und du Gedächtniswunder willst uns sagen das du auf deinen TB Platten 
jede xml oder xy Datei kennst? Na klar.

von Markus (Gast)


Lesenswert?

FileSearchEX

von FollsplunkDulchTechnik! (Gast)


Lesenswert?

Nano schrieb:
> FollsplunkDulchTechnik! schrieb:
>> Die Cortanaschnüffelapp ist schon AUS!
>> Und mehr Schnüffler braucht es nicht.
>
> Weißt du eigentlich was eine Desktop Search Engine ist?

Das dieses Cortanadingens auch lokal sucht, weisst du scheinbar nicht.
Aber das Maul aufreissen.
Allerdings so dusslig brogrammiert, dass selbst im Suchpfad
befindliche Executables nicht gelistet werden.
Erst wenn die (Cortana-)Engine es mal wieder fuer noetig
befunden hat, ihren Index zu aktualisieren.

> Das ist etwas lokales.
> Wenn du Angst vor lokalen Schnüffelprogrammen hast, die die Daten von
> Lokal zu dir nach lokal schicken, dann solltest du besser gar keinen
> Rechner benutzen.

Mit deiner triefenden Unkenntnis solltest eher du Angst vor Rechnern 
haben.

von Schlaumaier (Gast)


Lesenswert?

Johannes S. schrieb:
> Und du Gedächtniswunder willst uns sagen das du auf deinen TB Platten
> jede xml oder xy Datei kennst? Na klar.

Mich interessieren nur MEINE Daten, nicht irgend welche DLL den da sind.

Der Rest befindet sich wie oben beschrieben in Ordnern die ich alle 
kenne. Ich wusste auch damals in meiner Jugendzeit genau wo jeder 
Vorgang im Archiv stand. Und ich hab mein Praktikum in einer Firma mit 
einigen 100 Mio DM Umsatz gemacht.

Allerdings brauch man dazu kein Supergedächtnis sondern nur ein 
einfaches Ordnungskonzept  was ein Praktikant (war ich damals) nach 2 
Stunden Einweisung verstehen kann.

Aber wie so das einer verstehen, wenn es nicht einmal die Regierung tut.

Ordnung sind halt längs vergessene Techniken. ;)

von Schlaumaier (Gast)


Lesenswert?

Und der Dienst frisst dadurch Strom das er eine schlafenden Platte 
aufweckt weil er eine Routine drin hat, die irgendwann mal ihre Daten 
überprüft und erneuert.

Das macht sie oft dann wenn ich mal was zu futtern mache und dabei den 
PC an lasse. Da die Platten mit Motor nur Daten enthalten die ich kaum 
brauche, wie Temp-Backups, etc und jede Menge GB an Spielen ;) sind die 
beim normalen Arbeiten aus.

von Georg (Gast)


Lesenswert?

Schlaumaier schrieb:
> Ordnung sind halt längs vergessene Techniken. ;)

Wo du Recht hast hast du Recht: der Trend geht zur chaotischen 
Lagerhaltung, weil die effektiver ist.

Georg

von c-hater (Gast)


Lesenswert?

Georg schrieb:

> Wo du Recht hast hast du Recht: der Trend geht zur chaotischen
> Lagerhaltung, weil die effektiver ist.

Nein. Da steckt aber immer eine DB dahinter, die jederzeit sehr genau 
weiss, wo was liegt. Und diverse Optimierungsalgorithmen, die Zeiten und 
Wege zur Befüllung und Entnahme optimieren sollen (und das auch recht 
effizient tun).

Nix Chaos. Nur dummen Menschen ohne Einblick in die DB und die 
Optimierungsstrategien erscheint die resultierende Ablage chaotisch...

von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Georg schrieb:
>
>> Wo du Recht hast hast du Recht: der Trend geht zur chaotischen
>> Lagerhaltung, weil die effektiver ist.
>
> Nein. Da steckt aber immer eine DB dahinter, die jederzeit sehr genau
> weiss, wo was liegt. Und diverse Optimierungsalgorithmen, die Zeiten und
> Wege zur Befüllung und Entnahme optimieren sollen (und das auch recht
> effizient tun).
>
> Nix Chaos. Nur dummen Menschen ohne Einblick in die DB und die
> Optimierungsstrategien erscheint die resultierende Ablage chaotisch...

Setzen 6
Die chaotischen Lagerhaltung ist ein Fachbegriff. Das sollte man 
eigentlich wissen. Damit ist nicht gemeint, dass sie auch chaotisch 
wäre.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.