Hallo zusammen, wie im Betreff schon angegeben, frage ich mich, ob es eine Möglichkeit gibt im Firefox (V48) eine selbst generierte Blacklist / Blockinglist zu erstellen (evtl. als eigene XML-Datei)? Hintergrund: Obwohl ich die "Do not track" Einstellung gewählt habe, wird man dennoch auf vielen Seiten getracked. Gerade gestern war ich mal wieder bei Mouser bzgl. Datenblattsuche unterwegs (nicht angemeldet) und es dauerte keine 10min, bis ich von denen eine Spam-Mail bekommen hatte, wo ich freundlich auf Neuigkeiten vom Hersteller X mit der Produktpalette Y hingewiesen werde. Nur komisch, dass ich u.a. genau zum Produkt Y des Herstellers X mir ein DB heruntergeladen hatte. Ähnlich ist das auch bei DigiKey - nur kommt da nicht 10min, sondern 3 Tage später eine passende Spam-Mail. Farnell hat auch sowas - aber von denen bekomme ich zur Zeit noch nichts. Was ich suche, ist eine Möglichkeit die Distri-Seiten (oder andere) anzusurfen, aber gezielt die Trackingseiten dort zu unterbinden. Ich habe schon nach AddOns gesucht, jedoch haben die Meisten von denen das Problem, dass die komlette Seite dann blockiert wird. Was ich nicht vorhabe: - Einen anderen Browser zu benutzen. - TOR zu installieren. Evtl. hat ja jemand einen Vorschlag, was man tun kann. Gruß TK
Das kannst du mit so gut wie jedem Adblocker machen. Wenn du den Adblocker nicht als solchen nutzen willst abonniere einfach keine Filterliste. ich kann da µBlock empfehlen, der ist recht schnell und hat kein Zweifelhaftes Geschäftsmodell.
Teo D. schrieb: > Gug Dir mal Ghostery an. Waren das nicht die die selbst auch wieder Nutzerdaten verhökern?
Dirk D. schrieb: > Waren das nicht die die selbst auch wieder Nutzerdaten verhökern? Wat? Erzähl mehr!
Teo schrieb: > Dirk D. schrieb: >> Waren das nicht die die selbst auch wieder Nutzerdaten verhökern? > > Wat? > Erzähl mehr! Da hat er recht. Wurde auch schon hier im Forum besprochen. https://de.wikipedia.org/wiki/Ghostery#Kritik
TK schrieb: > Obwohl ich die "Do not track" Einstellung gewählt habe, > wird man dennoch auf vielen Seiten getracked. "Do not Track" ist eine Aufforderung an den Seitenbetreiber dich nicht zu tracken. Dem nachzukommen ist für den Seitenbetreiber aber freiwillig. Er kann, muss es aber nicht. Mozilla wollte den "Do not Track"-Header eigentlich als Standard "Eingeschaltet" setzten... nur haben da die großen Seitenbetreiber gesagt: "Tja, wenn der immer als Standard gesendet wird ignorieren wir den ganz einfach." Somit muss man den - erst von Hand einschalten (Opt-In) - und dem nachzukommen ist immernoch freiwillig. Ist das nicht schön? Ja, das ist nicht schön! Ist am Ende wie mit der Robots.txt. So, am Ende bleibt dir eigentlich nur NoScript. Dann musst du auf jeder Seite gucken, welche Scripte will die Seite laden, und dann musst du die Scripte von Hand aktivieren, bis die Seite funktioniert.
Hallo zusammen, Dirk schrieb: >ich kann da µBlock empfehlen, der ist recht schnell und hat kein >Zweifelhaftes Geschäftsmodell. Danke für den Tipp - ich habe mir jetzt aber mal uMatrix installiert und werde wohl in den nächsten Tagen mal die Einstellungen (Black-/Whitelist) ansehen. Ich sag dann mal Bescheid, wenn es geklappt hat. Gruß TK
Firefox unterstützt von Haus aus Cookie White/Blacklisting. Für besonders harte fälle nimm noch NoScript dazu.
Kaj schrieb: > Ist das nicht schön? Ja, das ist nicht schön! Aber: Diese beiden Sätze sind schön. :) MfG Paul
@Lukas:
>Firefox unterstützt von Haus aus Cookie White/Blacklisting
Ist mir bekannt, hatte ich auch schon eingestellt. Jedoch kann ich die
Blacklist nicht selbst ändern, da diese ja bei jedem Browserstart (oder
einmal am Tag) neu geladen wird.
Aber mit uMatrix sieht's bis jetzt ziemlich gut aus. Ist zwar gerade ein
Gefrickel mit den Einstellungen, aber das wird schon.
Gruß
TK
Ganz lästige Domains kommen bei mir in die hosts. Dann stören sie weder IE noch SeaMonkey.
:
Bearbeitet durch User
/etc/hosts ist dein Freund, geht dann auch unabhängig vom FF o.ä. Einfach die ungewünschten Domains auf localhost umleiten. Bei Windows findet sie sich unter C:\Windows\System32\Drivers\etc\hosts 127.0.0.1 werbeschleuder.de advertisment.com Du brauchst halt Adminrechte dafür.
etc_hosts schrieb: > /etc/hosts ist dein Freund, geht dann auch unabhängig vom FF o.ä. > Einfach die ungewünschten Domains auf localhost umleiten. Bei Windows > findet sie sich unter C:\Windows\System32\Drivers\etc\hosts > > 127.0.0.1 werbeschleuder.de advertisment.com > > Du brauchst halt Adminrechte dafür. Das hilft nur herzlich wenig wenn das tracking über eine domain abgewickelt wird die man nicht komplett aussperren möchte, im idealfall die domain die man grade besucht :)
Dirk D. schrieb: > etc_hosts schrieb: >> /etc/hosts ist dein Freund, geht dann auch unabhängig vom FF o.ä. >> Einfach die ungewünschten Domains auf localhost umleiten. Bei Windows >> findet sie sich unter C:\Windows\System32\Drivers\etc\hosts >> >> 127.0.0.1 werbeschleuder.de advertisment.com >> >> Du brauchst halt Adminrechte dafür. > > Das hilft nur herzlich wenig wenn das tracking über eine domain > abgewickelt wird die man nicht komplett aussperren möchte, im idealfall > die domain die man grade besucht :) Habe ich noch nicht gehabt. Bei mir kommt dieser Müll auch in die host. Vor allem Dingen erhöht diese Methode auch die Geschwindigkeit des Browsers. Vor allen wenn man eine langsame Internetverbindung hat. Gruß Andreas
Andreas B. schrieb: > Vor allem Dingen erhöht diese Methode auch die Geschwindigkeit des > Browsers. Vor allen wenn man eine langsame Internetverbindung hat. > > Gruß > Andreas Warum ist diese Methode "schneller" als das Filtern im Browser?
Dirk D. schrieb: > Warum ist diese Methode "schneller" als das Filtern im Browser? Weil die BS-funktionen schneller sind als FF und auch keine Hintertürchen durch den Browser mehr existieren können. Gruß Ańdreas
Andreas B. schrieb: > Dirk D. schrieb: >> Warum ist diese Methode "schneller" als das Filtern im Browser? > > Weil die BS-funktionen schneller sind als FF und auch keine > Hintertürchen durch den Browser mehr existieren können. > > Gruß > Ańdreas Du meinst also das es schneller ist einen HTTP-Request zu starten der ins leere läuft als ihn nicht auszuführen? Das bezweifele ich aber. Ich hab das grade auch mit Chrome und µBlock getestet. Kein Unterschied feststellbar, die Ladezeiten für eine Seite mit 1000 Bildern die Wahlweise per hosts geblockt, oder per µBlock gefiltert werden liegen im Mittel deutlich näher zusammen als die mittlere Abweichung.
Hi, ja das meinte ich. Der erfolglose Request läuft ja lokal. Beim FF habe ich langsam den Eindruck daß dieser in Java geschrieben ist. Daher versuche ich den Einsatz von Addons zu vermeiden.Ich hab e es aber zugegebenermaßen nicht getestet. Hmm, Dein Ergebnis wundert mich jetzt aber (Ok, Du hast einen anderen Browser). Hast Du eine lange Blockliste mit vielen Einträgen getestet? Gruß Andreas
Ich hab an meiner Filterliste nichts geändert, ich hab nur die html-seite so generiert das der filter greift oder ebend nicht. Wenn ich die Filter aller Abonierten FIlterlisten überschlage komm ich irgendwo zwischen 45000 und 47000 Filtern raus. Bedenke dass die Requests gegen localhost zwar sehr schnell gehen, aber nicht parallel, bzw. immer nur 2 gleichzeitig, es wird also 2 mal parallel 500 tcp Verbindungen geöffnet die dann mit nem Connection refused beantwortet werden. Das braucht auch Zeit.
Ich habe bei mir derartiges in der DNS der Firewall Blockiert: Beitrag "Re: PI Hole - Werbung filtern auf Netzwerkebene" Ich lasse NXDOMAIN zurückliefern. Da keine addresse, wird kein Request abgesendet.
Daniel A. schrieb: > Ich habe bei mir derartiges in der DNS der Firewall Blockiert: > Beitrag "Re: PI Hole - Werbung filtern auf Netzwerkebene" > > Ich lasse NXDOMAIN zurückliefern. Da keine addresse, wird kein Request > abgesendet. Das ist in meinem Test deutlich langsamer. Wahrscheinlich weil mehere verweise auf die selbe domain mehere dns-anfragen hervorrufen. NXDOMAIN darf ja nicht gecached werden...
Meine Methode: Ich lenke nicht auf localhost um, sondern auf eine IP, für die ich ein Pseudo-Interface konfiguriert habe. Da läuft dann auf Port 80 ein Fake-Webserver, der für jeden Request die Verbindung sofort schließt. Mit ca. 35 abgefangenen IPs wird der Großteil der für mich relevanten Tracking- und Wassonstnoch-Server ausgehebelt die "befreiten" Seiten werden richtig schnell. Werbung gibt's auch nicht mehr so viel.
Dirk D. schrieb: > Daniel A. schrieb: >> Ich habe bei mir derartiges in der DNS der Firewall Blockiert: >> Beitrag "Re: PI Hole - Werbung filtern auf Netzwerkebene" >> >> Ich lasse NXDOMAIN zurückliefern. Da keine addresse, wird kein Request >> abgesendet. > > Das ist in meinem Test deutlich langsamer. > Wahrscheinlich weil mehere verweise auf die selbe domain mehere > dns-anfragen hervorrufen. NXDOMAIN darf ja nicht gecached werden... Ahemm. RFC2308 existiert ja auch erst seit 18 Jahren, der sollte eigentlich bekannt sein. Natürlich dürfen negative Antworten gecached werden.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.