Ich hatte mir die Tage den aktuellen Firefox installiert, weil ich ein Problem mit Cookies debuggen wollte. Zuerst durfte ich einige Zeit damit verbringen, mich um die Privatsphäre zu kümmern: - Aktivitätsverfolgung - Cookies immer löschen - Daten nicht speichern - Zugriffe auf Standort, Mikrofon, Kamera, usw abschalten - Datenerhebung und installierbare Studien abschalten - Autoupdates deaktivieren (was schon Windows10 Ausmaße annimmt, denn man kann den Updatecheck scheinbar nicht abschalten, sondern nur die Installation aussetzen) Dann durfte ich feststellen, daß im aktuellen Firefox der Inhalt der Cookies im Cookiemanager nicht mehr angezeigt werden kann. Das wurde angeblich aus UI-Designgründen zur Simplifizierung (!) entfernt. Dafür soll man nun in der Webdev Konsole den Storage Manager nutzen; aber scheinbar kann ich nur den Inhalt der Cookies anzeigen, wenn ich auf der entsprechenden Seite bin. Also nix mit Offline-Analyse. Es gibt wohl 3rd Party Plugins, aber was soll das? Eine Funktion, die von Leuten benutzt wird die sich auskennen, wird aus UI Gründen entfernt. Geht's noch? Also ein neuerer Firefox ist hiermit für mich gestorben: eine für mich essenzielle Funktion die es einst gab, wurde grundlos entfernt. Ich muß bis auf weiteres auf meiner alten ESR bleiben. Anscheinend ist alles voll im Dumbing-Down Modus. Dazu sind Autoupdates ekelhaft wenn man nachvollziehbare Setups braucht. Was bietet sich denn aktuell als Alternative an für Leute die Wert auf Privatsphäre legen, keine Werbeorgien mögen und auch mal tiefer in die Daten eintauchen wollen? Schön wären Pluginsupport. Als Bonus ohne DoH Pläne. Edge? Nicht wirklich Chrome? Einem Browser von der weltgrößten Trackingfirma traue ich nicht Brave? Zeigt wohl auch Werbung (tauscht andere Werbung gegen eigene aus) Waterfox? Wurde an System1 (Werbefirma) verkauft Palemoon? Chromium? Vivaldi? Safari? Midori?
Du hast Dich im Datum vertan, Freitag ist erst am 10. Wenn Du es bis dahin nicht aushälst: https://www.telefonseelsorge.de/ oder 0800 1110111
> Was bietet sich denn aktuell als Alternative an für Leute die Wert auf > Privatsphäre legen, keine Werbeorgien mögen und auch mal tiefer in die > Daten eintauchen wollen? Sieht schlecht aus. Bin selbst schon seit ca einem Jahr am suchen und hab nichts auch nur halbwegs zufriedenstellendes gefunden :-( Halte verzweifelt meinen 12er Opera am Leben (Proxy für https, kein Javascript, custom Stylesheets, etc) - aber es wird immer schwerer. Klar, funktionieren tun die anderen, aber halt viel zu gut - ich hab bei denen einfach keine Kontrolle mehr, was sie tun, man fühlt sich ausgeliefert. Dazu kommt noch der wahnsinnige Resourcenbedarf den die hinlegen - meine Rechner sind damit schnell überfordert, insb bei meinem Surf-stil (offene Tabs statt Bookmarks). Wenn das so weitergeht, surfe ich demnächst nur noch auf ein paar Seiten mit Lynx/w3m/elinks.
foobar schrieb: > Halte verzweifelt meinen 12er Opera am Leben Ich habe ja auch lange dran geklammert, aber 8 Jahre? Wenn ich sowas lese, frage ich mich regelmäßig was euer größtes Problem ist. Angst vor Datenkraken, oder fahrlässig mit uralter Software online sein..??? BTW bist du als einziger User mit uralt Browser so sehr gut zu tracken.
Browsersucher schrieb: > Palemoon? > Chromium? > Vivaldi? > Safari? Läuft nur auf Hardware von Apple. > Midori?
Ist wie bei jeder Wahl: Das kleinere Übel. Die sind absichtlich alle furchtbar, damit hinterher niemand Verantwortlich ist. Haben ja alle so gemacht, da konnten wir nicht aus. Und dieser nebensächliche Punkt war bei uns viel besser als bei denen.
Im Vivaldi kann ich mir die Cookies anzeigen lassen, unabhängig von der Seite. Leider nur die Namen der Cookies, für den Wert muss ich jeden Namen einzeln anklicken. Aber mein Gott, für mich ich das nicht sooo dramatisch, ich lösch ab und an einfach mal alles.
Cookies kann man bei diversen Browsern so einstellen, dass sie beim Beenden automatisch gelöscht werden, mit Ausnahmen für bestimmte Sites. Dir Browser-History kann man mitunter direkt oder per Browser-Extension verhindern.
Browsersucher schrieb: > - Autoupdates deaktivieren Fahrlässig. > > Dann durfte ich feststellen, daß im aktuellen Firefox der Inhalt der > Cookies im Cookiemanager nicht mehr angezeigt werden kann. Das wurde > angeblich aus UI-Designgründen zur Simplifizierung (!) entfernt. Dafür > soll man nun in der Webdev Konsole den Storage Manager nutzen; aber > scheinbar kann ich nur den Inhalt der Cookies anzeigen, wenn ich auf der > entsprechenden Seite bin. Also nix mit Offline-Analyse. Schreib nen Bugreport oder guck ob schon einer existiert. https://bugzilla.mozilla.org/ > Was bietet sich denn aktuell als Alternative an für Leute die Wert auf > Privatsphäre legen, keine Werbeorgien mögen und auch mal tiefer in die > Daten eintauchen wollen? Ich bleibe bei Firefox. Browser sind hochkomplexe Gebilde und sie bieten eine große Angriffsfläche für Schadsoftware, daher würde ich mich nicht mit einem Nischenbrowser zufrieden geben, den keiner nutzt. Deine zweitbeste Option ist daher ein Browser auf Chromium-Basis mit möglichst sehr großem Communityteam dahinter. Da meiner Meinung nach Firefox immer noch der am besten von einer Open Source Community, also ohne Konizern dahinter, gepflegte Browser ist, würde ich da nichts anderes verwenden. Und deinen alten Opera solltest du nicht mehr verwenden. Sicherheitslücken und Fingerprint Tracking ist dessen Problem.
Andre schrieb: > Wenn ich sowas lese, frage ich mich regelmäßig was euer größtes Problem > ist. Angst vor Datenkraken, oder fahrlässig mit uralter Software online > sein..??? Mein Problem ist, daß neue Versionen weniger "Inside" Funktionalität bieten, dafür im Austausch mehr Daten wollen. Ich will mich nicht an alte Software klammern, aber wenn ich mit der neuen schlechter bis garnicht arbeiten kann...? Was nützt mir da eine polierte und rundgelutschte UI? Nix. Firefox verliert konstant User; und zwar nicht trotz der Verbesserungen, sondern wegen denen. Reinhard S. schrieb: > Im Vivaldi kann ich mir die Cookies anzeigen lassen, unabhängig von der > Seite. Leider nur die Namen der Cookies, für den Wert muss ich jeden > Namen einzeln anklicken. Also Du hast eine Liste aller Cookies, und kannst für jedes alle Werte anzeigen, ohne auf der Seite sein zu müssen?
Ich hab auch mal einen Browser geschrieben. Ist aber nicht fertig geworden. Martin Brinkmann ghacks Michael Kuketz c't da findest du was. Clear Storage Button ist eine erweiterung für firefox-esr.
Bei Seamonkey(Win/Linux) / IceApe sieht das so aus, wie im angehängten Bild!
tomapyrin schrieb: > Michael Kuketz Und bei ihm speziell sein Blog: https://www.kuketz-blog.de/firefox-ein-browser-fuer-datenschutzbewusste-firefox-kompendium-teil1/ Zitat: Die erschreckende Wahrheit: Firefox ist das kleinste Übel. Alle anderen weit verbreiteten Browser geben sich beim Ausspionieren des Nutzers noch mehr Mühe oder sind einfach nicht quelloffen.
Warum nutzt du nicht einfach einen VPN oder Tor wenn du halbwegs anonym im Netz unterwegs sein willst? Da würde ich zuerst ansetzen.
Browsersucher schrieb: > Reinhard S. schrieb: >> Im Vivaldi kann ich mir die Cookies anzeigen lassen, unabhängig von der >> Seite. Leider nur die Namen der Cookies, für den Wert muss ich jeden >> Namen einzeln anklicken. > > Also Du hast eine Liste aller Cookies, und kannst für jedes alle Werte > anzeigen, ohne auf der Seite sein zu müssen? Ja, sortiert nach Domains. Wobei man wie gesagt für den Wert immer auf den Namen vom Cookie klicken muss, was ich etwas umständlich gelöst finde. In Opera 12 wurde glaube der Wert immer gleich dahinter angezeigt.
Florian S. schrieb: > Warum nutzt du nicht einfach einen VPN oder Tor Weil es darum ja eigentlich gar nicht geht. Reinhard S. schrieb: > Ja, sortiert nach Domains. Wobei man wie gesagt für den Wert immer auf > den Namen vom Cookie klicken muss, was ich etwas umständlich gelöst > finde. In Opera 12 wurde glaube der Wert immer gleich dahinter > angezeigt. Damit könnte ich leben, danke!
Browsersucher schrieb: > Was bietet sich denn aktuell als Alternative an für Leute die Wert auf > Privatsphäre legen, keine Werbeorgien mögen und auch mal tiefer in die > Daten eintauchen wollen? lynx ist Hardcore für txt puristen oder eben wo http das Geräte-User Interface ist. https://de.wikipedia.org/wiki/Lynx_(Browser) Hat auch schon Nachfolger: https://www.hanselman.com/blog/LynxIsDeadLongLiveBrowshForTextbasedInternetBrowsing.aspx Wobei, wenn man wirklich tief in die deten einsteigen möchte, kann man auch gleich ein Phython script benutzen und sich vom Ganzen Website Grafik schnischnack befreien.
Browsersucher schrieb: > daß im aktuellen Firefox der Inhalt der > Cookies im Cookiemanager nicht mehr angezeigt werden kann 1.Ob man da immer ALLES sieht? Meterlange Zeichenketten könnten auch den Spaß verderben? In Endeffekt hat man die Wahl zwischen Pest und Cholera. Es verbietet Dir aber keiner, den FF-Entwicklern eine Mail zu schreiben. 2.VPN und Tor nützt wenig, wenn die Tor-IP ausgesperrt wurde. Außerdem garantiert Dir keiner, dass nicht ein faules Ei in der Kette ist.
Also ich nutze Palemoon und bin sehr zufrieden damit. Wie Firefox mit der alten UI.
> In Opera 12 wurde glaube der Wert immer gleich dahinter angezeigt.
Korrekt. In den Seitenspezifischen Einstellung (s. Anhang).
Insbesondere kann man Cookies auch editieren.
Browsersucher schrieb: > Was bietet sich denn aktuell als Alternative an für Leute die Wert auf > Privatsphäre legen, keine Werbeorgien mögen und auch mal tiefer in die > Daten eintauchen wollen? Was für ne dumme Frage. Selbst schreiben natürlich! Webseiten sind ne Folge von Bytes. Das ist echt trivial zu parsen und darzustellen. Wenn du das nicht kannst, nenn dich nicht IT-affin. Oder ist affin bei dir die weibliche Form von Affe?
Eigentlich gibt es da ein Problem: Browser gehören in der heutigen Zeit vom Aufwand und Komplexität zu den anspruchsvollsten Projekten die es in der Software Welt geben kann. Auf der anderen Seite gibt es Menschen die überwiegend nicht bereit sind für einen Browser zu bezahlen. Außerdem sind sie von klein auf auch daran gewöhnt dass man für so eine Software nicht bezahlt. Was mag also die Lösung dieses Problems sein? Mögliche Lösungen: - Man erwartet einfach dass ein so reiches Unternehmen wie Microsoft oder Alphabet einfach aus purer Freundlichkeit und ohne einen profitablen Vorteil für sich zu suchen, euch so einen modernen Browser entwickelt und fortlaufend pflegt. - Man entwickelt die Bereitschaft für einen Browser zu zahlen und da reicht es nicht wenn man 1x zahlt und dann erwarten dass Update für die nächsten 30 Jahre kostenlos sind. Damit man so ein großes Projekt finanzieren kann müsste man für neuere Versionen regelmäßig bezahlen. - Die freien Entwickler schaffen es einen freien Browser zu entwickeln und zu pflegen. Da sich das Projekt aus freiwilliger Arbeit und Spenden finanziert wäre es prinzipiell für alle kostenlos.
Dagegen spricht dass Mozilla überwiegend spendenfinanziert ist. Die haben Geld, sind aber dennoch immer mehr in Richung Nutzerfeindlichkeit unterwegs. Pocket, diverse Standardeinstellungen, keine lokale Speicherung von Lesezeichen. Alle anderen sind garnicht zu gebrauchen. Basieren alle auf Chromium oder sind 10 Jahre hinterher.
keinnamevergeben schrieb: > überwiegend spendenfinanziert Ob der NSA auch ein Spender ist? Sponsoren könnten auch Interessen haben?
Barfussläufer schrieb: > und sich vom Ganzen Website > Grafik schnischnack befreien. Es gibt tatsächlich Leute die das Internet ohne Grafik Schnickschnack nutzen: Blinde. oszi40 schrieb: > 1.Ob man da immer ALLES sieht? Meterlange Zeichenketten könnten auch den > Spaß verderben? Was hat das mit Spaß zu tun? Wenn ich ein Problem debuggen muß, dann muß ich evtl halt meterlange Zeichenketten verarbeiten. Oder soll ich den Bug schließen mit "Too much text, wontfix"? Hugi1 schrieb: > Auf der anderen Seite gibt es Menschen die überwiegend nicht bereit sind > für einen Browser zu bezahlen. Außerdem sind sie von klein auf auch > daran gewöhnt dass man für so eine Software nicht bezahlt. Gibt's denn einen Bezahlbrowser? Komplett ohne Telemetrie, mit all dem Umfang den die Nutzer brauchen? Und warum soll das nicht umsonst gehen? Linux zeigt doch, daß kostenlose Software funktionieren kann und daß davon auch Konzerne leben können.
Nebenbei: FF prüft Zertifikate mit OCSP. Das kann nicht jeder Browser.http://www.elektronik-kompendium.de/sites/net/1907091.htm Browsersucher schrieb: > Was hat das mit Spaß zu tun? Wenn ich ein Problem debuggen muß, dann muß > ich evtl halt meterlange Zeichenketten verarbeiten. Oder soll ich den > Bug schließen mit "Too much text, wontfix"? Nicht jedes Gerät hat unendlich viel Speicher. Ob eine Cooki-Flut alte Systeme überlastet hat und das jetzt ein Bugfix ist?
Hugi1 schrieb: > - Die freien Entwickler schaffen es einen freien Browser zu entwickeln > und zu pflegen. Ich glaube, dafür gibt es weder genug freiwillige entwickler, noch hat irgendjemand dafür Zeit, sowas in seiner Freizeit zutun. Und selbst wenn Hast du all die W3C standards gesehen. Das parsen und was wie in welcher Reihenfolge gerendert werden muss, ist alles strikt definiert. Das alles von grundauf neu zu implementieren, ich glaub nicht, dass das möglich ist, das ist viel zu viel und viel zu komplex. Und selbst wenn, die W3C, die die Entscheidungen trifft wird sich dafür wenig interressieren, und dinge wie EME bekommt man nicht mehr weg. Eventuell wäre es besser, ein neues Web zu entwickeln, mit klaren Zielen, scopes, usecases, und segregation zwischen diesen, etwas, wo Werbefreiheit, Userdatensparsamkeit, Dezentralisierung, Informations-/Applications- etc. fokus (je nach usecase/seitenart), etc. teil des Designs sind. Ich nenne diese fiktive Technologie jetzt mal, den Nebel. Der Nebel könnte sich ähnlich verbreiten, wie früher das Internet. Erst in kleineren, technologieaffinen communities, dann nach und nach bei allen. Ich glaube, wir können vielleicht das Web nichtmehr retten/zurück holen, aber wir können den Nebel erschaffen, und das Web überflüssig machen!
Barfussläufer schrieb: > lynx ist Hardcore für txt puristen oder eben wo http das Geräte-User > Interface ist. lynx(1) ist für solche Debugging-Arbeiten, wie der TO sie machen möchte, aber nicht das Mittel der Wahl. Man könnte mit wget oder Perls Modul HTTP::Request arbeiten, das zum Beispiel Befehle wie "GET" und "POST" auf der Kommandozeile bereitstellt. Je nach Problem erscheinen mir jedoch curl(1) oder ein großes GUI-Programm wie WireShark besser geeignet. curl(1) ist eine Software zur Konstruktion von Paketen und Darstellung ihres Ergebnisses, Wireshark ein Paketsniffer. Ach so: wenn die Webseite nur per TLS SSL HTTPS angebunden ist, dann kann man sich eines Reverse Proxy bedienen, um die Verschlüsselung zu terminieren.... ;-) > Wobei, wenn man wirklich tief in die deten einsteigen möchte, kann man > auch gleich ein Phython script benutzen Es heißt Python. Wie die Schlange. ;-)
Hugi1 schrieb: > Eigentlich gibt es da ein Problem: > > Browser gehören in der heutigen Zeit vom Aufwand und Komplexität zu den > anspruchsvollsten Projekten die es in der Software Welt geben kann. Ja. > Auf der anderen Seite gibt es Menschen die überwiegend nicht bereit sind > für einen Browser zu bezahlen. Außerdem sind sie von klein auf auch > daran gewöhnt dass man für so eine Software nicht bezahlt. > > Was mag also die Lösung dieses Problems sein? > > Mögliche Lösungen: > > - Man erwartet einfach dass ein so reiches Unternehmen wie Microsoft > oder Alphabet einfach aus purer Freundlichkeit und ohne einen > profitablen Vorteil für sich zu suchen, euch so einen modernen Browser > entwickelt und fortlaufend pflegt. Schon hier ist Dein erster Denkfehler. MS, Alphabet und Co machen sowas natürlich nicht aus Menschenfreundlichkeit. Sie machen das, weil sie viel weiter denken als Du und deswegen wissen, daß das zunächst die Plattform für die Zukunft sein wird. > - Die freien Entwickler schaffen es einen freien Browser zu entwickeln > und zu pflegen. Da sich das Projekt aus freiwilliger Arbeit und Spenden > finanziert wäre es prinzipiell für alle kostenlos. Schaffen sie ja, einer der (vielen freien) Browser heißt Firefox. Daß der TO damit (angeblich) sein Debugging-Problem nicht gelöst bekommt, steht dem keineswegs entgegen. Denn auch wenn Firefox eine Reihe von Debug-Werkzeugen enthält, ist das nicht einmal ansatzweise die Art von Anwendungsfall, für den diese Software entwickelt wurde.
DPA schrieb: > Eventuell wäre es besser, ein neues Web zu entwickeln, mit klaren > Zielen, scopes, usecases, und segregation zwischen diesen, Hatten wir. Usenet, Gopher, ... Das Problem ist kein technisches, sondern ein soziales. ;-)
Hugi1 schrieb: > > - Die freien Entwickler schaffen es einen freien Browser zu entwickeln > und zu pflegen. Da sich das Projekt aus freiwilliger Arbeit und Spenden > finanziert wäre es prinzipiell für alle kostenlos. Mozilla wurde viele Jahre und wird vermutlich immer noch von Google finanziert. Als Gegenleistung ist Google die voreingestellte Suchmaschine bei einer Default Installation von Firefox. Obwohl Suchmaschinen gibt, die weniger Daten sammeln, sind die bei dem Open Source Projekt Namens Firefox voreingestellt, der Grund liegt in der Finanzierung des Projekts durch Google. Da aber jeder bei Firefox mitmachen kann, sollte es möglich sein, das Cookiemenü um die nötige Fähigkeit wieder zu erweitern. Wenn der Code dann angenommen wird, ist es gut, wenn nicht, dann könnte man immer noch den Code von der aktuellen ESR Version per git Downloaden und mit dem eigenen Code für die Cookie Bearbeitung mergen und dann das ganze zu seiner eigenen Version compilen. Ich schätze mal, dass so ne Cookie Bearbeitungsfunktion nur wenig in die Kernkomponenten eingreift und man sie daher gut anflanschen könnte. Das hält dann den Aufwand bei jeder neuen ESR Version den Merge durchzuführen dann in Grenzen.
keinnamevergeben schrieb: > Dagegen spricht dass Mozilla überwiegend spendenfinanziert ist. Die > haben Geld, sind aber dennoch immer mehr in Richung Nutzerfeindlichkeit > unterwegs. Pocket, diverse Standardeinstellungen, keine lokale > Speicherung von Lesezeichen. Lesezeichen können nach wie vor lokal gespeichert werden. Das ist sogar die Standardeinstellung wenn man kein Firefox Sync verwendet. Und mit Firefox Sync macht es logischerweise keinen Sinn. Hat man Firefox Sync, dann kann man aber dennoch immer noch die Lesezeichen exportieren und hat sie dann auch lokal auf seinem Rechner. Wenn man dann kein Firefox Sync mehr nutzen will, kann man bei einer frischen Browserinstallation und Nutzerprofil die exportieren Lesezeichen wieder importieren.
Browsersucher schrieb: > Und warum soll das nicht umsonst gehen? > Linux zeigt doch, daß kostenlose Software funktionieren kann und daß > davon auch Konzerne leben können. Die Entwicklung von Linux und seiner Software wird längst nicht mehr für Lau gemacht. Seit vielen Jahren wird die Entwicklung von Konzernen finanziert und die zahlen Gehälter und das ist auch der Grund, warum die Entwicklung so schnell voranschreitet. Wer das Gegenteil sehen will, der sollte sich Haiku oder ReactOS ansehen, das wird wirklich nur von freiwilligen in der Freizeit entwickelt. Entsprechend langsam geht es da auch voran. Apropo Haiku. @Threadstarter Haiku wäre auch eine Lösung. Selbst wenn deren Browser Sicherheitslücken hat, bleibst du unter dem Radar, weil für Haiku kaum einer Schadsoftware entwickelt. Das ist dann zwar dann der typische Fall von Security by Obscurity, aber in Angesicht deiner Anforderungen wäre das eine Möglichkeit mit gegebenen Risiko, das man aber in Betracht ziehen und darüber nachdenken könnte. Ich persönlich würde das zwar nicht empfehlen, aber der Vollständigkeithalber erwähne ich es dennoch.
DPA schrieb: > Eventuell wäre es besser, ein neues Web zu entwickeln Es funktioniert ja seit Jahrzehnten noch nicht einmal, ein neues Mailprotokoll parallel zu entwickeln um Spam zu verhindern. Sheeva P. schrieb: > Schaffen sie ja, einer der (vielen freien) Browser heißt Firefox. Daß > der TO damit (angeblich) sein Debugging-Problem nicht gelöst bekommt, > steht dem keineswegs entgegen. Denn auch wenn Firefox eine Reihe von > Debug-Werkzeugen enthält, ist das nicht einmal ansatzweise die Art von > Anwendungsfall, für den diese Software entwickelt wurde. Schön, daß man hier indirekt als Lügner hingestellt wird. Ich habe nicht behauptet daß es mit dem neuen FF überhaupt nicht geht; mich regt es auf, daß Funktionen die vorher vorhanden und einfach nutzbar waren, aus idiotischen UI Aspekten komplett umgelagert und umständlicher nutzbar gemacht wurden. Und wenn Debugging/Entwicklung "nicht einmal ansatzweise die Art von Anwendungsfall" sind, warum hat FF die dann seit Ewigkeiten drin? Es war ja auch lange genug deren Marketingargument, um es den Nerds schmackhaft zu machen.
DPA schrieb: > Eventuell wäre es besser, ein neues Web zu entwickeln, mit klaren > Zielen, scopes, usecases, und segregation zwischen diesen, etwas, wo > Werbefreiheit, Userdatensparsamkeit, Dezentralisierung, > Informations-/Applications- etc. fokus (je nach usecase/seitenart), etc. > teil des Designs sind. Ich nenne diese fiktive Technologie jetzt mal, > den Nebel. Der Nebel könnte sich ähnlich verbreiten, wie früher das > Internet. Erst in kleineren, technologieaffinen communities, dann nach > und nach bei allen. Ich glaube, wir können vielleicht das Web nichtmehr > retten/zurück holen, aber wir können den Nebel erschaffen, und das Web > überflüssig machen! https://xkcd.com/927/
Nano schrieb: . > > Obwohl Suchmaschinen gibt, die weniger Daten sammeln, sind die bei dem > Open Source Projekt Namens Firefox voreingestellt, der Grund liegt in > der Finanzierung des Projekts durch Google. Sry, da fehlt ein nicht. Ich meinte: ...sind die bei dem Open Source Projekt Namens Firefox nicht voreingestellt, ...
Nano schrieb: > Die Entwicklung von Linux und seiner Software wird längst nicht mehr für > Lau gemacht. Als Nutzer bekomme ich Linux aber für lau. Trotzdem funktionieren die Konzerne dahinter. Ergo gilt "gute Software gibt es nur gegen Geld" eben so nicht. Nano schrieb: > Security by Obscurity Mir geht es primär nicht um Security, sondern Useability.
Browsersucher schrieb: > Schön, daß man hier indirekt als Lügner hingestellt wird. Ich habe nicht > behauptet daß es mit dem neuen FF überhaupt nicht geht; mich regt es > auf, daß Funktionen die vorher vorhanden und einfach nutzbar waren, aus > idiotischen UI Aspekten komplett umgelagert und umständlicher nutzbar > gemacht wurden. Mozilla hat eine Mailingliste für Entwickler. Melde dich da an und schildere dort dein Problem. Wenn der Aufschrei aus dem Netz groß genug ist, wird man das wieder nachbessern.
Browsersucher schrieb: > Nano schrieb: >> Die Entwicklung von Linux und seiner Software wird längst nicht mehr für >> Lau gemacht. > > Als Nutzer bekomme ich Linux aber für lau. Trotzdem funktionieren die > Konzerne dahinter. Ergo gilt "gute Software gibt es nur gegen Geld" eben > so nicht. Die Software wird mithilfe von Geld entwickelt, ohne diese Entwicklung wäre die Software noch nicht das, was sie jetzt ist. > > Nano schrieb: >> Security by Obscurity > > Mir geht es primär nicht um Security, sondern Useability. Na dann ist Haiku für dich doch eine Option. Du kannst es auch in eine VM packen.
Sheeva P. schrieb: > Barfussläufer schrieb: >> lynx ist Hardcore für txt puristen oder eben wo http das Geräte-User >> Interface ist. > > lynx(1) ist für solche Debugging-Arbeiten, wie der TO sie machen möchte, > aber nicht das Mittel der Wahl. Man könnte mit wget oder Perls Modul > HTTP::Request arbeiten, das zum Beispiel Befehle wie "GET" und "POST" > auf der Kommandozeile bereitstellt. Ja man kann per ssh oder dem (unsicheren) Telnet direkt eine Verbindung zu dem Webserver aufbauen und direkt die http-Kommandos eigeben. Aber das habe ich mich nicht getraut um nicht als "IT-Masochist, du programmierst sicher auch noch Assembler" beschimpft zu werden ;-) >> Wobei, wenn man wirklich tief in die deten einsteigen möchte, kann man >> auch gleich ein Phython script benutzen > > Es heißt Python. Wie die Schlange. ;-) Stimmt, wobei es ist hier nur ein Beispiel für 'script-affines' web-browsen. Perl als alternative resp. klassischen Ansatz hast Du ja schon genannt .. auch das habe ich mich aus oben genannten Gründen nicht getraut ;-).
Nano schrieb: > Die Software wird mithilfe von Geld entwickelt, ohne diese Entwicklung > wäre die Software noch nicht das, was sie jetzt ist. Stimmt, aber trotzdem zahlt der normale User ja nicht dafür; die finanzieren sich eben anders, zB über Serviceverträge. Barfussläufer schrieb: > Ja man kann per ssh oder dem (unsicheren) Telnet direkt eine Verbindung > zu dem Webserver aufbauen und direkt die http-Kommandos eigeben. Aber > das habe ich mich nicht getraut um nicht als "IT-Masochist, du > programmierst sicher auch noch Assembler" beschimpft zu werden ;-) Telnet für http ist nicht unsicherer als jeder andere Browser. Das hat nichts mit Masochismus zu tun: es ist ein Werkzeug. Und wenn man mit dem Netz arbeitet, dann nutzt man eben solche Werkzeuge. So gesehen sind für Tante Emma auch Elektroniker Masochisten, weil die mit Widerständen und so arbeiten, statt fertige Produkte zu nutzen.
Sheeva P. schrieb: > DPA schrieb: >> Eventuell wäre es besser, ein neues Web zu entwickeln, mit klaren >> Zielen, scopes, usecases, und segregation zwischen diesen, > > Hatten wir. Usenet, Gopher, ... Usenet... Das war vor meiner Zeit. Das war doch ursprünglich nur für Text da? Das soll wohl funktionsmässig ein bisschen wie ein Forum gewesen sein, aber wo Zeugs eventuell nicht für immer da bleibt? Und das ist wohl global gedacht, aber es gibt nur noch ein paar Provider, die aber irgendwie miteinander verbunden sind, und auch noch kosten? Später wurden denn da beliebige Dateiformate möglich, was dann zu einem Problem wurde? Ist glaub ich rechtlich gesehen für die Betreiber etwas problematisch, aus ähnlichen gründen wie warum Torrents für Endbenutzer problematisch sind? Also ist selbst nen server betreiben zu gefährlich und unpraktikabel heutzutage? Die Idee/das Konzept find ich eigentlich gut, aber das Problem damit scheint mir jetzt eher Rechtlicher/Politischer und Technischer Natur zu sein, als Sozialer. Eventuell wäre heute eine torrent oder cluster artigere Struktur für sowas sinnvoller? Wenn jeder Nutzer auch ein Server wäre und dinge würden nur für ne Woche auf immer mindestens 10 zufälligen Nodes zu jedem Zeitpunkt gespeichert oder so, eventuell wäre es dann verbreiteter, zugänglicher, und man bräuchte keine Provider? Und Gopher... das ist doch vergleichbar mit HTTP. Aber ich denke, es ist etwas zu Limitierend (ich glaub das nutzt noch nicht einmal mime typen und kann keine compression, und keine dynamischen Inhalte)? Es hat zwar auch ein paar nette Features, die HTTP fehlen. Können die Browser dafür auch was anderes als Plain Text direkt selbst darstellen, z.B. markdown oder so? Sonst erscheint mir das doch etwas zu minimalistisch. > Das Problem ist kein technisches, sondern ein soziales. ;-) Na ich weiss ja nicht, ich glaube es gute andere gründe, als nur Soziale, warum sich bisherige Alternativen nicht durchsetzen konnten. Ich setz mir das mal auf die TODO liste, und überleg mir mal was neues & besseres, falls ich da mal dazu komme.
DPA schrieb: >> Das Problem ist kein technisches, sondern ein soziales. ;-) > > Na ich weiss ja nicht, ich glaube es gute andere gründe, als nur > Soziale, warum sich bisherige Alternativen nicht durchsetzen konnten. Eigentlich schon, oder anders formuliert, es sind nicht die technischen Probleme die der TO mit Browserwechsel lösen will. Beispielsweise "Werbe-Müll" hat nix mit Technik zu tun, eher mit Bezahlmoral. Wer bereit ist für Technik zu zahlen muss nicht auf Pseudo-Finanzierung wie Bezahlmodell Werbeschlucker. Ähnlich 'tracking'. Und manchmal ist es einfach Bequemlichkeit und "Blendung durch bunte GUI". Beispielsweise mikrocontroller.net als Nachfolger von d.s.e. aka Newsgroup de.science.electronic http://www.dse-faq.elektronik-kompendium.de/ Die technische Eingangshürde wie das Aufsetzen eines news client und Organisation des passenden news-feeds sorgte en passant dafür das fast ausschliesslich technik- und nicht Dummlabber-Interessierte ihren Weg in die Diskussion fanden.
DPA schrieb: > Sheeva P. schrieb: >> DPA schrieb: >>> Eventuell wäre es besser, ein neues Web zu entwickeln, mit klaren >>> Zielen, scopes, usecases, und segregation zwischen diesen, >> >> Hatten wir. Usenet, Gopher, ... > > Usenet... Das war vor meiner Zeit. > > Das war doch ursprünglich nur für Text da? Das soll wohl funktionsmässig > ein bisschen wie ein Forum gewesen sein, aber wo Zeugs eventuell nicht > für immer da bleibt? Newsgroups musst du dir von der Benutzung und den Möglichkeiten her sehr ähnlich wie E-Mail vorstellen. Nur dass man nicht an eine Mail-Adresse, sondern an eine Newsgroup schreibt, die man vorher abonniert hat. Die Posting werden auf dem Server gespeichert. Im Newsreader wurden dann die Gesprächsverläufe angezeigt. Das Usenet war mal ein sehr großes Netz aus vielen Newsgroup-Servern weltweit, die alle miteinander verbunden waren und die Postings untereinander ausgetauscht haben, so dass du - auch ähnlich wie bei E-Mail - dich mit dem Usenet-Server deines Providers verbunden hast und dann die Postings von anderen, die diese über ihre jeweiligen Server gepostet haben, sehen und darauf antworten konntest. Jeder Server-Betreiber hatte dabei in der Hand, welche Newsgroups er auf seinem Server haben wollte. Es gab eine unglaubliche Anzahl von Newsgroups zu allen erdenklichen Themen. Die Bezeichnungen der Themen waren dabei hierarisch sortiert. Wenn man sich z.B. auf deutsch über Raumschiff Enterprise unterhalten wollte, ging man nach de.rec.sf.startrek.enterprise. Es gab dann auch "Binary"-Newsgroups, die sich darauf spezialisiert haben, Programme und andere Dinge illegal als Anhang zu verbreiten.
Barfussläufer schrieb: > Beispielsweise "Werbe-Müll" > hat nix mit Technik zu tun, eher mit Bezahlmoral. Wer bereit ist für > Technik zu zahlen muss nicht auf Pseudo-Finanzierung wie Bezahlmodell > Werbeschlucker. Ähnlich 'tracking'. Naja, ich weiss ja nicht, ob die mit Tracking und Werbung wirklich aufhören würde, wenn man die bezahlen würde. Andererseits, wenn es für jeden trivial wäre, so ein Forum zu machen, oder sowas globales & dezentrales wie Newsgroup wieder aufkommen würde, und man nicht wegen dem copyright mist aufpassen müsste, glaube ich, würde es dort vermutlich keine Werbung oder Tracking in der Form geben, wie wir sie heute haben. Schaut euch nur mal all die Mastodon Instanzen und co. an, ich hab noch keine mit Werbung gesehen. Es ist aber auch nicht alle Werbung schlecht. Es gibt diesen einen Werbeanbieter, den ich in meiner Blockliste gewhitelistet habe. Früher war das Project Wonderful, bevor die dicht gemacht haben, jetzt ist es www.comicad.net. Der code von dem Ding ist zwar ziemlicher Schrott, aber die Funktionsweise & das Bezahl Modell find ich echt genial. Die Werbung davon ist in der regel recht gut, ich sehe die hauptsächlich bei Comics, und das ist dann in der regel Werbung für andere Comics. So findet man dann tatsächlich neue und interessante Dinge. Stellt euch vor, die Werbung in dem Forum hier würde auf andere interessante Foren zeigen, das wär doch mal was anderes! (Oder auf Comics, andere Foren scheint es auf der Platform eher weniger zu geben, da hätte ich auch nichts dagegen). Auch Seitenempfehlungen der Seitenbetreiber find ich recht nett. Aber diese guten formen der Werbung scheinen leider eher die Ausnahme und nicht besonders Lukrativ zu sein... Rolf M. schrieb: > Newsgroups musst du dir von der Benutzung und den Möglichkeiten her sehr > ähnlich wie E-Mail vorstellen. Nur dass man nicht an eine Mail-Adresse, > sondern an eine Newsgroup schreibt, die man vorher abonniert hat. Also quasi wie bei Mailinglisten?
DPA schrieb: > Rolf M. schrieb: >> Newsgroups musst du dir von der Benutzung und den Möglichkeiten her sehr >> ähnlich wie E-Mail vorstellen. Nur dass man nicht an eine Mail-Adresse, >> sondern an eine Newsgroup schreibt, die man vorher abonniert hat. > > Also quasi wie bei Mailinglisten? Eher nicht, mailing listen werden doch vorwiegend nur in eine Richtung benutzt, um Ankündigungen von einem zentralen Punkt an alle Endknoten zu verteilen, während Newsgroupen schon eine Diskussion aus Reply und FollowUp im Protokoll abbilden. Schön wenn sich dann jemand findet die Diskussionen in einer FAQ zusammenzubündeln. Schau dir einfach mal http://www.dse-faq.elektronik-kompendium.de/dse-faq.txt an, was da an geordneter Information in einer Newsgroup zusammengetragen wurde.
Barfussläufer schrieb: > Eher nicht, mailing listen werden doch vorwiegend nur in eine Richtung > benutzt Nö, ganz und garnicht. Ich bin in diversen Mailinglisten, und unterhalte mich dort mit den anderen über diverse Themen. Dort gibt es auch Threads, man macht einfach ein Reply an die Liste für die entsprechende Mail. Die brauchbaren Mail Programme haben ne Ansicht, um diese Mail-Threads zusammenzufassen. Ist zwar vermutlich nicht ganz so elegant, wie in nem Forum oder ner Newsgroup, funktioniert aber einwandfrei.
Barfussläufer schrieb: > DPA schrieb: >> Rolf M. schrieb: >>> Newsgroups musst du dir von der Benutzung und den Möglichkeiten her sehr >>> ähnlich wie E-Mail vorstellen. Nur dass man nicht an eine Mail-Adresse, >>> sondern an eine Newsgroup schreibt, die man vorher abonniert hat. >> >> Also quasi wie bei Mailinglisten? > > Eher nicht, mailing listen werden doch vorwiegend nur in eine Richtung > benutzt, um Ankündigungen von einem zentralen Punkt an alle Endknoten zu > verteilen, während Newsgroupen schon eine Diskussion aus Reply und > FollowUp im Protokoll abbilden. Viele große Open Source Projekte nutzen immer noch Mailinglisten zum Diskutieren und Entwickeln. Ein bekannte Kandidat ist bspw. der Linux Kernel. Webforen werde überwiegend erst bei neueren Projekten genutzt.
Barfussläufer schrieb: > Beispielsweise "Werbe-Müll" > hat nix mit Technik zu tun, eher mit Bezahlmoral. Wer bereit ist für > Technik zu zahlen muss nicht auf Pseudo-Finanzierung wie Bezahlmodell > Werbeschlucker. Ähnlich 'tracking'. Ich hatte lange kein Problem mit Werbung; zugegeben, in den Anfängen war das recht begrenzt, aber voll akzeptabel. Dann haben Werbefuzzis das Potential entdeckt und es ging rasant bergab: - blinkende GIF Animationen - blindende und schreiende Flash Animationen - Popups, Popunders in beliebiger Anzahl - Click-Overlays - Javascript Missbrauch - immer größere und langsamere Seiten (wg der Werbung) Und da ist noch nicht mal der Mist mit Schadsoftware und immer umfassenderem Tracking drin. Irgendwann hat man einfach die Schnauze voll. Gelegentlich schalte ich mal den Werbeblocker ab, aber es hat sich nichts gebessert. Und solange mich die Werbeindustrie mit Müll zuballert, bleibt der Blocker aggressiv.
> Usenet... Das war vor meiner Zeit. > Das war doch ursprünglich nur für Text da? L.O.L. Das war die grössste Quelle von P0rnografie.
Nano schrieb: > Ein bekannte Kandidat ist bspw. der Linux Kernel. > Webforen werde überwiegend erst bei neueren Projekten genutzt. Also grad der Linux Kernel ist über Newsgroup gestartet, comp.os.linux, konkret https://www.learnlinux.ie/content/linus-torvalds-original-announcement-usenet Mag sein das Mailing lists die Rolle von News übernommen haben nachdem die Usenet news abgeschaltet worden.https://www.teltarif.de/telekom-newsgroup-usenet-server-t-online-internet/news/41919.html Jesenfalls gab (gibt?) es eine ausgeprägte News-Struktur für linux: https://kb.iu.edu/d/actm
DPA schrieb: > Rolf M. schrieb: >> Newsgroups musst du dir von der Benutzung und den Möglichkeiten her sehr >> ähnlich wie E-Mail vorstellen. Nur dass man nicht an eine Mail-Adresse, >> sondern an eine Newsgroup schreibt, die man vorher abonniert hat. > > Also quasi wie bei Mailinglisten? Ja und nein. Die Newsgroups liegen auf den Usenet-Servern verteilt. Wenn man einer Gruppe beitritt, kann man auch alte Postings sehen, die vor dem Beitritt gesendet wurden. Und wenn ein Usenet-Server weg ist, ist immer noch alles da, weil es ja auf vielen Servern gespeichert ist und immer jedem, der sich damit verbindet, zugänglich gemacht wird. Und auf den meisten Usenet-Servern hattest du an Newsgroups eine Auswahl im mittleren fünfstelligen Bereich. Stell dir einfach vor, du könntest beim Mail-Server von T-Online oder der Uni oder einem beliebigen anderen Provider direkt aus dem Mailprogram heraus beliebigen Mailinglisten aus einer Auswahl aus 50.000 Stück beitreten und sofort mitposten. Beim Usenet-Server ging das. Und man konnte sich auch mehr oder weniger anonym dort bewegen, auch wenn das von anderen Teilnehmern oft ungern gesehen wurde. Man verbindet sich ja einfach mit dem Usenet-Server, und los geht's, ohne Account oder so. Man kann eine Mail-Adresse angeben, aber die dient im Prinzip nur dazu, dass dir jemand auf ein Posting auch mit einer privaten Nachricht antworten kann statt in die Gruppe. Diese private Nachricht ist dann eben ganz einfach eine E-Mail.
keinnamevergeben schrieb: > Alle anderen sind garnicht zu gebrauchen. Basieren alle auf Chromium Was spricht gegen Chromium?`Ist ja ungleich Chrome.
Barfussläufer schrieb: > Nano schrieb: > >> Ein bekannte Kandidat ist bspw. der Linux Kernel. >> Webforen werde überwiegend erst bei neueren Projekten genutzt. > > Also grad der Linux Kernel ist über Newsgroup gestartet, comp.os.linux, > konkret > https://www.learnlinux.ie/content/linus-torvalds-original-announcement-usenet Ich habe ja nicht gesagt, dass dessen Entwicklung über Mailinglisten gestartet wurde, sondern nur, dass heute für dessen Entwicklung immer noch Mailinglisten für die Kommunikation verwendet werden.
Browsersucher schrieb: > Sheeva P. schrieb: >> Schaffen sie ja, einer der (vielen freien) Browser heißt Firefox. Daß >> der TO damit (angeblich) sein Debugging-Problem nicht gelöst bekommt, >> steht dem keineswegs entgegen. Denn auch wenn Firefox eine Reihe von >> Debug-Werkzeugen enthält, ist das nicht einmal ansatzweise die Art von >> Anwendungsfall, für den diese Software entwickelt wurde. > > Schön, daß man hier indirekt als Lügner hingestellt wird. Das ist doch Unsinn. > Ich habe nicht > behauptet daß es mit dem neuen FF überhaupt nicht geht; mich regt es > auf, daß Funktionen die vorher vorhanden und einfach nutzbar waren, aus > idiotischen UI Aspekten komplett umgelagert und umständlicher nutzbar > gemacht wurden. Und wenn Debugging/Entwicklung "nicht einmal ansatzweise > die Art von Anwendungsfall" sind, warum hat FF die dann seit Ewigkeiten > drin? Es war ja auch lange genug deren Marketingargument, um es den > Nerds schmackhaft zu machen. An ein solches "Marketing" kann ich mich nicht erinnern, aber das ist wohl auch egal. Tatsache ist, daß Firefox zunächstmal ein Webbrowser ist, ob es Dir nun gefällt oder nicht. Was dort heute unter dem Menüpunkt "Inspect" eingebaut ist, gab es früher gar nicht, und später nur in Verbindung mit umfangreichen Addons wie Firebug. Tatsache ist auch, daß sich Software nun einmal weiterentwickelt, und das gilt auch für den guten alten Firefox. Aber beim Firefox wird dabei immer gerne geschrieen: "wir konnten sie nur", "ich verstehe das nicht", ... Es ist natürlich Dein gutes Recht, Dich zu ärgern, aber dies hier ist sicher der falsche Ort dafür. Wenn Du Dich ärgerst -- oder womöglich sogar eine gute Erklärung haben willst, warum sich die Entwickler dazu entschieden haben, Deine Lieblingsfunktion 'rauszuwerfen oder auf eine umständlichere Weise zugänglich zu machen -- dann sind sie der richtige Ansprechpartner für Dich, nicht ein Forum, das sich ausweislich seines Namens primär mit der Entwicklung von Mikrocontroller-Software und -Elektronik befaßt. Auch dieses Unterforum "PC-Programmierung" ist wohl nicht als Meckerecke oder Kummerkasten für frustrierte Softwareanwender gedacht, sondern... genau. Auch wenn ich Dich keineswegs als "Lügner" bezeichnet habe oder das getan haben wollte, nichtmal indirekt, so erscheint mir Dein Vorgehen, Deine Frustration hier in ein nichtmal ansatzweise mit solchen Themen befaßtes Forum abzukübeln, nicht gerade klug, sinnvoll, oder zielführend. Aber das mußt Du natürlich selbst wissen, YMMV.
Nano schrieb: > Browsersucher schrieb: >> Nano schrieb: >>> Die Entwicklung von Linux und seiner Software wird längst nicht mehr für >>> Lau gemacht. >> >> Als Nutzer bekomme ich Linux aber für lau. Trotzdem funktionieren die >> Konzerne dahinter. Ergo gilt "gute Software gibt es nur gegen Geld" eben >> so nicht. > > Die Software wird mithilfe von Geld entwickelt, ohne diese Entwicklung > wäre die Software noch nicht das, was sie jetzt ist. Erstens ändert das nichts, und zweitens ist das eine reine Behauptung. Und Deine besagten Konzerne überhaupt dazu zu bekommen, daß sie in die weitere Entwicklung von Linux investieren, mußte es erstmal eine beachtliche Reife und Verbreitung erreichen -- ohne das Geld der Konzerne. Wer weiß, wo es heutzutage wäre, wenn nicht Unternehmen und Konzerne wie IBM, RedHat, und Google investiert hätten -- oder wo die besagten Unternehmen heute wären. Insbesondere RedHat und Google sind ja auch erst mit und durch Linux zu jenen Großkonzernen geworden, die sie heute sind. Ohne Linux wären sie vermutlich nur kleine Softwareklitschen, wenn überhaupt, oder ihrerseits fest in der Hand von anderen Konzernen wie etwa Microsoft, Apple, oder sonstwem, und diesen auf Gedeih und Verderb ausgeliefert. Vielleicht würdest Du ja lieber in einer solchen Welt leben, wo Du jede Anfrage bei Deiner Suchmaschine (Bing, anyone?) oder für jedes Ergebnis erstmal einen kleinen Geldbetrag hinlegen müßtest... der größte Teil der übrigen Welt (Achtung: argumentum ad populum, Spekulation) eher nicht. Insofern sind Deine Behauptungen reine Spekulation, sonst nichts. Daran ändert es nichts, wenn Du sie gebetsmühlenartig wiederholst. Ohnehin ist Dein Feldzug gegen Linux längst verloren: es ist da, es wird da bleiben, und Du kannst nichts dagegen tun. ;-)
Barfussläufer schrieb: > DPA schrieb: >>> Das Problem ist kein technisches, sondern ein soziales. ;-) >> >> Na ich weiss ja nicht, ich glaube es gute andere gründe, als nur >> Soziale, warum sich bisherige Alternativen nicht durchsetzen konnten. > > Eigentlich schon, oder anders formuliert, es sind nicht die technischen > Probleme die der TO mit Browserwechsel lösen will. > > Beispielsweise "Werbe-Müll" > hat nix mit Technik zu tun, eher mit Bezahlmoral. Wer bereit ist für > Technik zu zahlen muss nicht auf Pseudo-Finanzierung wie Bezahlmodell > Werbeschlucker. Ähnlich 'tracking'. Ja, und das ist nur einer der wesentlichen Punkte, an dem viele andere Themen hängen. Klar, wenn Anwender dazu bereit wären, für die Software und die Infrastrukturen zu bezahlen, dann ließe sich möglicherweise ein neues, werbefreies Neointernet aufbauen und finanzieren. Es würde nur leider alle Menschen ausschließen, die sich das nicht leisten können. In seiner "Regierungserklärung" hat Andy Müller-Maguhn, als er 2000 in die ICANN berufen wurde, folgendes geschrieben: "Zugegeben: Auch im Netzkulturkreis hat ein paar Leuten das mit der Gedankenfreiheit ein bißchen zugesetzt. Da kam dann die Sache mit dem Geld ins Spiel, und wenn schon grenzenlos, dann natürlich unendlich viel Geld. Da ich nun allerdings nicht religiöse Gefühle verletzen möchte, sage ich nicht „E-Commerce“ und „E-Business“. Glauben Sie doch, an wen oder was Sie wollen! Aber lassen Sie uns mit Ihren Juristen in Ruhe! Die Geschäftsleute haben sie leider mitgebracht, die schon beim Kauf einer Packung Gummibärchen eine Vertragshandlung sehen und die den natürlichen Akt der Vermehrung von Bits mit so garstigen Begriffen wie „Raubkopien“ versehen." [1] Das war im Jahr 2000 und erscheint aus heutiger Sicht noch weitsichtiger als damals, geradezu prophetisch. Aber machen wir uns nichts vor: diese Geschäftsleute haben eine riesige Menge Geld mitgebracht, von dem dann viele Dinge aufgebaut und erweitert wurden, von dem wir alle heute und wahrscheinlich auch morgen noch profitieren -- und nicht nur wir... Klar, mich nervt das ewige Werbegeflimmer auch. Aber vielleicht ist das der Preis für ein relativ freies und zugängliches Internet für alle...?! ;-) [1] http://www.trend.infopartisan.net/trd1200/t421200.html
Da mittlerweile ales Chrom ist was sich browser schimpft ist leider essig.. (jaja chromium.. mit zwangsupdates .. solche arschgeigen) Ich hab alte füchse (v36 oder sowas) meinen Opera 12, noch n Safari, leider ist da viel "browser nicht unterstützt" was von dem ganzen Google scheiss kommt (frameworks die nur chrome mögen, weil sie von google sind) Also hab ich n Opera Next v20 also intermediate lösung (chromium also schon scheisse generell... aber immernoch besser als der aktuelle Mist) Möglichst aktuelle Lösung auf meinem "Dienstrechner" ist n v57(59??) FireFox DeveloperEdition der offline installiert wurde (damit er sich nicht zur installationszeit updated) weil es der letzte war bei dem man die updates noch deaktivieren konnte. (der letzte dvon dem ich sicher war das er kann was ich will) Du kannst Vivaldi probieren (die echten Opera Entwickler.. benutzen allerdings auch chromium :() wird aber nicht viel unterschied machen .. ist halt alles derselbe google scheissdreck! 'sid PS schon schlimm wenn man sich netscape und ineterneteplorer zurückwünscht damit wenigstens wieder das defacto Monopol gebrochen wird.
sid schrieb: > wird aber nicht viel unterschied machen .. ist halt alles derselbe > google scheissdreck! Na wenn alles von der Basis her einheitlich ist ists doch super, dann hat man wenigstens keine Probleme mehr mit "Seite sieht mit Browser xy anders aus als mit yz". Solange der Spaß quelloffen ist und jeder sich seine Variante bauen kann seh ich da schlicht kein Problem.
Reinhard S. schrieb: > Na wenn alles von der Basis her einheitlich ist ists doch super, ... > Solange der Spaß quelloffen ist und jeder sich seine Variante bauen kann > seh ich da schlicht kein Problem. ist nur leider eben genau die Ansicht die so gefährlich ist.. quelloffen heisst nämlich nicht dass zB Mozilla am Quellcode auch was ändern dürfte, heisst nur dass sie sehen können was passiert. (ob und was sie ändern dürfen steht nur in den Lizenzbedingungen) So darf zB KEINER ab bestimmten Chromium versionen einen Browser mehr basteln die das automatische update desselben verhindern könnten. UNd schon das halte ich für ganz schrecklich gefährlich. So können ganze Technologien von google binnen "Sekunden" per Zwangsupdate verhindert werden. Wann hast Du das letzte mal ne swf gesehen? (nein ist nicht google's schuld denke ich) https Zwang den google durchsetzen will ist der HORROR! https verleitet nämlich user dazu unsicheren Zertifikatsstellen einen Freibrief zu geben, weil ja keiner liest was in den Warnmeldungen steht. und DummUser glaubt ja sobald https oben dran steht ist alles sicher! Sicher ist nur dass Deine Daten zur webseite verschlüsselt sind, die webseite selbst kann ja dann immernoch kompromittiert sein oder schlicht zum Datenabgriff bereitgestellt. (Siehe fakeseiten die NRW CORONA-Hilfszahlungen abgriffen) Und warum.. weil die Seite bei google oben in der Suchmaschine auftauchten, weil chromium das Zertfikat akzeptiert hat und weil der User sich auf "vertrauenswürdiges zertifikat" im https verlassen hat (der User in dem Fall war ein Webentwickler.. .. millenial der nur chromium kennt nehm ich fast an... traurige Sache das :() ich kann garnicht soviel essen wie ich kotzen möchte. Und bevor ich mich ob der Ignoranz der Enduser in Rage rede... verabschiede ich mich mal aus dem thread. 'sid
sid schrieb: > ist nur leider eben genau die Ansicht die so gefährlich ist.. > quelloffen heisst nämlich nicht dass zB Mozilla am Quellcode auch was > ändern dürfte, heisst nur dass sie sehen können was passiert. Wo hast du denn diese Weisheit her? https://chromium.googlesource.com/chromium/src/+/master/docs/contributing.md Abgesehen davon muss Mozilla auch nix dran ändern, weil die gar nicht Chromium benutzen. > (ob und was sie ändern dürfen steht nur in den Lizenzbedingungen) > So darf zB KEINER ab bestimmten Chromium versionen einen Browser mehr > basteln die das automatische update desselben verhindern könnten. Chromium wird unter der BSD-Lizenz verbreitet. Jeder, der will, kann davon einen Fork erstellen und damit im wesentlichen machen, was er will. https://source.chromium.org/chromium/chromium/src/+/master:LICENSE > Wann hast Du das letzte mal ne swf gesehen? (nein ist nicht google's > schuld denke ich) Alle wollten Flash auf Grund der zahlreichen Sicherheitslücken und weil es proprietär ist möglichst schnell loswerden. Deshalb wurde html so erweitert, dass man damit das gleiche auch ohne Flash machen kann, mit einem offenen Standard. > https Zwang den google durchsetzen will ist der HORROR! > https verleitet nämlich user dazu unsicheren Zertifikatsstellen einen > Freibrief zu geben, weil ja keiner liest was in den Warnmeldungen steht. Letztens war ich auf einer Seite, die ohne Not https eingesetzt hat. Auf der Seite gab es wirklich gar nichts, das irgendwie hätte verschlüsselt sein müssen. Leider war beim Zertifikat was fehlerhaft, und ich konnte die Seite gar nicht darstellen. Der Browser hat mir die Möglichkeit dazu gar nicht gegeben, nicht mal über Tricks oder versteckte Funktionen. > und DummUser glaubt ja sobald https oben dran steht ist alles sicher! > Sicher ist nur dass Deine Daten zur webseite verschlüsselt sind, die > webseite selbst kann ja dann immernoch kompromittiert sein oder schlicht > zum Datenabgriff bereitgestellt. Ohne https ist das aber auch nicht besser.
Nano schrieb: > Mozilla hat eine Mailingliste für Entwickler. Melde dich da an und > schildere dort dein Problem. Wenn der Aufschrei aus dem Netz groß genug > ist, wird man das wieder nachbessern. Da wird's keinen Aufschrei geben, weil das viel zu wenige Leute betrifft. Da hat Moz schon ganz andere Sachen durchgezogen. Wie die Ersetzung des alten Pluginsystems durch ein neues mit geringerem Funktionsumfang; oder die Implementierung von DoH trotz vieler Einwände. Sheeva P. schrieb: > Auch wenn ich Dich keineswegs als "Lügner" bezeichnet habe oder das > getan haben wollte, nichtmal indirekt Ich habe das "angeblich" in "Daß der TO damit (angeblich) sein Debugging-Problem nicht gelöst bekommt" so aufgefasst. Falls das nicht Deine Absicht war, dann entschuldige ich mich hiermit. Rolf M. schrieb: > Leider war beim Zertifikat was fehlerhaft, und ich konnte die Seite gar > nicht darstellen. Der Browser hat mir die Möglichkeit dazu gar nicht > gegeben, nicht mal über Tricks oder versteckte Funktionen. Wahrscheinlich wegen HSTS. Rolf M. schrieb: > Ohne https ist das aber auch nicht besser. Blindwütige HTTPS Nutzung verringert aber mMn die Sicherheit weil Leute glauben nur weil da ein Schloß oder sonstwas ist, ist alles sicher und perfekt. Sogar Mirrors für zB rpms kommen schon mit HTTPS. Fragt man nach, dann kommt so Kram wie "Privatsphäre" oder "Schutz vor in-transit Attacken". Herrgott, wie groß ist denn die Aluhutfraktion um zu glauben, rpms würden während dem Download ausgetauscht (zumal rpm dank Signaturen sowas erkennen würde). Noch schlimmer ist es, alles auf HTTPS zu biegen. So wie mit DoH. Jedes Furzprogramm kommt nun mit eigenen DNS Einstellungen daher, und als Admin steht man da. Bisher blockierte man Port 53 (außer für die Resolver-IP) und hatte die Kontrolle. Bald ist es soweit daß man debuggen will, aber Browser A nutzt nen anderen DNS als Browser B. Ja man kann's im Browser einstellen, aber wie lange noch, und für jedes Programm extra anstatt einer globalen Einstellung? Aber DoH ist so toll weil es angeblich die Zensur umgeht. Dann wird geschrieen wie es Firmen wagen können, eigene Rootcerts auf Arbeitsrechnern zu installieren um wieder an den Traffic zu kommen. Glauben die Zoomer echt daß deren Arbeitsplatz da ist, um das eigene Facebook/Instagram/whatever Konto zu pflegen und Onlinebanking zu machen? </rant>
Gegensätzliche Anforderungen. Im Unternehmen benötigt man aus diversen Sicherheitsgründen manche Formen von Kontrolle und Schnüffelei, die ausserhalb inakzeptabel sind. Ein schwer auflösbarer Widerspruch, wenn es im gleichen Produkt sein soll. Ist bei Decryption im Unternehmensperimeter nicht anders. Was jemand im Unternehmen anstellt, und was jemand privat tut, sind zwei paar Stiefel. Zwar klingt die offizielle Motivation gleich, nämlich vor Schaden zu schützen, aber im einen Fall geht es eher um sowas wie Ransomware oder Ausschleusung von Daten, im anderen ist es die Versuchung einer politische Kontrolle.
:
Bearbeitet durch User
Opera 12 wurde ja einige Male genannt, der Otter-Browser dagegen nicht. Das ist zwar hauptsächlich ein Ein-Mann-Projekt (mit 51 weiteren lt. GitHub), jedenfalls bauen die den 12er Opera nach. Cookieinhalte kann der, wie du ja wolltest, anzeigen.
Es gibt noch embedded cromium, ein api für einen eigenen Browser basierend auf cromium und alles im Quelltext. Gibt es für verschieden Programmiersprachen. Ich habe mir mal die C++ Version heruntergeladen. Das Beispielprojekt compiliert leider "out of the box" unter Windows nicht ;-(. Habe aber im Moment aber keine Zeit da weiter zu machen.
:
Bearbeitet durch User
Vielleicht geht es in die richtige Richtung... Mich hat damals eine Artikelserie auf Kuketz-Blog hellhörig gemacht. Die customized user.js [https://www.kuketz-blog.de/firefox-aboutconfig-user-js-firefox-kompendium-teil10/] beschreibt einige sehr interessante Sachen, welche gegen die FF Moral wirken. Der Artikel ist mittlerweile ein gutes Jahr alt, jedoch noch aktuell und anwendbar. Jedenfalls nutze ich seit dem die strenge gHacks [https://github.com/ghacksuserjs] in Kombination mit der eigenen user-overrides.js und fahre damit den Firefox akzeptabel. Im Netz läuft on-top noch ein PiHole [https://pi-hole.net/] DNS filter. Beide zusammen erledigen hervorragende Arbeit. Um die cookies kümmere ich mich so gut wie garnicht mehr. Gegen einen neuen [total abgespeckten] Browser wäre ich nicht abgeneigt.
:
Bearbeitet durch User
Browsersucher schrieb: > Blindwütige HTTPS Nutzung verringert aber mMn die Sicherheit weil Leute > glauben nur weil da ein Schloß oder sonstwas ist, ist alles sicher und > perfekt. Sogar Mirrors für zB rpms kommen schon mit HTTPS. Ich hab das bezüglich repositories für debian (debs) schon gesehen. Die packete dort sind gehasht, und die hashs signiert, der korrekte inhalt ist also auch ohne HTTPS sichergestellt. Man kann dann per DNS round robin betreiben, und die mirrors von unbekannten freiwilligen bereitstellen lassen, und vermeidet so einen Single Point Of Failure. Aber das geht halt nur ohne HTTPS, weil mit bräuchten ja alle das private Zertifikat, und dann wäre HTTPS wieder nutzlos und würde nur Probleme machen. Aber die Leute kommen trotzdem "OMG, kein HTTPS, wie unsicher!"... > Jedes Furzprogramm kommt nun mit eigenen DNS Einstellungen daher, und als > Admin steht man da. Bisher blockierte man Port 53 (außer für die > Resolver-IP) und hatte die Kontrolle. Ja, das ist wirklich der letzte Mist. DoH sollte nicht der Browser tun, sondern das OS. Unter linux z.B. könnte man das per lokalem Resolver, oder alternativ per nsswitch lösen, aber nein, es muss in jedes Programm einzeln... Noch schlimmer ist es mit blockierten special use domains, da gibts RFC Standards, RFC 7686 für .onion z.B., der sagt: "This issue is mitigated if the client's software is updated to not leak such queries". Resolver & DNS libraries sollen es auch blockieren. Ein zentrales config file zum wieder einschalten sehen die natürlich nicht vor. Was glauben die eigentlich, was Läute wie ich mit dediziertem & isoliertem Tor lan netz (Tor transparent proxy), oder Entwicker von Distributionen wie Tails jetzt machen sollen? Ein guter schutz vor DNS leaks ist es auch nicht, die meisten Programme lösen die weiter auf, aber das wichtige wie Browser und unerwartetes wie Rust Programme halt nicht, dann muss man hoffen, das da doch noch irgendwo ne config option ist, das wieder zu erlauben... Falsch implementieren die das oft auch noch, dann geht zwar *.onion nicht, *.onion. leakt aber wieder. Ich meine, verflucht nochmal, das muss doch das OS / die Libc oder der Resplver tun, und zwar zentral Konfigurierbar! Sowas gehört in ein OS weites config file, wie bei /etc/nsswitch.conf, /etc/resolv.conf, etc., eventuell sogoar in eins von diesen beiden, aber nein, man standardisiert einfach überall Blockieren ohne config, es solle Chaos herschen!
Beitrag #7076925 wurde von einem Moderator gelöscht.
timol schrieb im Beitrag #7076925: > Mastodon ist für Werbetreibende nicht interessant. Die Nutzerbasis ist > zu klein. Es ist wohl nur eine Frage der Zeit bis das mit Werbung > überschüttet wird und die meisten Admins mit dem Löschen nicht mehr > hinterher kommen. Ja an so einem Donnerstag Morgen ist schon schwer in die Gänge zu kommen. Kaum zwei Jahre ist es her dass hier geschrieben wurde.
Kalender Kalender schrieb: > timol schrieb: >> Mastodon ist für Werbetreibende nicht interessant. Die Nutzerbasis ist >> zu klein. Es ist wohl nur eine Frage der Zeit bis das mit Werbung >> überschüttet wird und die meisten Admins mit dem Löschen nicht mehr >> hinterher kommen. > > Ja an so einem Donnerstag Morgen ist schon schwer in die Gänge > zu kommen. Kaum zwei Jahre ist es her dass hier geschrieben wurde. Und? Hat sich in den 2 Jahren etwas geändert was nicht mehr zu der betreffenden Aussage passt? Oder wolltest du nur trollen?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.