Hallo, wollte mir online einen Bericht einer Zeitung zu Gemüte führen, der sich über 6 Seiten erstreckte. Gewundert hatten mich lange Ladezeiten und ein sehr langer Seitenaufbau. Die Seiten waren mit Hinweisen auf andere Artikel und mit Werbung gespickt. Das Notebook lief unter Vollast, der Stromverbrauch hat sich verdreifacht, der Lüfter sprang an und musste kühlen. Das hat mich etwas geärgert, denn der eigentliche Artikel war nicht sonderlich umfangreich. Habe ich mir dann die 6 Seiten gespeichert und mir mal die gespeicherte Datenmenge anzeigen lassen. Ich lese 28.7 MB in 810 Dateien, davon 358 *.js Dateien. Dann habe ich mir gezielt die zum Artikel gehörenden Textblöcke kopiert und manuell in eine *.txt-Datei kopiert. Im Eigenschaftendialog sehe ich dann schlappe 34 kB. Mein Notebook kämpft also mit beiden Kernen minutenlang, um 34 kB Information darzustellen. Was einem Müllfaktor von 844 entspricht. Handelt es sich um einem Einzelfall, oder ist das zur Regel geworden? Harald
HauDenLukas schrieb: > Handelt es sich um einem Einzelfall, oder ist das zur Regel geworden? Kannst du selber rausfinden, indem du diverse andere Websiten ansurfst. In der Extremität kenne ich das nicht. Evtl. war da ein Crypto-Miner am Werk? Verweise auf andere Artikel/Webseiten sind allerdings nichts ungewöhnliches, aber die gibts auch ohne JS.
Mich regt vergleichbares in letzter Zeit auch auf. Bislang habe ich es auf meine angegraute Win7 Installation mit Firefox geschoben. Aber Deine Datenmengenmessung nährt meine schlimmsten Befürchtungen. Interessant ist, dass diese Lastphänomene auch auf Halbserösen Seiten wie der grossen Autobörse auftreten.
Das habe ich auch schon festgestellt. Wer weiß was man sich da noch für Werbewürmer und Spähsoftware zusätzlich auf den Rechner zieht?!
Webangebote die ohne JS nicht funktionieren sind eben genau das:
Nichtfunktional. Mit der zunehmenden Verbreitung von JS-Blockern
gibt es aber auch Anzeichen dafuer, dass die Seitenbetreiber
zumindest rudimentaer noch einen Zugriff ohne JS unterstuetzen
(muessen), damit nicht gleich wieder zugeklappt wird.
Manche Seiten versuchen den Nutzer dann zu JS zu noetigen,
indem sinnloses CSS ueber die Seite geblendet wird. Z.B. Golem.de.
Dann hilft nur noch umschalten auf User-CSS.
> Müllfaktor von 844 entspricht
Da habe ich schon noch schlimmeres gesehen:
Fuer gefuehlte 1 kB Text wurden 10 MB JS gebraucht.
Widerlich sowas.
Nicht umsonst ist der Webfuzzie in der Fresskette so ziemlich
am Ende.
HauDenLukas schrieb: > Handelt es sich um einem Einzelfall, oder ist das zur Regel geworden? Mache dir das Vergnügen und schau dir den Quelltext einer beliebigen Webseite an und du wirst sehen das alle professionell erstellten Seiten damit zugemüllt sind. Danke an Google dafür, welche dieses "Informationshandelskonzept" erfanden. Namaste
Du solltest vllt noch "professionell" durch "kommerziell" ersetzen. Mit "professionell" hat das naemlich nicht viel zu tun.
pumuggl schrieb: > Nicht umsonst ist der Webfuzzie in der Fresskette so ziemlich > am Ende. Der baut nur das, was verlangt wird. Zur reinen Darstellung von Inhalten und ein paar schönen Funktionen für den Nutzer braucht man nicht solche Mengen an JS.
HauDenLukas schrieb: > Handelt es sich um einem Einzelfall, oder ist das zur Regel geworden Das ist normal, dein Fall noch günstig, zu wenig tracker und Spionagesoftware in deinen Seiten. Es hilft nur AdBlock, NoScript und ähnliches. Du zahlst ja für die Datenmenge, zumindest mobil geht es aus deinem Kontingent ab. Glücklicherweise muss man die meisten WebSeiten nicht besuchen, meistens steht dort doch keine unverzichtbare Information zwischen der Werbung.
Ich sah wie manche neue Seiten professionell aufgezogen wurden, in denen Elektronik-Grundlagen zu sehen sind. Vermutlich pushen sie die irgendwie bei Google (bezahlt ?), sodass man sie eher findet wie die guten alten einfachen Seiten.
das passiert häufiger als man meint leider. Zunächst: javascripte sind NICHT immer Müll. ein 3MB javascript ist vermutlich zu 90% in deinem speziellen Fall "nutzlos" grade, die restlichen 10% indes bewerkstelligen eine ordentliche Darstellung auf dem Rechner. Datenmenge ist seit längerem kein Problem mehr, weswegen ich mich hier nicht an bytemengen orientieren wollte. Das Problem sind Adscripte, Adblock preventions hauptsächlich und was am schlimmsten ist, schlecht initialisierte oder schlicht verbuggte und überladene Frameworks die von schlechten/faulen Webentwicklern gerne zuhauf und auch in konkurrenz zueinander eingesetzt werden. (gerne vor allem bei "WYSIWYG DIY" jimdoo/wix kokolores zB) das taugt nie was. egal.. die frameworks versuchen die bestmögliche Anzeige für deinen jeweiligen Browser zu erstellen sind sich darüber aber uneins, und rechnen an jedem div-block neu rum zwei konkurrierende tun das dann permanent im wechsel, weil der erste wieder überschreibt was der zweite grad geändert hat und wieder von vorn. (CPU Last jagt hoch) häufig handelt es sich dabei nur um einen Rundungsfehler (einer will 903px der andere 904px oder sowas banales) der inkompetente Webentwickler sagt dann: "Sie müssen einen aktuelleren Browser benutzen" was im Gunde meint: "entweder du nimmst den Chrome den ich hab oder die Kagge läuft halt nicht" Nun ist dennoch nicht zwingend eines der frameworks schuld, sondern der Depp der beide gemeinsam in konkurrenz zueinander benutzt (dummehit oder faulheit oder eine Mischung) Eine einfache Lösung kann sein, dass man javascript im Broser kurz deaktiviert wenn soetwas auftritt und danach die betreffende Internetseite neu lädt. Das Layout wird dann vermutlich katastrophal sein, und die Adblock prevention wird rumheulen. aber die CPU last ist vermutlich gleich null und man kann wenigsten lesen was man lesen möchte ;) (klappt leider nicht immer dank nagscreens und co)
Naja wen wunderts... 1. Seite muß auf 100 verschiedenen Rechnern laufen 2. in 20 Browsern gleich aussehen 3. auch auf Mobilgeräten dargestellt werden 4. super Komfort-Funktionen bieten (z.B. DHTML/Ajax) 5. (personalisierte) Werbung zur Finanzierung 6. Analytics/Zugriffsstatistik 7. DSGVO-konforme Cookie-Warnung und Kontrolle
Vielleicht gibt es ja bald eine EU Öko Richtlinien wie groß die Unefizienz beim Speichern, darstellen und übermitteln von Daten sein darf? Mich nervt das Verhältnis von Datenmüll zu Dateninhalt aber auch.
sid schrieb: > Datenmenge ist seit längerem kein Problem mehr, > weswegen ich mich hier nicht an bytemengen orientieren wollte. Etwas naiv. Für 80% mag das noch zutreffen. Ben B. schrieb: > Naja wen wunderts... > > 1. Seite muß auf 100 verschiedenen Rechnern laufen > 2. in 20 Browsern gleich aussehen Die aber alle 1 bis maximal 3 Rendering-Engines nutzen. > 3. auch auf Mobilgeräten dargestellt werden Macht CSS. > 4. super Komfort-Funktionen bieten (z.B. DHTML/Ajax) Wäre JS. > 5. (personalisierte) Werbung zur Finanzierung > 6. Analytics/Zugriffsstatistik Die beiden Punkte müssen nicht sein für die Nutzung. Zur Finanzierung halt. > 7. DSGVO-konforme Cookie-Warnung und Kontrolle Könnte man sich ohne Cookies oder so sparen, auch wenn es die Sache sicher nicht einfacher macht. Was waren das noch für Zeiten, als mit Session-ID und HTML/CSS alles erschlagbar war...
Die meisten fancy Webseiten werden heutzutage mit aufgeblähten JS-Frameworks programmiert, die von der Komplexität mehr und mehr einem Betriebssystem ähneln und je nach Situation auch kräftig Daten nachladen müssen. Da kann es schon mal etwas holpriger zugehen auf älteren Laptops. Da lobe ich mir ein schlichtes Design wie hier auf mikrocontroller.net
HauDenLukas schrieb: > und mit Werbung gespickt uBlock Origin sagt Dir was? Ohne den gehe ich mit dem Browser nicht mehr Online. Das hat inzwischen sogar der SPIEGEL kapiert, dass heute kein normal denkender Mensch ohne Werbeblocker Online geht. inzwischen kann man die Seiten ohne Gemotze seitens Spiegel trotz Blocker anschauen. Auch die Printmedien sind heute so voll gestopft mit Werbung, dass auch dort nach dem eigentlichen Artikel fast suchen muss. Auf die Dauer werden die das nicht durchhalten, weil die Kunden/Leser einfach wegbleiben. Wenn eine Website motzt, dass ich den Werbeblocker ausschalten soll: Es gibt auch andere Seiten die diese Information bieten. Und tschüss... Diese Site hat es auch kapiert....
Alles richtig. Ich muss mit dem Krempel ARBEITEN. salesforce.com, da greifen gefühlt Tausende Javascripts ineinander, die Ladezeit fuer die Seite ist inzwischen bei ca. 10 Sekunden. Da man da beim Arbeiten die Seite wegen (vorsichtig ausgedrückt) seltsamer Anordnung der Ebenen durchaus 2 bis 4 mal in der Minute neu laden muss, nervt das extrem. Abhilfe nicht in Sicht. Also LMAA-Stimmmung zulegen, ist ja alles gediente Zeit, irgendwann fragt ein Oberer, warum das Alles so lange dauert. dfghjjkkl
sid schrieb: > Zunächst: javascripte sind NICHT immer Müll. > ein 3MB javascript ist vermutlich zu 90% in deinem speziellen Fall > "nutzlos" grade, > die restlichen 10% indes bewerkstelligen eine ordentliche Darstellung > auf dem Rechner. > Datenmenge ist seit längerem kein Problem mehr, Du musst WebDesigner sein. Selten so einen Müll gelesen. Bei Mobil interessiert die Datenmenge sehr wohl. Und die meisten Seitenaufrufe erfolgen inzwischen von mobilen Endgeräten. https://de.statista.com/statistik/daten/studie/217457/umfrage/anteil-mobiler-endgeraete-an-allen-seitenaufrufen-weltweit/ Auch die Datenrate ist an vielen Orten in Deutschland schlappe EDGE oder GPRS. Dazu reicht es oftmals, IN einem HAUS zu sein, es muss nichtmal der Keller werden. Merkt ihr Berliner Grossstadtkinder natürlich nicht. Eine Seite in gutem altem HTML wird auf jedem! Browser lesbar dargestellt. Vielleicht nicht fancy in Augen eines Webegraphikers, aber lesbar. Alles, was Javascript oder CCS macht, ist es, eure dämliche Werbung penetranter unterzubringen. Ein Banner oben quer als GIF der mit der Seite wegscrollt wenn man hochscrollt reicht völlig zur Finanzierung von Server und Traffic werbefinanzierter Seiten, denn auch Serverkosten sind gesunken, nicht nur Werbepreise. Wenn man 'fancy' sein will, sollte an allererster Stelle eine Abfrage stehen, ob der Browser das überhapt kann und in seiner aktuellen Einstellung zulässt. Wenn nicht, dann habt ihr Ruhe zu geben. Wenn er kann, dann kann man gerade die Skripte in nachladbare Chunks auslagern, die nur geholt werden, wenn für den Browser notwendig. Mein Smartphone hat 1GB RAM. 1 GIGABYTE ! Und es gibt Seiten, auch wenn der Browser die einzige App ist, die dieses Gigabyte absolut vollziehen, so daß die Seite des zweiten Tabs schon wieder durch Android aus dem Speicher fliegt. Ihr WebSpinner habt einfach dermassen einen Schuss, daß alle Sylvesterkracher bei euch eingeschlagen haben müssen.
:
Bearbeitet durch User
Schön, daß das Phänomen in letzter Zeit hier öfter bemerkt wird und ich das nicht nur alleine bemerke. Gerade mal mit dem FFox beim Pollin die Seite Bauelemente->Displays gemessen: Nur schlappe 9,5 MB, schön in riesigen Kacheln ohe die Möglichkeit einer Listendarstellung. Immer schön mit voreingestelltem "Beliebtheit" Filter, schön permanent zum dauerblättern ohne Möglichkeit, die Artikelanzahl pro Seite zu erhöhen. Das macht mir schon lange keine Spaß mehr. Seitdem sie auf das neue Design umgestellt haben ist die Seite für mich unbenutzbar und der Laden für mich komplett tot. Habe dadurch seitdem nicht mehr dort bestellt bzw. bestellen können, weil mich sowas geistlos überzogen falsch designedes vollkommen abstößt. Pollin war auch ein ganz guter Laden. Schade. Ein Teil des Conrad- Webseitenphänomens.
Bla schrieb: > Ich sah wie manche neue Seiten professionell aufgezogen wurden, in denen > Elektronik-Grundlagen zu sehen sind. > > Vermutlich pushen sie die irgendwie bei Google (bezahlt ?), sodass man > sie eher findet wie die guten alten einfachen Seiten. Sowas machen manche Webdesigner auf eigene Kappe, meist mit so sprechenden Domainnamen wie "Elektronik-jetzt-ganz-schnell-und-vollständig-verstehen.xyz" mit zusammengesuchten ("geborgten"?) Inhalten und das hat wohl den Hintergrund 1.) der Generierung von Werbeeinnahmen, 2.) mglw. ein Referenzprojekt für potentielle Kunden und 3.) Etablierung eines frequentierten Domainnamens, den man dann hochpreisig verkaufen kann. Ist mir auch öfter schon untergekommen. Manche sind ganz brauchbar, da sie gesuchte Information auf einen Blick bieten und sich derselben Quellen bedienen, die man sonst selbst zusammensuchen muß. Andere sind eher nur Müll. Ein Blick ins Impressum gibt da meist Aufschluß, daß es oft ein "Projekt" Werbefirma oder eines einzelnen Webdesigners ist.
Finde dich damit ab, dass PC Benutzer mit schönen großen Bildschirmen die Arschkarte haben. Es ist nur noch für Schmierfinger-Phone optimiert. Vor allem, seit es Junior-Max übernommen hat. Beispiel Schnäppchenmarkt. Man muß schon leidensfähig sein, wenn man am PC die klatschgroßen Bilder durchblättern will. 24 von solchen Seiten. Und auf einem Smartphone, wer soll sich da so eine Orgie bis zum Ende antun. Also 288 mal wischen? Total bescheuert! Und dann fehlende Umrandung. Und das Sternchen "Auf die Merkliste" findet man auch erst, wenn man mit dem Kursor zufällig darüberfährt. Für technisch interessierte Leute einfach abschreckend. Andere sind auch nicht besser. Auf die c't Seite gehe ich auch nicht mehr seit Jahren ohne Grund. Nur noch für c't-Link oder auf Heise wegen Software. Von der Monster-CONRAD-Seite gar nicht zu reden. Bei GMX hüpfen auch erst mal 5s wild hin und her. Rollt man weiter, fängt es von vorn an. Noch abschreckender sind Klamottenseiten wie ZARA. Furchtbar. Die Programmierer müssen in einer höheren Welt leben. Für PC-Benutzer macht es einfach nicht mehr im Internet richtig Spaß.
Beitrag #6092023 wurde vom Autor gelöscht.
Es ist sicher eine Kostenfrage, Internetseiten getrennt für Smartphone und PC optimiert anzubieten. Vor zig Jahren waren Versender wie Conrad und Reichelt fast gleichwertig. Es gab ja kaum was anderes. Conrad war qualitativ besser. Dann habe ich von Conrad gelassen. Später von Reichelt auch, nur wenn es unbedingt nötig ist. Bei Pollin vor allem wegen Sonderangeboten. Was machen die falsch? Stammkunden verjagen? Anstatt Neukunden zu ködern, mal 20 Jährigen Stammkunden 2x im Jahr eine Versandkostenfreie Lieferung zu gewährleisten. usw.
michael_ schrieb: > Es ist sicher eine Kostenfrage, Internetseiten getrennt für Smartphone > und PC optimiert anzubieten. Kann ich mir nicht vorstellen. Das kann nur so sein, wenn man permanent an seinem Design herumfrickelt, siehe Aliexpr., und unaufhörlich "für Sie optimiert ...", wobei die Seite mindestens im Monatsrhythmus anders aussieht und schlechter zu bedienen ist. Unter normalen Umständen macht man ein einziges Design für beide Geräteklassen, den Inhalt liefert die Datenbank. Das ist ja gerade der Witz an z.B. CMS oder guten Shoplösungen, sozusagen "fire and forget". Notwendige Sicherheitsupdates sind damit sehr überschaubar zu implementieren. Was waren das noch für Zeiten mit SelfHTML und Phase5, heute gar nicht mehr vorstellbar. Da müßte eine Seite in WARP-Geschwindigkeit erscheinen ;) Dann kamen die tollen Dinger von Adobe und es ging bergab.
Ich bin kein Web Developer. Ist es technisch überhaupt möglich eine kommerzielle Datenbankwebseite wie Digikey schnelladend und effizient zu erstellen die nicht 30MB+ an JS Code hochladen muß? DK hat ja an sich keine externe Werbung. Allerdings alle möglichen Trackers. Trotzdem ist sie auch nicht übermäßig schnell. Naiv gefragt: Könnte man solche Webseiten, wenn man genug Design Kompetenz und die nötigen Werzeuge optimal einsetzen zu versteht, schaffen? Webseite die trotz großen Funktionsgehalt schnell zu benutzen sind und damit noch Freude machen? Wo liegt da der Goldstandard mit dem man kommerzielle Webseiten vergleichen könnte? Ja. Viele kommerzielle Webseiten sind praktisch unbenutzbar geworden. Wenn ich zufällig auf solche Monstren stoße drehe ich auch gleich ab. Das muß man sich nicht bieten lassen. Die Navigation auf vielen neu überarbeiteten Webseiten ist vielfach sehr unpraktisch und langsam geworden. Naja, wenn die Statistiken früher oder später beweisen, daß ihre Machwerke potenzielle Kunden permanent weggescheucht haben, wird man vielleicht eventuell zur Einsicht kommen, wenn ich es auch persönlich nicht für möglich halte. Die Leute die so etwas machen sind so von sich eingenommen, daß Vernunft an ihnen oft vorbei geht. Man sollte meinen, daß eventuell auch der dümmste Webbesucher merkt wie sehr er verarscht wird und es dann ins Geld geht. Bei Amazon ist es in vielerlei Hinsicht auch unangenehm. Seit ich mal gehackt wurde, will ich keine CC Nummer im Konto lassen. Bei jeder Bestellung muss ich die Nummer wieder löschen. Kürzlich habe ich festgestellt, daß beim Lösvhen der CC Nummer das Fenster nicht mehr zumachbarbist und man die betreffende Seite schließen muß. Ist eine Frechheit die Navigation auf diese Weise zu erschweren. Das beweist welchen Geistes Kind dort arbeiten. Profit und Abhängigkeit um jeden Preis. Ich bestelle dort nur noch wenn es nicht anders geht. Auch die (Amazon gehörende) Audible Firma ist eine bodenlose Frechheit mit ihrer DRM Abhängigkeit. Ich beschwerte mich mal dort weil ich ihre DRM Machwerke nicht ohne DRM Entfernung im Auto abspielen konnte und man gab mir anstatt eine Liste von tragbaren Geräten. Welche eine Frechheit. Am besten ist es nicht mehr am blutsaugenden Kommerz mitzumachen. Es wurde alles maßlos überspannt. Newswebseiten vermeide ich gänzlich weil diese die schlimmsten Übeltäter geworden sind. Das ist ähnlich wie die Magazine von früher in den 70-90er Jahren die mit Werbung absolut die ganzen Seiten hindurch, zugemüllt waren. Es lebe das einfache statische Informations HTML Webseiten Design!
michael_ schrieb: > Was machen die falsch? > Stammkunden verjagen? > Anstatt Neukunden zu ködern, mal 20 Jährigen Stammkunden 2x im Jahr eine > Versandkostenfreie Lieferung zu gewährleisten. Das können dir nur BWLer erklären ;D
Gerne auch schrieb: > Unter normalen Umständen macht man ein einziges Design für beide > Geräteklassen, den Inhalt liefert die Datenbank. Nein.
Gerhard O. schrieb: > Naiv gefragt: Könnte man solche Webseiten, wenn man genug Design > Kompetenz und die nötigen Werzeuge optimal einsetzen zu versteht, > schaffen? Webseite die trotz großen Funktionsgehalt schnell zu benutzen > sind und damit noch Freude machen? Ja, das geht auf jeden Fall! Ging schon immer mit HTML. CSS und schlankes, verantworungsvol eingesetztes JS sind dann gute zusätzliche Hilfen. Es kommt hauptsächlich auf die Datenbank bzw. Server an, wie schnell der z.B. die gesuchten Parameter findet und liefert. Was die Rechenzeit abzieht sind Schall und Rauch für sinnlose Darstellungseffekte, Tracker und sinnlose Werbung. Á propos Tracker: Es gibt seit kurzer Zeit Tracker, die man nur mit sehr großem Aufwand per Adblocker bzw. uMatrix raushalten kann, weil sie nicht mehr von Framddomains, sondern von Subdomains kommen. Sehr ekelhaft, wie das mittlerweile läuft. > Bei jeder > Bestellung muss ich die Nummer wieder löschen. Kürzlich habe ich > festgestellt, daß beim Lösvhen der CC Nummer das Fenster nicht mehr > zumachbarbist und man die betreffende Seite schließen muß. Ist eine > Frechheit die Navigation auf diese Weise zu erschweren. eB*y hat ungefragt meinen PPal Account mit dem Konto verknüpft. Habe ich erst Tage später festgestellt, als ich plötzlich nicht mehr mein PPal Konto separat öffnen mußte, sondern eB*y gleich sämtliche Kontoinfos und den Bestellbutton anzeigte. Rotzfrech. Seit deren neuem, unbenutzbarem Seitendesign kann ich auch meine abgegebenen Verkäuferbewertungen an einer Hand abzählen. Unbenutzbar. > Newswebseiten vermeide ich gänzlich weil diese die schlimmsten Übeltäter > geworden sind. Seit ich "links2" als Browser auf Linux benutze, kann ich einige wieder lesen. Kein JS, kein CSS. Sieht zwar ungewöhnlich aus, die Info kommt aber rüber. > Das ist ähnlich wie die Magazine von früher in den > 70-90er Jahren die mit Werbung absolut die ganzen Seiten hindurch, > zugemüllt waren. Bei Springer ist gerade eine Heuschrecke eingestiegen. Interessant ist, wie sie nun ihr Geschäft neu definieren (sinngemäß): Betrieb eines Verlagshauses zur Vermarktung von Werbung, die durch redaktionelle Texte ergänzt wird. Alles kalr?!
michael_ schrieb: > Gerne auch schrieb: >> Unter normalen Umständen macht man ein einziges Design für beide >> Geräteklassen, den Inhalt liefert die Datenbank. > > Nein. Doch - oooohr ;) Im Ernst: Wenn das nicht geht, macht der Ersteller was falsch bzw. brät sich eine besondere Extrawurst was Design und Funktionalität betrifft. Wozu gibt es Standards?
michael_ schrieb: > Gerne auch schrieb: >> Unter normalen Umständen macht man ein einziges Design für beide >> Geräteklassen, den Inhalt liefert die Datenbank. > > Nein. Falls das falsch rüberkam: Natürlich kann und sollte man schon pro Geräteklasse eine eigenes Design bauen.
@Gerne auch... Ja. Das ist wie ein Rüstungswettlauf. Mit jeder Verteidigungswaffe seitens der Benutzer sucht man nun das wieder zu neutralisieren. Schade, daß wir nicht genug mit den "Füssen" wählen. Wenn die Besucherzahlen stark zurück gegen könnten würde man das akzeptieren müssen und etwas den Druck nachlassen. Mein 7 Jahre alter iPad2 funktioniert auf den vermüllten Seiten nur noch unter großem Stöhnen und mit Schneckentempo. Der ist da hoffnungslos veraltet mit seiner jetzt sehr zurückliegenden Technik. Meine 20 Jahre alte AFU WS ist noch statisches HTML und reagiert im Vergleich zu modernen Seiten lichtschnell. Aber hat natürlich keinen Bedarf an Datenbank Zugriff und braucht keinen JS. Da geht es mit dem alten iPad ruckzuck. Optimistisch wie ich bin, nehme ich an, daß wir zur Zeit das dunkelste Mittelalter des Web Designs durchmachen und daß möglicherweise die Macher bald einen Rückzieher aus wirtschaftlichen Gründen machen müssen um ihr Haus Affairen ins "reine" zu bringen. Irgendwie kann ich mir nicht vorstellen, daß sich alles noch verschärfen soll und die Web Experience für die Kundschaft noch unangenehmer werden soll und alles so weiter gehen soll. Ja, das was sich die Bucht und PP leistet ist schon frechdreist. Ich bestelle nur noch wenn es nicht anders geht. Aus Gewohnheit schon gar nicht mehr. Ich suche in der Bucht und anderswo nur noch in Private mode weil da die ganzen Webeinträge verloren gehen und man nicht andauernd Webempfehlungen auf jeder anderen Seite mit bekommt. Ich frage mich eigentlich ob sich die "Macher" im klaren sind wie sehr sie so viele Menschen vergraulen? Glauben die denn wirklich an einem Erfolg und daß sie tun und lassen können was sie wollen? Irgendwann müsste es doch auch den dümmsten Leuten zu blöd werden. Wie lange wird der (Web) Esel noch auf dem Eis tanzen können?
:
Bearbeitet durch User
sid schrieb: > Datenmenge ist seit längerem kein Problem mehr... Datenmenge ist sehr wohl ein Problem, wie eine aktuelle Studie belegt: "IT-Wachstum konterkariert Klimaschutzbemühungen" "So verbrauchen zehn Minuten Video-Streaming in HD auf einem Smartphone ebenso viel Energie wie fünf Minuten Kochen auf einem Herd mit 2 Kilowatt Leistung..." "Zusammengenommen ist Digitaltechnik dadurch mittlerweile für 3,7 Prozent der weltweiten Treibhausgas-Emissionen verantwortlich – während auf den zivilen Luftverkehr 2018 lediglich 2 Prozent der Emissionen entfielen." https://www.heise.de/newsticker/meldung/Studie-Wachstum-bei-Digitaltechnologien-konterkariert-Klimaschutzbemuehungen-4339255.html Und der zivile Luftverkehr verbraucht verdammt viel Energie und macht verdammt viel Dreck.
HauDenLukas schrieb: > Und der zivile Luftverkehr verbraucht verdammt viel Energie und macht > verdammt viel Dreck. Der Luftverkehr kann aber deutlich schlechter auf alternative Energiequellen umstellen als die IT.
Karl K. schrieb: > HauDenLukas schrieb: >> Und der zivile Luftverkehr verbraucht verdammt viel Energie und macht >> verdammt viel Dreck. > > Der Luftverkehr kann aber deutlich schlechter auf alternative > Energiequellen umstellen als die IT. Die IT erhöht aber damit den Gesamtenergiebedarf mit der höchsten Zuwachsrate, was die Zuwachsraten bei erneuerbaren Energiequellen zu großen Teilen egalisiert und somit ein wachsender Teil des Problems wird, so es denn so dramatisch ist wie behauptet. Man kann also mit Fug und Recht sagen, Webdesigner sind Umweltschweine, da sie mit Datenmüll wertvolle erneuerbare Energie verschwenden und so den Energiebedarf anheizen, was den Prozess der Umstellung auf erneuerbare Energiequellen konterkariert. Nix mit weißer Umweltweste, Datenmüll ist Energie- und Zeitraubend, der Kunde wird damit zum Raubopfer in dreifacher Hinsicht er wird seiner Zeit Energie und Daten beraubt und zur Datenmüllkonsumtion genötigt, was ihn wieder Energie vulgo Akkukapazität kostet und Zeit und er wird davon abgehalten beides sinnvoller einzusetzen. Dabei sind die psychomanipulativen Spielchen noch gar nicht einbezogen. Kurz um der Kunde wird effektiver ausgebeutet als jeder Prolet und das ohne es zu merken. Und behaupte niemand der User wolle das so, er weiß gar nicht was er nicht sieht, weil er nicht weis was seine Maschine in euren Händen anstellt. Euer Kunde ist nicht der unwissende User. Der ist die geraubte Ware, die ihr an Google & Co. verkauft Namaste
:
Bearbeitet durch User
das ist leider inzwischen normal. Ich verwende daher noscript. Das ist aber auch nicht ohne Nervfaktor. Man erkauft sich das schnellere Laden dadurch, dass man manuell für einige Seiten skripte freigeben muss. Mir ist das trotzdem lieber, weil die häufig verwendeten Seiten viel schneller laden. Dafür muss ich bei anderen Seite viele Skripte freigeben. Seiten, die ohne der Freigabe von hunderten Skripten nicht funktionieren, verwende ich gar nicht mehr. ein netter Nebeneffekt ist, dass viel besonders lästige Werbung ausgeblendet wird. So sehe ich auf Youtube keinerlei Werbung. Werbung erlaube ich generell schon, aber nicht, wenn sie mir den Rechner verstopft und unsinnig viel Strom und Bandbreite benötigt. Javascript ist eine Pest, die ausgerottet werden muss. Es ist wieder ein sinnvolles Konzept, das wegen der Inkompetenz, Gier und Dummheit der Werbedeppen zerstört wurde.
Das ist nicht neu: Ich hab vor ca. 20 Jahren mal geschaut, warum eBay auf Modem so langsam lädt: Jedes einzelne hatte Schriftart, Schriftgröße, Schriftfarbe... und war damit >200 Bytes. Für jedes bekackte Leerzeichen. MfG, Arno
Heute noch mehr Müll als Inhalt. Es ist ein Jammer, dass alle Sünden, die Stefan Münz in SELFHTML schon seit 1995 angeprangert hat bis heute noch nicht beachtet werden. https://de.wikipedia.org/wiki/Selfhtml#Geschichte
Winfried J. schrieb: > Karl K. schrieb: >> HauDenLukas schrieb: >>> Und der zivile Luftverkehr verbraucht verdammt viel Energie und macht >>> verdammt viel Dreck. >> >> Der Luftverkehr kann aber deutlich schlechter auf alternative >> Energiequellen umstellen als die IT. > > Die IT erhöht aber damit den Gesamtenergiebedarf mit der höchsten > Zuwachsrate, was die Zuwachsraten bei erneuerbaren Energiequellen zu > großen Teilen egalisiert und somit ein wachsender Teil des Problems > wird, so es denn so dramatisch ist wie behauptet. > > Man kann also mit Fug und Recht sagen, Webdesigner sind Umweltschweine, > da sie mit Datenmüll wertvolle erneuerbare Energie verschwenden und so > den Energiebedarf anheizen, was den Prozess der Umstellung auf > erneuerbare Energiequellen konterkariert. > > Nix mit weißer Umweltweste, Datenmüll ist Energie- und Zeitraubend, der > Kunde wird damit zum Raubopfer in dreifacher Hinsicht er wird seiner > Zeit Energie und Daten beraubt und zur Datenmüllkonsumtion genötigt, was > ihn wieder Energie vulgo Akkukapazität kostet und Zeit und er wird davon > abgehalten beides sinnvoller einzusetzen. > Dabei sind die psychomanipulativen Spielchen noch gar nicht einbezogen. > > Kurz um der Kunde wird effektiver ausgebeutet als jeder Prolet und das > ohne es zu merken. > > Und behaupte niemand der User wolle das so, er weiß gar nicht was er > nicht sieht, weil er nicht weis was seine Maschine in euren Händen > anstellt. Euer Kunde ist nicht der unwissende User. Der ist die geraubte > Ware, die ihr an Google & Co. verkauft > > > Namaste Oida! Bleib mal auf dem Teppich. Niemand zwingt dich, webeverseuchte Seiten anzusehen. Niemand zwingt dich, auf noscript oder adblocker zu verzichten. Die Dinge werden immer noch von deinem Browser heruntergeladen, weil DU sie haben wolltest. Die beste Lösung ist, den Kram einfach nicht zu konsumieren. Das trifft für Google und Facebook genauso zu wie auf Webseiten, die mit Noscript nicht laden. Was ganz gut funktioniert, weil inzwischen die meisten Seiten ohne Skripte zumindest lesbar sind. Es ist ja gut und schön, sich einmal über den Umstand zu beklagen, aber Verschwörungstheorien und Weltuntergangsfantasien sind bei dem Thema geringfügig übertrieben...
jemand schrieb: > Oida! Unabhängig dessen bist du nicht in der Lage sinnerfassend zu lesen. Es ging nicht um mich. Und es ist Wurscht ob einzelne wie du sich einigeln und wie Minensucher den Pfad durchs Minenfeld suchen, sondern um das von Google und Co. ausgelegte das Internet und den Planeten umfassende Minenfeld, welches die von mir beschriebene Wirkung erzielt. Einer VT bedarf es nicht. Murphy und Ockham genügen. Namaste
:
Bearbeitet durch User
jemand schrieb: > Niemand zwingt dich, webeverseuchte Seiten anzusehen. Niemand zwingt > dich, auf noscript oder adblocker zu verzichten. > > Die Dinge werden immer noch von deinem Browser heruntergeladen, weil DU > sie haben wolltest. > > Die beste Lösung ist, den Kram einfach nicht zu konsumieren. Das trifft > für Google und Facebook genauso zu wie auf Webseiten, die mit Noscript > nicht laden. Von nichts eine Ahnung, davon aber jede Menge. Mittlerweile zwingen dich diverse Ämter und Behörden auf deren kaputte Webseiten, sonst hast du ein großes Problem. Elster Formular ist Windows -only und muß zwingend (herunter)geladen und aktualisiert werden. Kannst du auch im Webformular online machen, nur nicht ohne JS. Wie das mit dem zwingenden und zu bezahlenden digitalen Postfach der Anwälte bei Gericht(en) läuft, weiß ich jetzt nicht so 100 pro, aber wenn du Glück hast, bekommst du noch den lustigen Rannsomware vom Gericht dazugeliefert. Daß die Lösung grundlegend kaputt ist sollte ja mittlerweile bekannt sein. Schau dich mal die letzten wenigen Wochen in den Securitymeldungen um, was da so los ist. Die Webseiten der ÖR Rundfunkanstalten setzen meistens JS voraus, sonst liest und siehst du gar nichts dort. Konsumierst du die nicht, heißt es später vom Finanz- oder sonstigem Amt, daß irgendwas doch in Presse und Rundfunk bekanntgegeben wurde und du hast dich nicht drum gekümmert. Auch das Arbeitsamt mit Stellenbörse zwingt dich zu JS. Also: Ball bitte flach halten, wenn man keine Ahnung hat.
Gerne auch schrieb: > setzen meistens JS voraus, sonst liest und siehst du > gar nichts dort Auch schon aufgefallen. Wenn man sich nicht wehrt macht man was verkehrt. Man sollte diesen Firmen viel öfter eine garstige Mail senden, daß die Seiten nicht lesbar sind und alle Fehler und Sünden die Stefan Münz seit 1995 in Selfhtml angeprangert hat, auf ihrer Webseite heute noch zu finden sind.
Lustig, das habe ich letztens auch gedacht als ich über diese Seite gestolpert bin: https://projekte.sueddeutsche.de/artikel/digital/digitale-privatsphaere-ueberwacht-und-verkauft-e784992 Und auf der normalen Seite der SZ sieht es kein Stück besser aus...
das Problem kenne ich auch zu gut, benutze auch NOSCRIPT. Einmal angefangen eine Seite temporär freizugeben und peng hängen schon 3 weitere JS hinten dran die freigegeben werden wollen. Die Latte wird immer länger an JS und man weiss nicht was sich alles dahinter auser Ausspähen verbirgt. Hatte mal bei AZ-Delivery was bestellt und wollte dann auf deren Seite die kostenlosen PDF EBooks nutzen.. sehr lustig das... Man kann alle anklicken, in den Warenkorb legen und bestellen, aber man bekommt nix.. hatte ich zuwenige JS freigegeben?? Egal ich brauch die PDF Dateien nicht. Ich schließe die Seiten wieder die mir suspekt vorkommen und wenn einer denkt er muss mir JS aufdrücken wolle, dann verzichte ich auf den Besuch dessen Webseite und hole meine Infos woanders. Notfalls, wenn es geschäftlich ist per EMail oder Telefon. Ich tue dann aber auch kund warum ich nicht über die Webseite gehe
Osszilierer schrieb: > das Problem kenne ich auch zu gut, benutze auch NOSCRIPT. Einmal > angefangen eine Seite temporär freizugeben und peng hängen schon 3 > weitere JS hinten dran die freigegeben werden wollen. Die Latte wird > immer länger an JS und man weiss nicht was sich alles dahinter auser > Ausspähen verbirgt. Man kann nachsehen. Das macht aber leider richtig Arbeit... Aber zum Glück kommt ja bald diese WebAssembly-Scheisse, wo man nichtmal mehr (mehr oder weniger einfach) nachsehen kann, weil es keinen (ggf. obfuskierten) Quelltext mehr gibt, sondern gleich nur ein Binary. Der User soll sich ja nicht mit so komplizierten Problemen belasten müssen... OK, auch WebAssembly kann man sich ansehen, aber die Hürde liegt doch noch ein ganzes Stück höher. Also: mehr noch als bei JS: immer komplett blockieren. Kein WebSite kann so wichtig sein, dass man bereit sein will, ungeprüften Code auf den eigenen Rechner zu lassen.
Osszilierer schrieb: > Hatte mal bei AZ-Delivery was bestellt und wollte dann auf deren Seite > die kostenlosen PDF EBooks nutzen.. sehr lustig das... > Man kann alle anklicken, in den Warenkorb legen und bestellen, aber man > bekommt nix.. Das habe ich auch nicht hinbekommen. Mit Google habe eins der PDF's dann woanders gefunden - lohnt sich nicht. Da steht nicht mehr drin, als man ohnehin in 5 Minuten im Netz findet. Was die "Buch" nennen, hat teilweise nur 3 Seiten A5 Umfang.
oszi40 schrieb: > Man sollte diesen Firmen viel öfter eine garstige Mail senden, daß die > Seiten nicht lesbar sind Ja klar, weil die das auch brennend interessiert. Du bist der, der bei Firmen anruft die auf ihre Verpackung "kann Spuren von Erdnüssen oder anderen Nüssen enthalten" schreiben - und denen erklärst dass Erdnüsse keine Nüsse sind.
Karl K. schrieb: >> Man sollte diesen Firmen viel öfter eine garstige Mail senden, daß die >> Seiten nicht lesbar sind > > Ja klar, weil die das auch brennend interessiert. Du wirst es nicht glauben, auf meinen Wunsch wurden schon Seiten geändert. Man muß "bloß" die richtige Adresse finden.
oszi40 schrieb: > Du wirst es nicht glauben, auf meinen Wunsch wurden schon Seiten > geändert. Man muß "bloß" die richtige Adresse finden. Und würdest Du uns mitteilen was jetzt die "richtige" Adresse ist? Gruß Asko
oszi40 schrieb: > Du wirst es nicht glauben, auf meinen Wunsch wurden schon Seiten > geändert. Stimmt. Das glaube ich nicht. Also gut, beim örtlichen Karnickelzüchterverein. Ok, ich glaubs. Also im Prinzip stimmt das schon so was du über JS sagst. Bei mir läuft prinzipiell erstmal Noscript, und wenn die Seite dann nicht will überlege ich mir halt, wie wichtig mir die Inhalte sind und wieviel ich dafür freigebe. Ich seh aber im Freundeskreis durchaus, dass die Leute keinen Bock drauf haben sich da durchzuklicken. Die Seite muss funktionieren. Fertig. Insofern haben wir zwar vielleicht die technisch besseren Argumente - aber schlichtweg keine Marktmacht, dass sich irgendwelche Webdesigner drüber nen Kopf machen würden.
Karl K. schrieb: > Also gut, beim örtlichen Karnickelzüchterverein. Ok, ich glaubs. Wenn das Deine Lieblingsseite ist, dann wende Dich an den Webmaster, Entwickler oder Pressefuzzi usw. oder ertrage den Müll.
Karl K. schrieb: > oszi40 schrieb: >> Du wirst es nicht glauben, auf meinen Wunsch wurden schon Seiten >> geändert. > > Stimmt. Das glaube ich nicht. Kleine Änderung habe ich auch schon gehabt. Auf einer Klamottenseite war absolut unklar, ob das Konto im Minus oder Plus ist. Paar Tage nach dem Telefonanruf wurde dann ein Minusbestand deutlich in Rot dargestellt.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.