Es ist Freitag... Ich will es mal kurz halten. Diesesmal geht es um moderne PC Software Verhalten. Ich arbeite nun mit PCs seit Ende der 80er Jahre. Es fing mit 8086ern an und nach zahlreichen Generation von immer leistungsfähiger werdenden Generationen von kontemporären PCs. Moore's Law hielt sicherlich Vieles diesbezüglich. Deshalb ist es verwunderlich, daß unsere modernen PCs trotz fantastisch anmutender Rechen- und Verarbeitungsgeschwindigkeiten sich vor dem Benutzer so langweilig verhalten. Oft muß man in unverständlicher Manier trotz superschneller moderner Hardware auf die "einfachsten Dinge" lange warten. Das fängt mit dem Hochbooten des PCs an und geht weiter mit dem Startup Verhalten der Anwender Software. Viele neue Software scheint sich geradezu fürchterlich abzuquälen. Der Startup vielerlei Software dauert oft überzogen lange. Manche Software braucht auch bei Multi-GHz Taktfrequenzen und 64-Bit Betriebssystem sehr lange zu allem. Oftmals muß man viele Sekunden auf das Erscheinens einer gewählten Funktion warten. Als Gebraucher der Software vor dem PC verbringt man viel Zeit mit Warten. Als nicht PC-Programmierer verstehe ich nicht wirklich warum viele große Software heutzutage nicht besser funktioniert. Ich verwende privat Protel99Se und bin beeindruckt wie superschnell diese Software mit mir zusammenarbeitet. Auf einem modernen, leistungsfähigen PC kann man damit superagil arbeiten. Alles reagiert ohne merkbare Verzögerung. Bei Altium ist das schon nicht mehr der Fall. Jede Interaktion hat merkbare Verzögerungen. Es ist sicherlich bezeichnend, daß Software die damals auf Rechnern mit Taktfrequenzen im MHz Bereich einfach viel effizienter sein mußte. Das zeigt sich natürlich wenn solche Software auf modernen Rechnern läuft. Deshalb frage ich mich warum moderne Software vielfach so "müde" sein muß. Können wir keine gute Software mehr konzipieren? Vielleicht haben wir uns in eine falsche Richtung der Entwicklungstools Methodologie verrannt. Irgendwie finde ich, daß wir mal einen guten, harten Look auf die heutigen Methoden der Softwareentwicklung und deren verwendeten Tools werfen sollten. Die ganze Internetverkopplung moderner Software und Features scheinen in detrimentaler Weise die Leistungsfähigkeit zu begrenzen. Vielleicht haben wir einfach zu hochfliegende Illusionen was moderne Software alles können soll. Vielleicht sollten wir uns besser auf wesentliche Softwareeigenschaften begrenzen und unnötige Komplexität und Features rauszuschneiden. Jedenfalls bin ich von den kontemporären Software Trends wenig beeindruckt. Befremdlich finde ich auch den immer größer werdenden Zwang ohne Internet viele Software nicht unabhängig benutzen zu können. Die immer weiter ausschreitende Notwendigkeit, Verbindung mit dem Mutterschiff haben zu müssen, ist erschreckend. Es scheint, zu viele PC Benutzer sind sich der Nacktheit des Kaisers nicht mehr wirklich bewußt oder denken es geht nicht besser. Ich bin der Ansicht, wo ein Wille, da ein Weg! Es muß nicht immer schlimmer werden. Vielleicht brauchen wir einen Trend in die Richtung von Retro. Natürlich meine ich hier nicht Museumsreife PC Hardware und Betriebssysteme. Vielleicht sollten wir wieder auf bewährte Software Designmethoden zurückkommen. Vielleicht ist es es wirklich Zeit von dem hohen Ross überzüchteter Software Philosophie und Methoden herunter zu steigen. Ich bin der Meinung, es ist höchste Zeit für einen Tritt in den Hintern in den fraglichen Stellen um mal aus diesem "High" herauszuschnappen und sich wieder auf die wirklich wichtigen Softwareeigenschaften zu besinnen. OK! Ich gehe jetzt;-)
:
Bearbeitet durch User
Die Reaktionszeit von interaktiv bedienten Computern hängt nicht vom Computer ab, sondern vom Mensch. Da man mit schnelleren Rechnern komplexere Programme bauen kann, wird sie stets darauf optimiert, was der Mensch noch akzeptiert. Nicht darauf, was er gerne hätte. Das hat auch etwas mit der Erwartungshaltung der Kunden zu tun. Wenn du schon viel Geld für einen Update hinlegst, dann willst du mehr dafür bekommen als bloss Fehlerkorrekturen. Die werden als kostenlos eingefordert. Aber von irgendwas muss die Firma leben. Also werden die Programme aufgeblasen.
:
Bearbeitet durch User
A. K. schrieb: > Die Reaktionszeit von interaktiv bedienten Computern hängt nicht > vom > Computer ab, sondern vom Mensch. Da man mit schnelleren Rechnern > komplexere Programme bauen kann, wird sie stets darauf optimiert, was > der Mensch noch akzeptiert. Nicht darauf, was er gerne hätte. Du sagst es! Ich verstehe dann nur nicht wirklich warum sich dann so viele mit einem müden Lincoln Towncar zufrieden geben und sich nicht beschweren wenn man anstelle auch einen E500 mit überzeugender Leistung haben könnte.
A. K. schrieb: > Das hat auch etwas mit der Erwartungshaltung der Kunden zu tun. Wenn du > schon viel Geld für einen Update hinlegst, dann willst du mehr dafür > bekommen als bloss Fehlerkorrekturen. Die werden als kostenlos > eingefordert. Aber von irgendwas muss die Firma leben. Also werden die > Programme aufgeblasen. Das ist es ja. Von vieler Software wird nur ein Bruchteil der Funktionen wirklich benötigt. Wie erfrischend ist da PR99Se. Keine Updates seit dem Jahre 2000, aber dafür Rennautoleistung. Die Software funktioniert mit allen ihren Stärken und Schwächen ausreichend zuverläßig und der "Job gets done". Altium hingegen hat sicherlich auch einige recht nützliche Eigenschaften, kränkelt aber an der besprochenen modernen Krankheit und ist in der Beziehung nicht einmal so schlecht.
:
Bearbeitet durch User
Ja richtig schrecklich was heutzutage programmiert wird. Überall Farbverläufe, Grafiken und Animationen, alles sinnlos. Ich programmiere sowas nicht und beschränke mich auf die Standard Komponenten. Damit ist die Exe schon mal so schnell wie nur möglich. Die abhängigkeiten über Netzwerk kann man nur schlecht optimieren (z.B. SQL Server). Das sieht zwar platt aus, man möge es mir verzeihen.
Gerhard O. schrieb: > Es ist Freitag... > Als nicht PC-Programmierer verstehe ich nicht wirklich warum viele große > Software heutzutage nicht besser funktioniert. gut. erinner dich mal 8086 zeiten zurück, und zwar intensiv. was hatten wir damals? textorientierte oberflächen, keine maus, real mode, und der rechner brauchte ewig zum booten, obwohl er nur ein paar kilobyte von diskette zu lesen hatte. "kaffeepause" sagt dir noch was? und jetzt schau dir an was wir heute haben: grafische benutzeroberflächen, in farbe, maus, gigabit ethernet das völlig verzögerungsfrei im hintergrund läuft... alleine was im "infobereich" der taskleiste läuft (hier: energieverwaltung, bluetooth, network manager, vlc info, mixer applet, uhr, zwischenablage mit history) und wenn du willst prompt reagiert wäre auf den alten kisten nicht gegangen. nebenbei läuft noch ein video in HD auf dem zweiten monitor, ich habe eine verschlüsselte remote desktop verbindung zu einem anderen rechner offen, und ich kann hier in einem browser text eintippen, inclusive markieren, kopieren, einfügen, cursor bewegen, und der text wird in truetype gerendert mit subpixel hinting, und mit einem mausradschubser wird weich gescrollt. was gabs damals? edlin? dann noch die ganzen hintergrundprozesse… dhcp, dbus, logging, udev, ntp, SMART- und temperaturüberwachung, vfs… was du als "noch genau so langsam" bezeichnest ist in wirklichkeit sauschnelle massendatenverarbeitung im vergleich zu damals.
A. K. schrieb: > Die Reaktionszeit von interaktiv bedienten Computern hängt nicht vom > Computer ab, sondern vom Mensch. Da man mit schnelleren Rechnern > komplexere Programme bauen kann, wird sie stets darauf optimiert, was > der Mensch noch akzeptiert. Das glaube ich nun nicht... Grund ist der exzessive Gebrauch von Bibliotheken und superaufwendigen GUIs, um die Entwicklungskosten möglichst gering zu halten. Der Preis sind eben ellenlange Aktionen beim Start, die die Libs und das GUI brauchen, nicht die eigentliche Anwendung. Früher war Speicher knapp und die Prozessoren langsam und man hat als Programmierer Klimmzüge gemacht, das Programm so effizient zu machen, dass es auf der aktuellen lahmen Kiste noch halbwegs erträglich schnell lief. Wenn man solche Software auf heutigen Rechnern laufen lässt, geht sie natürlich ab, wie Schmitts Katze - der Vergleich also nicht sehr fair...
:
Bearbeitet durch User
Weil die Softwarheäuser irgendwie eine neue Softwareversion verkaufen müssen, damit ihr Kühlschrank nicht alleine vor sich hin friert, werden Programme mit allerlei Zusatzfunktionen überfrachtet. Dazu ein simples Gleichnis: Software = Axt Nachdem die Axt besser in der Hand lag, Stiel und Klinge optimiert waren, kam eine Klinge aus Damaszenerstahl und ein aufwendig verzierter Griff. Inzwischen kann die Axt noch telefonieren, Fotos machen, die Fotos auf Flicker hochladen, ein Foto mit Kommentar, das ich Holz hacke bei Facebook absetzen, eine Terminabsprache mit dem Förster und dem Sägewerk machen und damit diese ganze Featureritis nichts kostet bekomme ich Werbeanrufe vom Motorsägenhändler und die anderen Technikanbieter können sich über das Nutzungsverhalten meiner Axt informieren um mir weitere, für mich optimierte Werkzeuge zu verkaufen. Nur das die Axt inzwischen zum Leatherman mutiert ist, mit dem ich irgendwie alles, aber nichts so richtig gut machen kann, ist schon lange aus dem Blickfeld der Marketingstrategen entschwunden. Oder es wird kurzerhand der Sicherheitsstandard zum Bäumefällen angepasst. Einfach Umfallen ist nicht mehr safe genug, die Bäume müssen jetzt unter allen Umständen nach rechts umfallen. Die alte Axt könnte man updaten, aber ich muß eine Neue kaufen, weil der Hersteller sonst keinen Umsatz mehr macht :-)))
Wie immer: teils - teils. Ja, es gibt schlechte SW mit zu vielen aufgeblasenen Libs und schlecht bis garnicht optimierten Algorithmen. Das ist aber nur die halbe Wahrheit. Du musst auch verstehen dass SW heute viele komplexe Aufgaben im Hintergrund abarbeitet die du nicht direkt siehst (und damit meine ich nicht "nach-hause-telefonieren). Moderne IDEs (und wohl auch dein Altium) pflegen Indexe und Tabellen um moderne Features anbieten zu können. Das OS erledigt zig wichtige Aufgaben im Hintergrund die du zwar nicht siehst, aber auch nicht missen möchtest. Ich kann mich noch an Zeiten erinnern wo der PC aufgrund träger Reaktionen praktisch unbenutzbar war solange ein Dokument gedruckt wurde. Imho war das die komplette Windows-Schiene mit DOS-Kernel. Achja, die CPU ist selten der Flaschenhals, höchstens beim Kompilieren oder Rendern. Eher ist die HDD für lange Ladezeiten verantwortlich, siehe aktuelle Spiele mit 30Gb und mehr die aber nach dem Laden trotzdem flüssig Laufen.
Gerald B. schrieb: > Inzwischen kann die Axt noch telefonieren, Fotos machen, die Fotos auf > Flicker hochladen, ein Foto mit Kommentar, Ich nehme an, du hast dein Smartphone mittlerweile durch ein renoviertes Nokia 3310 ersetzt. Immerhin, dem Hype nach zu schliessen bist du damit nicht allein. Ich meinerseits finde das Android allerdings more handy.
@Gerhard O. (gerhard_) >superschneller moderner Hardware auf die "einfachsten Dinge" lange >warten. Das fängt mit dem Hochbooten des PCs an und geht weiter mit dem >Startup Verhalten der Anwender Software. In der Tat. Mein Top-Kandidaten für MIESESTES Design sind Atmelstudio 6 und Avira Antivirus! Atmelstudio ist ein mittlere Katastrophe. Was dort verbrochen wurde, geht auf keine Kuhhaut! Das Laden eines EINFACHSTEN Projekts dauert ca. 45s. Das Öffnen der Projekteigenschaften dauert ähnlich, wenn man dann in den einzelnen Tabs rumclickt auch!!! Das ist einfach IRRSINN!!! Die Eingabe von Quelltext ist hakelig, weil u.a. eine RECHTSCHREIBPRÜFUNG im Hintergrund läuft (auch wenn man die abschalten kann). Meine Vermutung. Da haben untalentierte und unmotivierte Leute ein halbes Dutzend Frameworks übereinander gestapelt und das wars. Auf den riesigen und allerneustesn Entwickler-PCs läuft es einigermaßen flott und das wars. Welcher Dreck da im Hintergrund werkelt ist scheißegal. Wie es scheint,k sind alle Menus NICHT direkt verfügbar sondern über diverse Hierachiebenen gepuffert und werden erst bei Bedarf von Festplatte geladen. HALLO??? Was soll der Scheiß? Die paar hundert kB für die Menus hat heute JEDER Scheiß-PC im RAM!!! Da DARF gar nichts dynamisch nachgeladen werden! Capice? Avira Antivirus ist ähnlich. Wenn das läuft, ist der Rechner kaum nutzbar, weil dauernd die Festplatte rasselt und auch die CPU scheinbar tierisch überlastet ist. Wenn man diverse Fenster schließt und Scanläufe abbrechen will, reagiert es erst nach MINUTEN!!! HALLOOOOOOO!!!! >Viele neue Software scheint sich geradezu fürchterlich abzuquälen. Der >Startup vielerlei Software dauert oft überzogen lange. Manche Software >braucht auch bei Multi-GHz Taktfrequenzen und 64-Bit Betriebssystem sehr >lange zu allem. Oftmals muß man viele Sekunden auf das Erscheinens einer >gewählten Funktion warten. Als Gebraucher der Software vor dem PC >verbringt man viel Zeit mit Warten. In der Tat. >Als nicht PC-Programmierer verstehe ich nicht wirklich warum viele große >Software heutzutage nicht besser funktioniert. Viele Software ist total verfettet und aufgeblasen. Man nutzt dieverse Frameworks, was an sich OK und sinnvoll ist, schert sich aber KEINE SEKUNDE um Performance. Der Irrsin wird nicht hinterfragt, das Zeug muss halt schnell raus und fertig. >Deshalb frage ich mich warum moderne Software vielfach so "müde" sein >muß. Können wir keine gute Software mehr konzipieren? Sieht wohl so aus. >verrannt. Irgendwie finde ich, daß wir mal einen guten, harten Look auf >die heutigen Methoden der Softwareentwicklung und deren verwendeten >Tools werfen sollten. Das könnte ernüchternd sein ;-) >Die ganze Internetverkopplung moderner Software und Features scheinen in >detrimentaler Weise die Leistungsfähigkeit zu begrenzen. Das allein ist es nicht. >Vielleicht haben wir einfach zu hochfliegende Illusionen was moderne >Software alles können soll. Vielleicht sollten wir uns besser auf >wesentliche Softwareeigenschaften begrenzen und unnötige Komplexität und >Features rauszuschneiden. Software kann alles und wird nie fertig. 8-( >immer weiter ausschreitende Notwendigkeit, Verbindung mit dem >Mutterschiff haben zu müssen, ist erschreckend. Wir sind Borg. Widerstand ist zwecklos! >oder denken es geht nicht besser. Ich bin der Ansicht, wo ein Wille, da >ein Weg! Es gibt aber keinen Willen, nur Zeitgeist. >es es wirklich Zeit von dem hohen Ross überzüchteter Software >Philosophie und Methoden herunter zu steigen. Meine Rede. >Ich bin der Meinung, es ist höchste Zeit für einen Tritt in den Hintern >in den fraglichen Stellen um mal aus diesem "High" herauszuschnappen und >sich wieder auf die wirklich wichtigen Softwareeigenschaften zu >besinnen. Back to the roots!
Das Atmelstudio hat die Oberfläche vom VisualStudio übergeholfen bekommen. Die Absicht war wohl daß sich PC-Programmierer schneller einfinden und daß die eigene Entwicklungsarbeit weniger wird. Warum man sich Avira ans Bein bindet verstehe ich nicht. Mickeysoft hat eine halbwegs schmerzarme kostenlose Variante die es auch tut.
Gerald B. schrieb: > Dazu ein simples Gleichnis: Software = Axt... Genial geschrieben! Ich möchte noch etwas hinzufügen: Die Axt ist mittlerweile so teuer geworden dass sich ein Leasingmodell anbietet. Wir müssen einen Axt IT Experten einstellen, der sie regelmäßig wartet und auch regelmäßige Sicherheitsemails versendet. An 2 von 10 Tagen ist die Axt wegen fehlgeschlagener Updates nicht benutzbar. In der Werbung wird schon lange mit der Facebook Integration geworben anstatt mit der Schärfe der Klinge. Hat man sie gekauft, stellt man fest dass die Facebook Integration wirklich besser ist als die Schärfe der Klinge und weiß nun warum damit nicht geworben wurde. Die Axt hat nun ein Display um verschiedene Hackmodis einzustellen. Leider kann man das Display bei Sonneneinstrahlung nicht richtig ablesen und die Bedienungsanleitung als PDF ist auch schwer zu entziffern. Ich will ja nicht alles schlecht reden. DAS aber schon! Industriesoftware ist da eher noch einfacher als Consumersoftware.
Naja, teils-teil, wie immer... Ich habe neulich aus einem Nachlass einen AT-Bigtower mit Turbotaste (!) in die Finger bekommen, darin werkelt ein 486DX und ich hab' ihn einfach mal angeschaltet und gedacht, es käme gleich magischer Rauch aus dem Netzteil, aber nein, es bootete problemlos eine Windows 3.11-Installation. Auf dem Gerät habe ich ein wenig herumgesucht, da waren Banking-Daten und diverse Korrespondenz drauf und die Kiste fühlte sich überhaupt nicht träge an! Aber, zugegeben - die Win3.11-Oberfläche ist zwar benutzbar, aber sobald irgend etwas grafiklastiges als Aufgabe für den Rechner droht, dann wird das Ganze sehr bald sehr zäh. An Multimedia durfte man seinerzeit unter Windows gar nicht denken. Die Verbesserungen von DOS bis zu Windows XP waren von Generation zu Generation doch wirklich spürbar - es ging jede Mal mehr, Grafik, Foto, Video, USB... Danach flachte die Entwicklung von merkbaren Verbesserungen aber IMHO tatsächlich drastisch ab. Was können die neuen Rechner unter Win10 denn wirklich besser als ein älteres Win XP SP2-Modell?
@Matthias L. (limbachnet) >tatsächlich drastisch ab. Was können die neuen Rechner unter Win10 denn >wirklich besser als ein älteres Win XP SP2-Modell? Resourcen sinnlos verheizen! (CPU-Leistung, RAM, Festplattenspeicher, etc.) Wenn allein schon ein Maustreiber 10MB+++ haben kann . . .
Gerhard O. schrieb: > Ich bin der Meinung, es ist höchste Zeit für einen Tritt in den Hintern > in den fraglichen Stellen um mal aus diesem "High" herauszuschnappen und > sich wieder auf die wirklich wichtigen Softwareeigenschaften zu > besinnen. Leider steht man mit dieser Meinung ziemlich einsam da.
Gerald B. schrieb: > Weil die Softwarheäuser irgendwie eine neue Softwareversion verkaufen > müssen, damit ihr Kühlschrank nicht alleine vor sich hin friert, werden > Programme mit allerlei Zusatzfunktionen überfrachtet. Weil ja Kapitalismus, es muss inmer weiter wachsen und wer nicht arbeitet, soll nicht fressen. Das funktioniert auch recht gut bei Verbrauchsgütern und Dienstleistungen, aber bei technischen Produkten halt nur, solange der Fortschritt, also die physikalischen und sinnhaftigen Grenzen nicht ausgereizt sind oder der Markt noch nicht gesättigt ist. Wenn das nicht mehr gegeben ist, man also gegen ne Wand zu laufen droht, bleibt einem in diesem System nur übrig, künstliche Obsoleszenz, ein künstlicher Schritt zurück oder zwei, dann einen nach vorne und das als Fortschritt dem dementen und grenzdebilen Kunden versuchen zu verkaufen oder sinnlose Funktionserweiterungen und das dem Kunden als Must-have unter die Nase reiben. Die Hersteller wenden heute mittlerweile von diesen Möglichkeiten alle an, damit man eine Komponente nicht überreizen muss, dass es selbst dem grenzdebilen Anteil der Menschheit, der die Mehrheit ausmacht, auffallen würde. Kurz, das aktuelle Wirtschaftssystem taugt für diese neuen Gegebenheiten gar nix, ist letztendlich kontraproduktiv in allem je weiter es in die Zukunft geht.
Ein Musterbeispiel solcher aufgeblasenen Software ist Lexware, ein Buchführungsprogramm. Die ersten Versionen liefen problemlos auf jedem 286er. Das Programm macht ja eigentlich nicht viel. Die reine Rechenaufgabe konnte auch der 286er schneller erledigen, als du tippen kannst. Jetzt will dieses Programm den neuesten Prozessor und Speicherplatz ohne Ende. Wozu?? Grüße Bernd
@ Bernd Funk (metallfunk) >Jetzt will dieses Programm den neuesten Prozessor und Speicherplatz >ohne Ende. Wozu?? Weil es von den untalentiertesten und unmotiviertesten Softwerkern zusammengeschustert wurde! Spätrömische Dekadenz!
Gerhard O. schrieb: am 01.04.2017 > Es ist Freitag... Und Das ist doch schon gelogen ... Samstag ist's Zu den Geschwindigkeiten heutiger PCs ... je flotter der Rechner, desto ausgefressener wird die Grundausstattung. Auch muß man heute nicht mehr um jedes Byte geizen, man klickt hier ne LIB dazu und zählt dort als float hoch, statt Integer. Der Endanwender ist darauf trainiert, daß das sau komplizierte Spezial-Programm hat viel machen muß und so durchaus mit Wartezeiten zu rechnen ist ... Selber erst ab 8086 stümperhaft dabei, bis zum 80486 bekam ich Die aber per Assembler zuverlässig aufgehangen ;) Seit Win waren die Assembler-Ausflüge recht schnell vorbei um erst jetzt mit den AVRs wieder ein Wiederaufleben zu erleben. Selber könnte ich mich maßlos ärgern, wenn ohne Sinn und Verstand die Ressourcen des µC zugemüllt werden - allerdings hat der Spruch, daß unbenutzter RAM und gesparte Rechenzeit den Preis nicht mindern, auch wieder eine gewisse Berechtigung. Zu allem Überfluss: Bei den PCs machen wir hier da aber Mal nichts dran ... so ist Das halt. MfG
Falk B. schrieb: > @ Bernd Funk (metallfunk) > >>Jetzt will dieses Programm den neuesten Prozessor und Speicherplatz >>ohne Ende. Wozu?? > > Weil es von den untalentiertesten und unmotiviertesten Softwerkern > zusammengeschustert wurde! Spätrömische Dekadenz! Das glaub ich auch nicht. Ursache sind in aller Regel die Vorgaben, die irgend welche BWL-Fuzzies machen. Früher war die Softwareentwicklung eher eine Kunst, heute ist sie industriealisiert und damit ist Kreativität nicht mehr gefragt.
Falk B. schrieb: > @ Bernd Funk (metallfunk) > >>Jetzt will dieses Programm den neuesten Prozessor und Speicherplatz >>ohne Ende. Wozu?? > > Weil es von den untalentiertesten und unmotiviertesten Softwerkern > zusammengeschustert wurde! Spätrömische Dekadenz! Falk, das glaube ich so nicht. Da sitzen ganz clevere Leute, die Tantiemen der PC-Hersteller kriegen. Das hat System. Grüße Bernd
@ Uhu Uhuhu (uhu) >> Weil es von den untalentiertesten und unmotiviertesten Softwerkern >> zusammengeschustert wurde! Spätrömische Dekadenz! >Das glaub ich auch nicht. Ursache sind in aller Regel die Vorgaben, die >irgend welche BWL-Fuzzies machen. Das auch. > Früher war die Softwareentwicklung >eher eine Kunst, Naja, man kann es auch übertreiben. > heute ist sie industriealisiert und damit ist >Kreativität nicht mehr gefragt. Es geht weniger um Kreativität als um ein SOLIDES Handwerk! Und da schleift es GEWALTIG!
:
Bearbeitet durch User
@ Bernd Funk (metallfunk) >> Weil es von den untalentiertesten und unmotiviertesten Softwerkern >> zusammengeschustert wurde! Spätrömische Dekadenz! >Falk, das glaube ich so nicht. >Da sitzen ganz clevere Leute, die Tantiemen der PC-Hersteller kriegen. >Das hat System. Der Wahnsinn hat Methode. Das ist nur allzuoft wahr . . .
Falk B. schrieb: > @ Bernd Funk (metallfunk) > >>> Weil es von den untalentiertesten und unmotiviertesten Softwerkern >>> zusammengeschustert wurde! Spätrömische Dekadenz! > >>Falk, das glaube ich so nicht. > >>Da sitzen ganz clevere Leute, die Tantiemen der PC-Hersteller kriegen. >>Das hat System. > > Der Wahnsinn hat Methode. Das ist nur allzuoft wahr . . . manchmal sogar eine ISO norm.
Dieses Buchführungsprogramm (Lexware), hat da schon einige Dinge auf die Spitze getrieben. Genial: Jährlich eine neue graphische Benutzeroberfläche. Natürlich möglichst anders zu dem, was vorher war. Das freut die einzige Ehefrau ,wenn sie im Januar bucht ): Die Autoindustrie wechselt die Pedalbelegung ( Bremse - Gas), doch auch nicht jährlich. Und ernsthaft: Wenn da Einer vorbeikommen würde, und sich als Beteiligter dieses Sondermülls zu erkennen gäbe, dem würde ich sowas mit dem Vorschlaghammer auf die Zehen hauen..... Grüße Bernd
:
Bearbeitet durch User
Patrick J. schrieb: > Und Das ist doch schon gelogen ... Samstag ist's Nicht doch. Bei ihm war noch Freitag.
Uhu U. schrieb: > Das glaub ich auch nicht. Ursache sind in aller Regel die Vorgaben, die > irgend welche BWL-Fuzzies machen. Korrekt. Vorgaben jener BWLer, die den Entwickler bezahlen. Und die wissen, das anderfalls kein Geld reinkommt. Denn was dabei rauskommt, wenn sich Entwickler selber um das Geld kümmern müssen, das sieht man bei den Apps für iEgal/Android. Einige wenige haben Glück, aber die meisten Entwickler kommen bestenfalls auf einen Stundenlohn im Cent-Bereich.
:
Bearbeitet durch User
Gerald B. schrieb: > Inzwischen kann die Axt noch telefonieren, Naja, irgendwann konnte man mit Handys Holz hacken, glaube Nokia hat das perfektioniert ;)
Protel99? DAS Protel, welches mit heisser Nadel auf 32bit umgestrickt wurde? Das Protel, das unseren damaligen Elektronik-Entwickler die Schweissperlen auf die Stirn trieb: Kommt die Bombe, oder schaffe ich es noch abzuspeichern? Aber ja, die Ressourcenverschwendung ist schon ärgerlich. Muss eine IDE wie Eclipse unbedingt als Java-Anwendung laufen? Schön für die Plattformunabhängigkeit...
Timm T. schrieb: > Muss eine IDE wie Eclipse unbedingt als Java-Anwendung laufen? Was man übertreiben kann, wird mit Java übertrieben. Und wenn man damit eine eierlegende Wollmilchsau baut, dann wird eben selbst die Übertreibung noch übertrieben. Wäre ja auch schrecklich, wenn das nicht möglich wäre...
Timm T. schrieb: > Protel99? DAS Protel, welches mit heisser Nadel auf 32bit umgestrickt > wurde? Das Protel, das unseren damaligen Elektronik-Entwickler die > Schweissperlen auf die Stirn trieb: Kommt die Bombe, oder schaffe ich es > noch abzuspeichern? > > Aber ja, die Ressourcenverschwendung ist schon ärgerlich. Muss eine IDE > wie Eclipse unbedingt als Java-Anwendung laufen? Schön für die > Plattformunabhängigkeit... Bin gerade vom Ausflug in die Natur zurück... Ich bezog mich auf PR99SE mit den letzten Service Packs und das läuft bei mir super stabil. Abstürze sind extrem selten und wenn man automatische Backups eingestellt hat verliert man im schlimmsten Fall nicht mehr wie 5-15min Arbeit. Also um abspeichern meiner Arbeit mache ich mir fast nie Sorgen. Im Vergleich dazu ist Altium auch nicht stabiler. Hatte auch da schon unangenehme Abstürze. Perfektion gibt es nicht. W10 ist leider heutzutage ein größeres Problem. Auf meinem Arbeits PC gibt es beim Laden der Dateien das leidige "Format '%x' Problem. Bei meinem Heim PC funktioniert es einwandfrei. Selbe Version von W10 und Builds - Go figure... Wie können sich zwei identische Betriebssystem so unterschiedlich verhalten? Naja, es geht ja nicht um PR99SE hier. Irgendwie finde ich es halt schade, daß im heutigen Zeitalter alles auf die Spitze getrieben werden muß und funktionales Design nur mehr eine Nebensache ist. Es wäre erfrischend wenn die Industrie einmal die Nacktheit des Kaisers zugeben würde und ehrlich an Reform der allgemeinen Softwareentwicklung und deren Entwicklungsphilosophien denken würde. Als User erwarte ich Software die wirklich noch "interaktiv" im wahren Sinne des Worts ist und mich nicht aufhält. Ich denke der Kollektive Produktivitätsverlust seitens der Anwender geht wahrscheinlich deswegen in den Bereich der Milliarden. Es sollte auch den Käufern der Software in den diversen Entwicklungslabors zu denken geben inwieweit langsame und unresponsive Software Tools Produktivität in den Boden drücken. Um wieder Auf Altium vs. PR99SE zurückzukommen, am Ende bekomme ich von beiden Programmen die eigentlich wichtigen Gerber Datei Sets. Den PCBs sieht man den Unterschied kaum an. Ich wünschte auch, daß PR99 ein paar nette Sachen von Altium hätte. Z.B die Supplierlink und Parameter Editor, Polygontabellen Eingabe möchte ich nicht mehr missen. Trotzdem arbeitet es sich mit PR99 in 99% aller Projekte wesentlich schneller. Sollte ich hypothetisch wählen müssen, würde ich ohne zu zögern PR99SE nehmen weil es sich trotz weniger (modernen) Fähigkeiten besser damit arbeiten läßt. Schönes Wochenende noch, Gerhard
Oh, Protel... da gibts noch entfernt schlechte Erinnerung an ein Programm das sehr oft unmotiviert abschmierte. Aber um zum Thema was beizutragen: Ich hab nach Protel bei einem Arbeitgeber BAE und Mentor DC/Expedition gehabt. Und gerade Mentor war ja auch so eine Blähsoftware. Die haben kurz davor Veribest geschluckt und die Kombi war Schaltplan/Layout mit dem Veribestrouter. Der war allerdings ein echter Knaller, denn während der BAE-Router für eine mittelvolle Literplatte mehrere Stunden gebraucht hat war der Veribest im Flug fertig. Und da hab ich das Ding schlicht als Platzierungshilfe genommen. Wenn der Router nach 15min schon 95% hatte war die Platzierung ok und ich kam gut durch. Mit dem alten Kram undenkbar. Dafür hatten die Projekte dann mehrere hundert Megabyte. Aber irgendeinen Tod muß man sterben.
Gerhard O. schrieb: > Um wieder Auf Altium vs. PR99SE zurückzukommen, am Ende bekomme ich von > beiden Programmen die eigentlich wichtigen Gerber Datei Sets. Den PCBs > sieht man den Unterschied kaum an. Bei Eagle und Target kommt auch Gerber raus ;-P Die Diskussion Altium vs. Protel99 gibts ja schon seit es Altium heisst. Ich würde die 3D Ansicht jedenfalls schmerzlichst vermissen. Die 2D Grafik nutzt übrigens auch die 3D Funktionen. Da kann man auch in den Einstellungen an vielem rumschrauben und Sachen deaktivieren oder reduzieren (die es in PR99SE noch nicht gab) - vielleicht hilfts. Für mein Empfinden ist es jedenfalls flüssig genug (nutzt aber auch keine taufrische Lizenz). Zu Software allgemein: Wenn Ressourcen vorhanden sind, werden sie von normalen Programmierern auch genutzt - wozu optimieren wenns auch so gut genug läuft? Den Hardwareherstellern ist das ganz recht so, sonst würden sich die Leute nur noch alle 10 Jahre nen neuen PC kaufen... ah Moment mal, die Kiste hier unterm Tisch ist schon fast so alt - nun ;-)
Viele PCs leiden eher unter einer alten Tradition Festplatten als Datenspeicher zu benutzen. Die ersten Generationen von SSDs waren zwar schon mal ein erheblicher Fortschritt, aber richtig Freude kommt erst jetzt mit den neuen M.2 SSDs auf. Wer schon mal mit einem i7-7700K mit Samsung 960 EVO gearbeitet hat, hält bei dem Thema schnell den Mund. Bootzeiten von 7 Sekunden für Windows 10 und keine nennenswerte Verzögerungen beim Starten von Programmen. mfg Michael
Michael O. schrieb: > und keine nennenswerte > Verzögerungen beim Starten von Programmen. Naja, ausser Gimp. ;-) Eh da alle Plugins geladen sind.
Es fing wohl an, als Microsoft aus dem halbwegs brauchbaren Win98SE ein hypercooles Multimedia-Center namens Windows 98 ME machte. Win98SE und WEin2000 waren brauchbar. Inet Explorer und Multimedia-Fähigkeiten waren halbwegs extern, vieles machte man durch externe Programme. Das System war noch halbwegs ein Betriebssystem. Seit Win98ME jedoch machte MS das Betriebssystem immer mehr zur eierlegenden Wollmilch-Sau. Media-Center, INet-Integration, neuer Desktop mit Aero-Effekten, später dieser ganze Sicherheitskram mit UAC, und immer bunter und immer mehr im System bereits enthalten. Und dann ab Win8 diese unsäglichen Touch-Oberflächen, ontop zum bisherigen Desktop. Und tonnenweise Apps für alles Mögliche. Man braucht nur noch ne Officesuite, fast alles andere für den normalen Alltag kann Windows schon. Und der ganze Murks muss beim boot schon zumindest vorbereitet werden. Deswegen frisst so ein BS mal locker 20GB auf der Platte und selbst im Standby einen 300MHz-Prozessor nur für Hintergrund-Kram. Was ein Glück hatte MS als die SSDs aufkamen... Endlich kann man noch mehr Schrott in den Boot packen ohne dass der User es wirklich merkt. P.s.: selbst mal manuell den Autostart im Taskmanager aufräumen kann helfen. Ich hatte vor Jahren mal Dos6.2, Win31 und Excel5 (Excel auch noch in den Autostart gepackt) auf einem halbwegs modernen PC auf eine Compact-Flash-Karte installiert. Vom Boot-Pieps des Comps bis zum offenen, arbeitsbereiten Excel-Tabellenblatt vergingen ganze 8 (ACHT) Sekunden. Und da bin ich sogar heilfroh, dass das Teil tatsächlich SICHER ist, so ganz ohne Netzwerkkarte/WLAN...
A. K. schrieb: > Korrekt. Vorgaben jener BWLer, die den Entwickler bezahlen. > Und die wissen, das anderfalls kein Geld reinkommt. die Maxime unserer Zeit: Wachstum!
Mike B. schrieb: > Es fing wohl an, als Microsoft aus dem halbwegs brauchbaren Win98SE ein Na ja, "halbwegs brauchbar" ist maßlos übertrieben. Das Ding war inhärent instabil. > hypercooles Multimedia-Center namens Windows 98 ME machte. Das Ding heißt Windows ME - ME wie Millenium Edition. Die Windows 9x-Linie war ein MSDOS mit draufgeschnalltem "DOS-Extender" - deswegen wurde sie eingestampft. > dieser ganze Sicherheitskram mit UAC Das ist eben der Nachteil einer Betriebssystem-Monokultur: die Ganoven müssen sich nur auf ein System konzentrieren, um alle Computer-Daus als potentielle "Klienten" zu haben.
Gerhard O. schrieb: > Deshalb frage ich mich warum moderne Software vielfach so "müde" sein > muß. Du hast recht, aber früher war sie genau so müde. Auf der alten Hardware. Mein erster Kontakt mit der Apple Lisa endete auch mit der Frage, warum die Kiste eigentlich nichts tut wenn man klickt - sie war noch minutenlang mit dem vorherigen Klick beschäftigt. Und auch dein Protel war mal langsam - auf den damaligen Kisten. Der Grund liegt einerseits darin, daß die Entwickler stets die leistungsfähigsten modernsten Rechner haben auf denen sonst nichts anderes installiert ist, und andererseits mit dem Optimieren des Programms aufhören so bald es ihnen irgendwie erträglich erscheint. Der Geldgeber gibt dann auch kein Geld mehr, läuft doch. Es ist also ein systemimmanentes Problem, seit dem es die Computerei gibt. Und man muss feststellen, daß die Branche seit dem nichts dazugelernt haben. Dazu machen sich die Leute die Arbeit gerne einfach. An statt eine solide Unterlage zu schaffen, wird an der Fassade gezimmert, damit schnell ein Prototyp sichtbar wird, in dem es innendrin aber holpert, und das Provisorium hält dann natürlich bis zum Schluss. > Können wir keine gute Software mehr konzipieren? Scrum fördert Blendwerk. OO fördert overhead. Frameworks für rapid prototyping bremsen die Laufzeit, und die Dümmsten der Dummen Entwickler sagen noch: Wieso, ist doch super! Vor 30 Jahren gab es mal benutzerfreundliche Ansätze wie WYSIWYG, das ist heute komplett untergegangen weil es ja Arbeit macht, siehe bereits das Eingabefeld in diesem Forum, aber auch html Webseitengestaltung oder doxygen Druckstückerzeugung. Die Software ist klar auf dem Rückschritt. Als die PC erschienen, mit Apple ][ und IBM PC jubelten die Leute, weil endlich ein unter persönlicher Kontrolle stehendes Gerät existierte das so einfach war daß man es im Gegensatz zum IBM Mainframe mit seiner restriktiven Bloatware auch verstehen konnte. Heute ist jedes Windows und Linux System dutzendmal komplexer als es das IBM Mainframe je war, und verdongelter als die IBM je waren. SAP trat mal an, eine billigere und intuitivere Fibusoftware für IBM Mainframes zu bauen als IBM selbst. Heute steht SAP für komplexen unbedienbaren Müll mit gigantischen Supportaufwand. Rückschritt auf ganzer Linie. Technisch wäre es heute kein Problem, einen PC so zu bauen, daß er beim einschalten sein altes Image (wenn man will, und nicht mit sauberem Desktop oder letzter Version starten will) von der Platte lädt (in den VM Adressbereich einblendet) und unmittelbar startet, daß er beim Spannungsverlust durch ein hierarchisch transaktionales Dateisystem eine stets konsistente Festplatte hinterlässt statt 'auswerfen' von Datenträgern zu fordern, daß jede Software nur das verändern darf was ihr Installer installiert hat also nichts am System verändert vor ihrer Installation ausser daß sie Benutzerdateien erzeugt, daß gemeinsam benutze DLL in unterschiedlicher Version möglich wären und sich nur die DLL auf dem Rechner befinden die auch wirklich benutzt werden die einer Version dann aber auch nur 1 mal. Die Bankrotterklärung eines aktuellen Betriebssystems siehst du schon daran, daß das Kopieren eines grossen Dateibaums LÄNGER dauert wenn man 2 gleichzeitig kopiert als wenn man 2 nacheinander kopiert. Das Betriebssystem ist nicht in der Lage, die Jobs effektiv zu verschachteln sondern lässt sich sogar durcheinanderbringen. Jeder Betriebssystemarchitekt schon vor 50 Jahren hätte es den Leuten kreuzweise um die Ohren geschlagen. An der Uni wird noch gelehrt, daß ein Programm (z.B. Sortieralgorithmus) dann gut ist, wenn es die gestellte Aufgabe (inkl Fehlerbehandlung) mit der minimal möglichen Anzahl von Befehlen ausführt, man kann keine Instruktion weglassen ohne daß es seinen Job nicht mehr erfüllt, aber hinterher findest du tausende an Softwareentwickler denen jede Ausrede recht ist warum das für IHRE Programme natürlich nicht gilt. Das sind die Leute von denen die Schrottsoftware kommt.
Michael B. schrieb: > SAP trat mal an, eine billigere > und intuitivere Fibusoftware für IBM Mainframes zu bauen als IBM selbst. > Heute steht SAP für komplexen unbedienbaren Müll mit gigantischen > Supportaufwand. SAP steht für Software aus Pakistan ;-)
@ Michael O. (michael_o) >Viele PCs leiden eher unter einer alten Tradition Festplatten als >Datenspeicher zu benutzen. Wie meinen der Herr? Sollten sie die vielleicht nur als Briefbeschwerer nutzen? > Die ersten Generationen von SSDs waren zwar >schon mal ein erheblicher Fortschritt, aber richtig Freude kommt erst >jetzt mit den neuen M.2 SSDs auf. >Wer schon mal mit einem i7-7700K mit Samsung 960 EVO gearbeitet hat, >hält bei dem Thema schnell den Mund. >Bootzeiten von 7 Sekunden für Windows 10 und keine nennenswerte >Verzögerungen beim Starten von Programmen. So schön und schnell diese SSDs auch sind, sie kaschieren nur allzuoft massive Designschwächen der Software! Siehe Atmelstudio! Schnellere Hardware wird in vielen Fällen schlicht verheizt.
Mike B. schrieb: > später > dieser ganze Sicherheitskram mit UAC Stimmt, so eine Rechteverwaltung ist ja kompletter Kram und irrsinnig Resourcenintensiv, deswegen haben sämtliche Linuxdistributionen, bei denen Sicherheit integraler Bestandteil und nicht nur "Kram" ist, auch solche Performanceprobleme... Michael B. schrieb: > Die Bankrotterklärung eines aktuellen Betriebssystems siehst du schon > daran, daß das Kopieren eines grossen Dateibaums LÄNGER dauert wenn man > 2 gleichzeitig kopiert als wenn man 2 nacheinander kopiert. Das > Betriebssystem ist nicht in der Lage, die Jobs effektiv zu verschachteln > sondern lässt sich sogar durcheinanderbringen. Ist doch völliger Unsinn, wenn zwei gleichzeitig auf die gleicht Ressource zugreifen wollen, dauert das immer länger als wenn es hintereinander geschieht, weil ganz einfach durch die ständigen Wechsel mehr Overhead bleibt. Das war schon immer so, und wird auch immer so sein.
vn n. schrieb: > Ist doch völliger Unsinn, wenn zwei gleichzeitig auf die gleicht > Ressource zugreifen wollen, dauert das immer länger als wenn es > hintereinander geschieht Du hast in der Betriebssystemvorlsung nicht aufgepasst ? Oh, vernmutlich hast du nie eine Uni besucht, so "meinungsstark" wie du hier deine Unkenntnis vertrittst.
Michael B. schrieb: > Du hast in der Betriebssystemvorlsung nicht aufgepasst ? Na dann klär doch mal auf. Wenn du zwei unabhängige Kopiervorgänge auf dem gleichen Datenträger gleichzeitig durchführen willst, müssen nun mal beide alternierend bedient werden, was Overhead schafft. Michael B. schrieb: > Oh, vernmutlich hast du nie eine Uni besucht, so "meinungsstark" wie du > hier deine Unkenntnis vertrittst. Oho, nicht nur ein Experte für eh alles, auch ein Hellseher. Blöderweise in beidem ähnlich qualifiziert, Name ist halt Programm.
vn n. schrieb: > Na dann klär doch mal auf. Wenn du zwei unabhängige Kopiervorgänge auf > dem gleichen Datenträger gleichzeitig durchführen willst, müssen nun mal > beide alternierend bedient werden, was Overhead schafft. Oder man nutzt umgekehrt einen ohnehin bestehenden Overhead produktiv aus. Flash wie DRAM besteht, auch bei genauer Betrachtung nur eines einzigen Moduls, dennoch oft aus etlichen voneinander unabhängig operierenden Datenträgern, und zeichnet sich durch mehrstufige Verarbeitung aus. Weshalb die mindestens jenseits streng sequentieller Operationen erst dann zur Hochform auflaufen, wenn man mehrere Operationen gleichzeitig durchführt.
:
Bearbeitet durch User
vn n. schrieb: > Na dann klär doch mal auf. Wenn du zwei unabhängige Kopiervorgänge auf > dem gleichen Datenträger gleichzeitig durchführen willst, müssen nun mal > beide alternierend bedient werden, was Overhead schafft. alternierend ja, weil das alleine schon der io-scheduler so haben will… und der nutzer auch, sonst hätte er keine parallelen kopiervorgänge gestartet. ungeordnete zugriffe auf datenträger werden mit NCQ, und neuerdings NVMe abgefangen.
vn n. schrieb: >> Du hast in der Betriebssystemvorlsung nicht aufgepasst ? > > Na dann klär doch mal auf. Ich werde hier nicht die Betriebssystemvorlesung für dich wiederholen. Aus zwei (oder mehreren) gleichzeitig stattfindenen Kopiervorgängen kann man einen optimalen Kopiervorgang machen (denn letztlich geht es um das Kopieren von vielen Sektoren), der zeitlich besser ist (latency-Zeit der Laufwerke) UND auch noch Schmankerl wie transaktionales Verhalten und Fragmentierung berücksichtigt. Selbst wenn es (wie bei SSD) nicht viel bringt, kann man sie nacheinander Ausführen und wäre wenigstens nicht LANGSAMER. Dafür haben moderne Betriebssysteme wie Win10 die Zeit, ein animiertes Fortschrittsdiagramm mit falscher Datenüberbertragungsratenkurve anzuzeigen. DAFÜR hatten die Microsoftler Entwicklungskapazitäten frei, um jedoch die Grundlagen der Informationstechnik zu erfüllen, dafür reicht es nicht.
:
Bearbeitet durch User
Michael B. schrieb: > Selbst wenn es (wie bei SSD) nicht viel > bringt, kann man sie nacheinander Ausführen und wäre wenigstens nicht > LANGSAMER. 4K random requests ohne Queue, und mit 32er Queue: https://wiki.mikejung.biz/CrystalDiskMark#CrystalDiskMark_4K_Tests Sind nicht direkt Kopiervorgänge, dafür aber recht markant.
:
Bearbeitet durch User
Michael B. schrieb: > Dazu machen sich die Leute die Arbeit gerne einfach. An statt eine > solide Unterlage zu schaffen, wird an der Fassade gezimmert... Das ist aber auch eine Frage von Aufwand und Zeit. Ich hab mit Node-Red auf dem Raspi für meine Hauskontrolle gespielt. 1. Tag: Gpios abfragen und setzen, Soundausgabe bei bestimmten Ereignissen, Ereignisse in Logfile schreiben, Email-Benachrichtigung bei bestimmten Ereignissen, Email-Statusreport einmal tgälich. 2. Tag: Heizungsdaten einbinden (nur Daten monitoren, keine Steuerung), sprich Uart abfragen, Daten auseinandernehmen, in Logfile schreiben. Telegram Bot bauen, Status per Telegram versenden, Warnmeldungen per Telegram versenden. 3. Tag: Dash-UI einbinden. Daten und Diagramme als Webseite im Intranet ausgeben. Völlig ohne Vorkenntnisse mit Node-Red, nur mit Internet-Tutorials zusammengeschraubt. Extrem intuitiv und einfach aufzubauen. Aber: Node-Red hat einen Speicherbedarf von 200Mbyte auf dem Raspi und zieht permanten 8-10% Prozessorlast. Die Dash-UI braucht Javascript auf dem Zielrechner und zieht enorme Ressourcen, läuft im Browser auf dem PC flüssig, auf dem Tablet sehr zäh und im Browser auf dem Raspi bringt das Script diesen nach einiger Zeit zum Absturz. Man erkauft sich die einfache Erstellung mit enormen Ressourcenbedarf. Also hab ich das ganze in Lazarus / FPC nochmal gemacht. Da schreibe ich, zugegeben nur abends, inzwischen 3 Wochen dran, weil ich eben von Uart abfragen über Logfiles schreiben bis Diagramme malen alles selbst machen muss. Dafür brauchen die Programme nur wenige Mbyte und die Prozessorlast liegt unter 1%. Da Zeit zu Lasten des Entwicklers geht und Ressourcen zu Lasten des Anwenders, ist klar wie sich ein Entwickler entscheidet, hinter dem der BWLer mit der Peitsche steht.
Michael B. schrieb: > man kann keine > Instruktion weglassen ohne daß es seinen Job nicht mehr erfüllt, aber > hinterher findest du tausende an Softwareentwickler denen jede Ausrede > recht ist warum das für IHRE Programme natürlich nicht gilt. Das sind > die Leute von denen die Schrottsoftware kommt. Im Gegenteil scheint mir eine Menge Schrottsoftware daher zu kommen, dass Entwickler glauben wichtige Prüfungen wegrationalisieren zu können, und dann kann mit einem manipuliertem Link oder einer manipulierten Bilddatei Speicher überschrieben und Schadcode ausgeführt werden.
Tja, Maßanzug vom Herrenausstatter, perfekt abgestimmt auf den eigenen Ranzen oder halt C&A Anzug von der Stange, one-size-fits-all.
Timm T. schrieb: > Node-Red hat einen Speicherbedarf von 200Mbyte auf dem Raspi Also zur Detailierung: Nicht der Speicherbedarf auf der SD-Karte, sondern der von Node-Red belegte RAM.
Hab erst jetzt gemerkt, daß sich hier wieder etwas tut. Bei mir auch;-) Vielleicht ist es jetzt Heulerei auf hohen Niveau - ich weiß es nicht... Ich schlug mich jetzt schon einige Zeit herum Coocox wieder zu gebrauchen nach einer Pause von einigen Jahren. Damals verwendete ich noch XP und alles lief gut auf dem PC. Vor zwei Jahren stieg ich auf W8.1 um was mir lieber ist wie W10. Damals nach der Umstellung testete ich Cooxox und es lief fein, so ich dachte. Ich war nämlich zu faul den GDB Debugger zu testen. Jetzt mit HW angeschlossen, stellt sich heraus, daß der GDB Server partout nicht zum Laufen unter W8.1 zu bringen ist. Leider kenne ich mich gut genug damit aus, das vernünftig untersuchen zu können. Dann testete ich den GDB Server auf zwei anderen W8.1 PCs und es funktioniert dort auch nicht. Was nun? Auf W10 umstellen? W10 verursacht mir Probleme mit Protel. Bleibt eigentlich nur noch das alte W7X64. Habe heute früh angefangen ein neues W7 System zu bauen. Alle für mich wichtige SW läuft einwandfrei. Mit J-Link hatte ich die selben Probleme mit W8.1. Stlink Utility läuft einwandfrei um den uC zu flashen. Mit IAR gehts auch nicht. GDB versagt mit allen Werkzeugen. Habe auch Crossworks und ImagecraftICC versucht. Mit W8.1 ist da auf keinen Maschinen was zu machen (zumindest bei mir). Wenn ich auf derselben Maschine unter VM W7 versuche, funktioniert wieder alles. Der PC kann es also auch nicht sein. Da ich äusserst störrisch sein kann, bestehe ich darauf meine zum Teil etwas betagte Software noch benützen zu wollen. Auf W8.1, W10 gibt es halt immer Problem. Etwas läuft auf dem einen nicht und etwas läuft auf dem anderen nicht. Mit W7 läuft alles ohne Ausnahme. So, es wird wahrscheinlich so kommen, daß ich meinen Haupt PC nur noch für Entwicklung verwenden werde und unwichtige Sachen nur noch mit W10 betreiben werde. Ich bin es leid andauernd PC Probleme zu haben, die mit jedem Update Altes brechen können und würde ja gerne ein aktuelles BS verwenden wollen wenn man mir auch die nötige Kompatibilität und Stabilität gewährleisten würde. Ich stehe auf dem altmodischen Standpunkt, daß jede Software die auf W7X64 noch einwandfrei funktioniert, auch auf allen folgenden BS noch gleich gut laufen sollte. Aber man hört ja nicht auf mich. Andauernd neue Firlefanzen zu erfinden ist anscheinend wichtiger. Man verschwendet so viel eigene Lebenszeit mit Fehlersuche nicht verschuldeter PC Probleme. Ich habe auch keine große Lust monatelang die Idiosynkratien eines modernen, komplizierten BS verstehen zu wollen. Ich möchte nur, daß Software einwandfrei auf dem jeweilig aktuellen BS funktioniert und mir hilft meine Aufgaben zu lösen. Wir Entwickler brauchen stabile Werkzeuge und keine "Mode Toys" wie W8-W10 und Co. Ich sehe das BS als notwendige Resource um meine wichtigen Programme laufen lassen zu können und nicht als selbsterfüllendes Selbstzweck Objekt für Spielerei. Sorry für die "Heulerei". Mir reicht es aber wirklich und die Situation ist recht frustrierend. Wenn das der Fortschritt ist von dem man uns erzählt dann will ich nicht viel davon wissen und werde vielleicht besser Holzfäller;-) A grumpy old man
:
Bearbeitet durch User
Da bist Du nicht der Einzige, ich werd auch noch ein paar Jahre auf Win7 rumhängen. Läuft, gibt keinen Grund zu wechseln. Aber mal ehrlich, wer sich über heutige Bootzeiten eines Rechners beschwert, der hat noch nie einen Amiga 500 mit Workbench 1.3 von Diskette gebootet.
Timm T. schrieb: > Da bist Du nicht der Einzige, ich werd auch noch ein paar Jahre > auf Win7 > rumhängen. Läuft, gibt keinen Grund zu wechseln. > > Aber mal ehrlich, wer sich über heutige Bootzeiten eines Rechners > beschwert, der hat noch nie einen Amiga 500 mit Workbench 1.3 von > Diskette gebootet. oder einen C64 mit Geos...
Timm T. schrieb: > Da bist Du nicht der Einzige, ich werd auch noch ein paar Jahre auf Win7 > rumhängen. Läuft, gibt keinen Grund zu wechseln. Genau! Ich hab' sogar noch einen lokalen Medien-PC mit XP SP2 am Laufen, aber der kann manchen aktuellen Kram nicht mehr abspielen und wird deshalb wohl hochgrüstet werden müssen (dann kann er auch wieder guten Gewissens ins Internet...). Aber die Win7-Rechner, die hier laufen, machen derzeit alles, was sie sollen, also, welchen Nutzen soll ein BS-Upgrade haben?
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.