Hallo, ich habe hier einen aktuellen PC mit einer Windows 10-Installation und Linux im Dualboot. Linux kann ich beliebig per UEFI oder BIOS booten. Bei Windows ist aktuell booten per BIOS festgelegt, aber es ist eine (unumkehrbare) Umkonfigurierung auf UEFI möglich. Meine Frage ist nun ob sich das lohnt. Zu den Vorteilen die angegeben werden gehören, eine kürzere Bootzeit und die Unterstützung von Partitionen größer als 2TB. Wie groß ist der Unterschied bei der Bootzeit bei Windows? Bei Linux konnte ich keinen spürbaren Unterschied feststellen. Und was hat es mit den 2TB auf sich? Ganz allgemein kann die Aussage nicht sein, weil externe Festplatten mit mehreren TB kann ich ohne Vorkehrungen einfach nutzen.
T. schrieb: > Und was hat es mit den 2TB auf sich? Ist eine Beschränkung der "klassischen" Partitionstabelle im MBR: https://de.wikipedia.org/wiki/Partitionstabelle#Interoperabilit%C3%A4t Größere Platten brauchen eine Partitionierung nach GPT: https://de.wikipedia.org/wiki/GUID_Partition_Table Deine externen Festplatten werden schon so eingerichtet sein. Das BIOS braucht damit nicht umgehen müssen, wenn du nicht gerade davon booten möchtest, das dann geladene Betriebssystem kann dann damit umgehen.
Am Besten einfach so lassen wie es ist. Never touch a running system.
Ingo W. schrieb: > Größere Platten brauchen eine Partitionierung nach GPT: Und auch für kleinere ist die GPT Formatierung für Secure Boot dringend anzuraten wenn man Win11 nutzen möchte.
Der größte Vorteil von UEFI liegt m.M. darin, dass sich die bootloader nicht mehr gegenseitig überschreiben können, da diese als Dateien in einer FAT Partition (EFI System) abgelegt werden anstatt an ein "magisches" Offset auf die Platte/Partition geprügelt werden. Im NVRAM des Bios gibt es dann die Boot-Liste, die auch diese Loader enthält und welcher als "default" gestartet werden soll. (Bei mir grub) Diese Liste kann problemlos über Tools aus Linux, Windows konfiguriert werden, z.B. auch welcher Eintrag beim nächsten Boot aktiv werden soll. Je nach Bios ist auch direkte Bearbeitung der Bootloader Einträge im Bios möglich. Theoretisch ist es möglich den Linux-Kernel als UEFI Bootloader zu verpacken so dass das Bios direkt den Kernel lädt. Ist mir aber zu umständlich, die EFI System Partition muss dann auch groß genug sein. Ich benutze weiterhin grub (halt in der EFI variante) grub kann dann auch andere EFI loader starten und muss nicht wissen um was für ein BS es sich handelt, damit er es korrekt booten kann.
Mein PC startet auch im Legacy-BIOS-Modus. Ich schalte ihn nie aus, sondern drücke immer nur die Schlummertaste.
T. schrieb: > Wie groß ist der Unterschied bei der Bootzeit bei Windows? Ich kann mir nicht vorstellen, dass der Wechsel vom Legacy BIOS auf UEFI da irgendeinen nennenswerten Effekt hat. Ich finde ganz praktisch, dass ich das Auswahlmenu des UEFI nutzen kann, um das zu startende Betriebssystem zu wählen. Wenn du ein Legacy BIOS verwendest und Windows dir beim Installieren den Grub Bootloader rücksichtslos ersetzt, brauchst du einen USB Stick mit Linux oder eine Rescue CD um an dein installiertes Linux heran zu kommen. Du kennst die Prozedur sicher schon.
Wenn Windows das Zertifikat/Signierung fuer den UEFI-Bootloader loescht, geht es auch nicht mehr. https://www.heise.de/hintergrund/Linux-und-UEFI-Secure-Boot-1623602.html https://www.heise.de/news/Linux-Installation-auf-manchen-Windows-11-Notebooks-etwas-erschwert-7178734.html https://documentation.suse.com/de-de/sles/15-SP5/html/SLES-all/cha-uefi.html
Dieter D. schrieb: > Wenn Windows das Zertifikat/Signierung fuer den UEFI-Bootloader loescht, > geht es auch nicht mehr. Das ist aber ein längst gelöstes Problem.
Andreas M. schrieb: > Der größte Vorteil von UEFI liegt m.M. darin, dass sich die bootloader > nicht mehr gegenseitig überschreiben können, da diese als Dateien in > einer FAT Partition (EFI System) abgelegt werden anstatt an ein > "magisches" Offset auf die Platte/Partition geprügelt werden. "magisches Offset"? Ist immer 0. Der erste Sektor wird geladen und ausgeführt, und der Code kümmert sich dann um den Rest. Das ist ein sehr einfaches und bewährtes Prinzip, und es wurde durch etwas sehr viel komplexeres ersetzt. Und dann muss für UEFI auch noch das seit Jahrzehnten eigentlich veraltete FAT unterstützt werden. Steve van de Grens schrieb: > Ich finde ganz praktisch, dass ich das Auswahlmenu des UEFI nutzen kann, > um das zu startende Betriebssystem zu wählen. Wenn eins davon Linux ist, hat man in der Regel grub, der das sowieso schon mitbringt. > Wenn du ein Legacy BIOS verwendest und Windows dir beim Installieren den > Grub Bootloader rücksichtslos ersetzt, brauchst du einen USB Stick mit > Linux oder eine Rescue CD um an dein installiertes Linux heran zu > kommen. Du kennst die Prozedur sicher schon. Das kommt darauf an, wo man Grub installiert. Der MBR wird von Windows einfach überschrieben. Man kann Grub aber auch in den Bootsektor der Linux-Partition installieren. Dann reicht es, nach der Windows-Installation die Linux-Partition wieder als aktive Boot-Partition auszuwählen.
Ich dachte, heutzutage ist sowas nicht mehr nötig, den PC für ein anderes OS umständlich runter zu fahren und neu zu booten. Man kann doch einfach das andere OS in einer VM laufen lassen. Mein PC läuft gerade seit 13 Tagen.
Zumindest wenn du die volle Power haben willst, dann ist ohne VM sicherlich geschmeidiger.
Ich hab bisher noch nie den Bedarf von 2 BS auf nem Rechner gehabt. egal ob dual-boot oder in einer VM. Wofür ausser zum Daddeln braucht man das? Wenn ein Linux läuft, kann man mit dem doch alles machen, da tu ich mir das Windows Geochse (mit Konto-Schnickschnack) doch nicht an
●DesIntegrator ●. schrieb: > Wofür ausser zum Daddeln braucht man das? Es ehrt dich, vollständig ohne Windows auszukommen, aber das lässt sich nicht verallgemeinern. Zudem ergibt es viel Sinn, mehrere Linuxe in VMs zu haben. - Verschiedene Entwicklungsumgebungen voneinander trennen. Alte solche Umgebungen können dann aufbewahrt werden, um Probleme in Altsystemen ohne Versionssprung pflegen zu können. Die überleben dann auch den Wechsel des Trägersystems. - Service-VMs für bestimmte Dienste und Geräte. - Sicherheitsrelevante Anwendungen verkapseln. Sei es, weil man sie vor dem Trägersystem schützen will, sei es, weil man Anwendungen nicht 100% vertraut. - Testumgebungen verkapseln und mit Commit/Rollback ausstatten. Anderes oder neues Linux, BSD, ... ausprobieren. ...
:
Bearbeitet durch User
Rolf M. schrieb: > "magisches Offset"? Ist immer 0. Der erste Sektor wird geladen und > ausgeführt, und der Code kümmert sich dann um den Rest. Das ist ein sehr > einfaches und bewährtes Prinzip, und es wurde durch etwas sehr viel > komplexeres ersetzt. Die Zeiten in denen 440 Byte Maschinencode ausreichen um alle möglichen Bootvarianten zu unterstützen sind lange vorbei. Man sieht ja das Ergebnis von den ganzen Krücken die darauf basierend entstanden sind. Der Bootstrap Code aus dem MBR, der gehofft hat an der richtigen Stelle der Platte die nächste Stage zu finden. Diese hat dann wiederum eine weitere Stufe nachgeladen die dann hoffentlich endlich richtige Treiber laden konnte um die Festplatten vernünftig ansteuern zu können. Und wehedem im Dateisystem hat sich mal die falsche Datei verschoben oder jemand ausversehen an der falschen Stelle gelöscht. Davon was passiert wenn die Platte an einen anderen Port gehangen wird oder der Controller ausgetauscht wurde brauchen wir gar nicht erst zu sprechen. PCs sind heutzutage nunmal komplexer als früher, die Welt dreht sich weiter. Rolf M. schrieb: > Und dann muss für UEFI auch noch das seit > Jahrzehnten eigentlich veraltete FAT unterstützt werden. An FAT ist nichts veraltet. Jede SD Karte läuft damit, ja es ist sogar das nach SD Norm vorgesehene Format. Im übrigen hast Du dich selbst gerade noch in der Zeile davor über Komplexität beschwert, ich meine das FAT eines der einfachsten Dateisysteme überhaupt ist. Peter D. schrieb: > Mein PC läuft gerade seit 13 Tagen. Mein PC läuft nur wenn ich Ihn brauche, aber jeder wie er mag.
Wenn FAT im BIOS schon zuviel ist, was soll man dann erst zu FAT und USB-MSD-Support in Mainboard-Chipsätzen sagen... "BIOS-Flashback" kann den Bios-Flashchip von einem FAT-Formatierten USB-Stick neu beschreiben, und das ohne gesteckte CPU&RAM. Security-Nightmare... Muss die Putzfrau nur mal kurz einen USB-Stick anstecken und den Flash-Button 5 Sekunden gedrückt halten. Da hilft dann alles UEFI-Secure-Boot, Bitlocker-Verschlüsselte SSD, TPM etc nicht mehr..
Ja, ist eigentlich Standard. Windows als Hauptsystem und Linux als VM zum experimentieren und basteln. Windows, weil die meisten Programme halt auf Windows laufen und es unsinnig wäre, die meisten Programme in einer VM zu nutzen. Auch sind die Programme die man unter Windows nutzt, eher die, die vom Tempo profitiere. Den Webbrowser kann man, wenn man unbedingt will, dann in einer VM unter Linux nutzen z.B. Zukünftig unterstützt Windows ja auch Linux Programme, daher entfällt dann auch die VM und man kann komplett bei Windows bleiben Peter D. schrieb: > Ich dachte, heutzutage ist sowas nicht mehr nötig, den PC für ein > anderes OS umständlich runter zu fahren und neu zu booten. > Man kann doch einfach das andere OS in einer VM laufen lassen. > Mein PC läuft gerade seit 13 Tagen.
Max M. schrieb: > Windows als Hauptsystem und Linux als VM zum experimentieren und > basteln. Oder umgekehrt. Ergibt auch Sinn.
Max M. schrieb: > Windows als Hauptsystem und Linux als VM zum experimentieren und > basteln. Das mag bei Dir so sein. Hier läuft fast überall Linux. Produktivsysteme. Windows gammelt irgendwo in einer VM vor sich hin. Das hab ich in diesem Jahr genau einmal gebraucht, um ein Firmwareupdate in ein Gerät einzuspielen wo es nur Windowstreiber für gab. Unter Windows zu arbeiten ist doch einfach nur grauenhaft. Ständig wird man von Updates oder irgendwelchen nutzlosen Assistenten genervt. Für jeden Mist must Du online sein. An die Stabilität von Win 7 reicht ein aktuelles Win 10/11 auch nicht mehr ran, ich hatte dieses Jahr schon diverse Bluescreens auf dem Firmennotebook, und dann erst die "Performance" beim Compilieren, einfach nur lächerlich.
Max M. schrieb: > Zukünftig unterstützt Windows ja auch Linux Programme, daher entfällt > dann auch die VM und man kann komplett bei Windows bleiben Das geht schon seit vielen Jahren und ist nichts anderes als eine in Windows integrierte VM auf der Linux läuft.
Andreas M. schrieb: > Das geht schon seit vielen Jahren und ist nichts anderes als eine in > Windows integrierte VM auf der Linux läuft. WSL2 ist eine VM. WSL1 ist eine Nachimplementierung der Linux-Kernel-APIs unter Windows. Sozusagen das inverse "WINE".
Andreas M. schrieb: > Unter Windows zu arbeiten ist doch einfach nur grauenhaft. Ständig wird > man von Updates oder irgendwelchen nutzlosen Assistenten genervt. Für > jeden Mist must Du online sein. So grauenhaft wie unzutreffend sind eher solche Beiträge.
●DesIntegrator ●. schrieb: > da tu ich mir das Windows Geochse > (mit Konto-Schnickschnack) doch nicht an Bei Linux brauchst du keine Benutzerkonten? Das kenne ich aber anders... Mich deucht sogar, mal gehört zu haben, dass große Teile des Sicherheitskonzeptes von Linux und dessen Vorlage Unix genau darauf basieren...
Ob S. schrieb: > Bei Linux brauchst du keine Benutzerkonten? Das kenne ich aber anders... Einige Linuxe kann man bereits im Standard-Setup so einrichten, dass man wenig davon merkt, weil Autologon.
:
Bearbeitet durch User
Andreas M. schrieb: > Das mag bei Dir so sein. Wohl nicht nur bei ihm... Auf dem Desktop ist Linux eher wenig verbreitet. Kommt schonmal vor, ist aber sicher eher die Ausnahme als die Regel. Wer etwas anderes behauptet, der lügt. Aber selbst bei den Servern findet man immer noch recht erkleckliche Anteile Windows. Aber immerhin tatsächlich seit Jahren signifikant fallend. Im Gegensatz zum Desktop...
(prx) A. K. schrieb: > Einige Linuxe kann man bereits im Standard-Setup so einrichten, dass man > wenig davon merkt, weil Autologon. Ich glaub er spricht auf das blöde online Konto an, das bei der Installation gerne angelegt werden möchte. Kurz vorher internetverbindung trennen, "ich habe kein internet" und weiter mit "eingeschränktem setup". Problem gelöst!
(prx) A. K. schrieb: > Einige Linuxe kann man bereits im Standard-Setup so einrichten, dass man > wenig davon merkt, weil Autologon. Viele PC-Hersteller konfigurier(t)en ihre Windows-Rechner ebenfalls so vor. Und wo es nicht so vorkonfiguriert ist, kann man es selber so konfigurieren. Ja, das geht sogar mit W11H. Man muss halt bloß wissen, wie's geht. Ob es allerdings erstrebenswert ist, immer nur einen automatisch eingeloggten User zu haben, der zwar selber nicht root/Administrator ist, aber doch jederzeit sehr nahe dran...
Kilo S. schrieb: > Ich glaub er spricht auf das blöde online Konto an, das bei der > Installation gerne angelegt werden möchte. > > Kurz vorher internetverbindung trennen, "ich habe kein internet" und > weiter mit "eingeschränktem setup". Problem gelöst! Dieser Trick funktioniert längst nicht mehr. Aber es gibt immer noch einen, der funktioniert. Man behauptet erst mal, dass man eine Konto mit dem Namen "Microsoft" hätte und gibt irgendein Passwort ein (es darf nur nicht leer sein). Dann gelangt man nach einer lustigen Fehlermeldung in das "eingeschränkte Setup", was aber natürlich das eigentlich Richtige und vollständige ist.
Ob S. schrieb: > Dieser Trick funktioniert längst nicht mehr. Bullshit, hab ich letztes Wochenende erst genau so praktiziert. Mit einem absolut frischen iso von der Microsoft Seite. An drei Rechnern!
Beim Update Win10>11 wird ein lokales Konto problemlos übernommen.
Gerhard H. schrieb: > Beim Update Win10>11 wird ein lokales Konto problemlos übernommen. Frische W10 Installation, es gibt hier bei mir nur einen Rechner der W11 offiziell unterstützt und der wird unter 11 so lahm das er damit unbenutztbar ist.
Kilo S. schrieb: > der wird unter 11 so lahm das er damit unbenutztbar ist. Ähnlich ist es bei meinem Laptop. Von HP gibt es nur Windows 10 Support. Zu Windows 11 ist er kompatibel läuft damit aber viel langsamer.
Steve van de Grens schrieb: > Von HP gibt es nur Windows 10 Support. Meiner ist erst seit (ebenfalls HP) einem nachgeschobenen Update kompatibel. Vorher war er das nicht.
Kilo S. schrieb: > und der wird unter 11 so lahm das er damit unbenutztbar ist Interessant. Ich habe (bei einem Medion-Laptop) eigentlich den gegenteiligen Effekt festgestellt. Das ist allerdings nur ein subjektiver Eindruck, man müsste das mal bei einer konkreten Aufgabe vergleichen. Alles in allem habe ich das Update bislang nicht bereut.
Relevante Vorteile habe ich für mich nicht entdeckt. Ich werde es erstmal bei der legacy BIOS boot Einstellung belassen (im Auslieferungszustand hatte mein Mainboard diese Einstellung noch deaktiviert). Steve van de Grens schrieb: > Ich finde ganz praktisch, dass ich das Auswahlmenu des UEFI nutzen kann, > um das zu startende Betriebssystem zu wählen. So ein Menü wo ich den Datenträger zum booten auswählen konnte hatte ich auch schon bei einem älteren non-UEFI Mainboard und bei meinem aktuellen Mainboard kann ich über dieses Menü auch im legacy BIOS Modus booten. Oder gibt es mit UEFI noch etwas besseres mit mehr Funktionen, z.B. mit einstellbarem Timeout?
Ob S. schrieb: > Bei Linux brauchst du keine Benutzerkonten? jedenfalls nicht online ...und aktivieren muss man da auch niggs
:
Bearbeitet durch User
●DesIntegrator ●. schrieb: > jedenfalls nicht online > ...und aktivieren muss man da auch niggs Find ich gut. Denn solange konten/ werbe/ aktivierungs- freie Alternativen bestehen wird es Microsoft zukünftig, hoffentlich, genau damit nicht übertreiben.
Gerhard H. schrieb: > Denn solange konten/ werbe/ aktivierungs- freie Alternativen bestehen > wird es Microsoft zukünftig, hoffentlich, genau damit nicht übertreiben. Bisschen spät, diese Hoffnung. Sie sind schon mittendrin am übertreiben.
(prx) A. K. schrieb: > Bisschen spät, diese Hoffnung. Sie sind schon mittendrin am übertreiben. Kann man so sehen. Der Versuch der Versuchung zu erliegen ist unübersehbar. Knackpunkt für mich ist: Noch lässt sich lokal, ohne MS-Zwangskonto, ohne aufdringliche MS-Werbung, ohne MS-Cloud arbeiten. Aktivierung ist bei kommerzieller Kauf-Software unumgänglich.
Peter D. schrieb: > Mein PC (...) Ich schalte ihn nie aus, > sondern drücke immer nur die Schlummertaste. Keine gute Angewohnheit. Bei jedem Betriebssystem steht irgendwann mal das eine oder andere Bit im RAM falsch, sei es wegen eines Hardware-Problems (du hast keinen PC auf Industrieniveau, oder?) oder wegen eines Softwarefehlers. Bootet man nie von null an neu, dann bleibt das falsche Bit ewig stehen oder es sammeln sich sogar mehrere davon an. Irgendwann zeigen sich dann "unerklärliche" Fehler oder gar Datenverluste. Ok, auf meinem Sofatisch-Tablet klicke ich oft auch nur auf Hibernate, damit es schneller bootet. Das ist aber auch ein unwichtiger Rechner: Da sind außer dem WLAN-Passwort keinerlei wichtige Daten drauf, und als Anwendersoftware nur ein Browser. Meinen Arbeits-PC boote ich täglich von null an, bei Nichtgebrauch (vor allem nachts) ist er zweipolig vom Stromnetz getrennt.
Rolf schrieb: > Meinen Arbeits-PC boote ich täglich von null an, bei Nichtgebrauch (vor > allem nachts) ist er zweipolig vom Stromnetz getrennt. Da kenne ich eine beratungsresistente Person, wo der Läppi im Urlaub 3 Wochen lang in der Wohnung am Netzteil hängt. Im WoZi auf dem Holztisch. Also wenn das bei solchen Leuten mal brennt, würds mich nicht wundern
●DesIntegrator ●. schrieb: > Wofür ausser zum Daddeln braucht man das? > Wenn ein Linux läuft, kann man mit dem doch alles machen, > da tu ich mir das Windows Geochse > (mit Konto-Schnickschnack) doch nicht an Mit Linux kann man alles machen, was du in deiner Welt brauchst. Nun gibt es aber auch Leute, die zum Geldverdienen (professionelle) Software brauchen, die es für Linux gar nicht gibt. Was Konto-Schnickschnack angeht: Auf meinen Windows-PCs gibt es nur lokale Konten, die sich im Handling gar nicht von Linux-Konten unterscheiden.
:
Bearbeitet durch User
Rolf schrieb: > was du in deiner Welt brauchst ᕕ(ᐛ)ᕗ Rolf schrieb: > zum Geldverdienen (professionelle) Software ⊙▂⊙
Rolf schrieb: > Keine gute Angewohnheit. Bei jedem Betriebssystem steht irgendwann mal > das eine oder andere Bit im RAM falsch, sei es wegen eines > Hardware-Problems (du hast keinen PC auf Industrieniveau, oder?) oder > wegen eines Softwarefehlers. Mein lüfterloser PC arbeitet 24/7 (und hängt an 19V DC). Entscheidend ist, daß man seine täglichen Aufgaben erfüllt bekommt und nicht das dumpfe Gefühl, da drinnen könnte irgendein Bit kippen. Aber Du hast Recht, irgendwann kommt es zu Unerklärlichem. Der von MS diktierte Update-Plan sorgt aber schon für regelmäßige Reboots. Und natürlich dürfte ein Betriebssystem viele seiner Daten regelmäßig auf Integrität prüfen und ggf. korrigieren.
Rolf schrieb: > Meinen Arbeits-PC boote ich täglich von null an, bei Nichtgebrauch (vor > allem nachts) ist er zweipolig vom Stromnetz getrennt. Da ich auch Homeoffice mache, ist der Arbeits-PC durchgängig an. Es gibt allerdings eine Anwendung, die sich manchmal aufhängt und dann muß ich neu booten. Es ist die Suchfunktion im Windows Explorer. Sie findet manchmal keine Dateien, die aber eindeutig vorhanden sind.
Rolf schrieb: > Nun gibt es aber auch Leute, die zum Geldverdienen (professionelle) > Software brauchen, die es für Linux gar nicht gibt. Die wäre? Ich kann mir wirklich nur extreme Beispiele vorstellen, die irgendwo mit Luftfahrt, Raumfahrttechnik oder Militär zu tun haben.
in kritischen Bereichen mit windosen zu arbeiten ist sowieso nicht das idealste
T. schrieb: > So ein Menü wo ich den Datenträger zum booten auswählen konnte hatte ich > auch schon bei einem älteren non-UEFI Mainboard und bei meinem aktuellen > Mainboard kann ich über dieses Menü auch im legacy BIOS Modus booten. Ja, aber damit kannst du nur das zu bootende Laufwerk auswählen. Wenn du Windows und Linux auf dem selben Laufwerk (erste Festplatte) installiert hast, dann hast du auf diesem Laufwerk einen Bootloader, der dich fragt welches OS du starten willst. > Oder gibt es mit UEFI noch etwas besseres mit mehr Funktionen, z.B. mit > einstellbarem Timeout? Das UEFI Bios geht einen Schritt weiter und listet alle installierten Betriebssysteme auf. Im UEFI Bios ist auch die Einstellung hinterlegt, welche normalerweise starten soll, wenn du das Auswahlmenü nicht aufrufst. Wenn du Windows installierst oder upgradest, nachdem Linux schon auf der Platte ist, dann ersetzt das Windows Setup deinen schönen Grub Bootloader durch einen von Microsoft, der nur Windows bootet. Linux ist dann nicht mehr startfähig. Genau dieses Problem hast du bei UEFI nicht. Es ist aber nur ein sehr kleines Problem, das lösbar ist und außerdem deaktiviert Microsoft das Linux seit Windows 10 nicht mehr ganz so eifrig. Mittlerweile akzeptiert Microsoft wohl, dass manche Leute auch andere Betriebssysteme neben Windows benutzen wollen.
Peter D. schrieb: > die Suchfunktion im Windows Explorer. Sie > findet manchmal keine Dateien, die aber eindeutig vorhanden sind. Das war schon immer so. Manche Dinge kriegt Microsoft einfach nicht gebacken, und das sind erstaunlicherweise scheinbar triviale Dinge.
Rolf schrieb: > die zum Geldverdienen (professionelle) Software > brauchen, die es für Linux gar nicht gibt. Witzig das immer kombiniert wird professionell != Linux. Nun muss ich Dir leider sagen das die einzige kommerzielle Software, dich ich für meine täglich Arbeit brauche auf Linux (und Unix) schon lange vor Windows verfügbar war. Sind 25.000€/Jahr/Nutzer für dich professionell genug?
Es gibt professionelle Software, die es nur für Linux gibt. Es gibt professionelle Software, die es nur für Windows gibt. Es gibt professionelle Software, die es für beides gibt. Und?
Ich bin trotz allem neugierig welches Software das ist. 🤣
Kilo S. schrieb: > Ich bin trotz allem neugierig welches Software das ist. > > 🤣 Mein Gott, du arbeitest wohl nicht in der Industrie. Es gibt unzählige Softwares, die es nur für Windows gibt. Eine Zeitlang, so Anfang der 2000er Jahre, war mal eine gewisse Tendenz zu erkennen, dass die Software-Anbieter ihren Kram auch für Linux herausgebracht haben. Ist dann aber in den knapp zwei Jahrzehnten seitdem nahezu alles auch wieder eingestellt worden. Rechnet sich wohl halt nicht, den Portierungsaufwand für die drei Hansels zu betreiben, die nicht den Quasi-Standard-Desktop der weltweiten Industrie verwenden. Schuld daran ist Linux selber. Die hochgradige Fragmentierung und fehlende Standardisierung macht den Support für eine Software extrem aufwendig.
Ob S. schrieb: > Es gibt unzählige Softwares, die es nur für Windows gibt Das geht schon mal beim Microchip Studio los... Unter Linux gibts da keinen gleichwertigen Ersatz. Ob S. schrieb: > Schuld daran ist Linux selber. Dessen Entwicklung schleppt sich stets hinter der von Windows her. Ich erinnere mich noch an die Zeiten als die Linux-Leute stur an der "Überlegenheit" ihrer Kommando-Zeile festhielten. Da war der erste Linux-Desktop eine Revolution. Freilich war Windows da längst weiter.
Gerhard H. schrieb: > erinnere mich noch an die Zeiten als die Linux-Leute stur an der > "Überlegenheit" ihrer Kommando-Zeile festhielten. Aha. Nur komisch das Microsoft vor ein paar Jahren auf die Idee kam den angestaubten Batch Interpreter ("DOS-Box") durch Powershell zu ersetzen. Das immer mehr Anleitungen zum Administrieren von Windows - auch die Anleitungen von Microsoft selbst - Powershell statt Grafischer Tools verwenden ist vermutlich an Dir vorbeigegangen. Dass es inzwischen so einiges gibt, was Du grafisch unter Windows gar nicht mehr einstellen kannst sondern nur noch mittels pösen Kommandozeilenbefehlen ... Die "überlegene" Kommandozeile gab es schon lange vor Windows und Linux. Mal davon abgesehen, dass es gar nicht die Kommandozeile ist, die überlegen ist, sondern die wesentlich mächtigeren Skriptsprachen sowie das Konzept von menschenlesbaren Konfigurationsdateien. (Im Gegensatz zu so einem Moloch von Registry wo nicht mal Microsoft selbst noch Durchblickt) Gerhard H. schrieb: > Da war der erste > Linux-Desktop eine Revolution. Freilich war Windows da längst weiter. Die erste Version von Xfree86, dem Grafiksystem von Linux kam 1991 raus. Ungefähr zur gleichen Zeit wie Windows 3.0. Zu diesem Zeitpunkt hatten die wenigsten Menschen überhaupt genug Geld um sich ausreichend Leistungsfähige PC-Systeme dafür zu kaufen. "Viel weiter" war da gar nix. Der erste ernstzunehmende Desktop von Microsoft war Windows 95. Es hat gerade mal zwei Jahre bis Enlightment und WindowMaker gedauert, KDE und Gnome standen bereits in den Startlöchern. Ob S. schrieb: > Schuld daran ist Linux selber. Die hochgradige Fragmentierung und > fehlende Standardisierung macht den Support für eine Software extrem > aufwendig. Unsinn. Wir haben z.b. hier Zertifzierungstesttools aus diesem Jahr. Die laufen unter bald 10 Jahre alte Ubuntu 14 genauso wie mit nem taufrischen Ubuntu 22. Der Support für 99% der Anwendungen ist unter Linux nicht aufwändiger als unter Windows.
Hier mal ein paar Beispiele für Kommerzielle Software die es schon lange für Linux & Windows gibt: https://www.xilinx.com/products/design-tools/vivado.html https://www.intel.de/content/www/de/de/products/details/fpga/development-tools/quartus-prime.html https://www.latticesemi.com/en/Products/DesignSoftwareAndIP/FPGAandLDS/LatticeDiamond https://en.wikipedia.org/wiki/Autodesk_Maya https://en.wikipedia.org/wiki/BricsCAD https://en.wikipedia.org/wiki/MATLAB https://en.wikipedia.org/wiki/Siemens_NX Lauterbach Trace 32 Und welche die es gar nur für Linux gibt: https://de.wikipedia.org/wiki/SAP_HANA Zu behaupten der Linux-Support wäre also zu teuer und deswegen würde es keiner machen ist schlicht und ergreifend falsch.
Andreas M. schrieb: > Der erste ernstzunehmende Desktop von Microsoft war Windows 95. Es hat > gerade mal zwei Jahre bis Enlightment und WindowMaker gedauert, KDE und > Gnome standen bereits in den Startlöchern. Da beißt die Maus keinen Faden ab, wie unser Chemie-Lehrer immer schön zu sagen pflegte. Windows war Linux weit voraus und schließlich Vorbild für dessen Desktop-Entwicklung. Wie erbittert viele Linuxer zunächst noch den Sinn des Desktops als Vereinfachung des Computer-Zugangs abgestritten haben. Das war ein echter Glaubens-Krieg und den wirst Du nicht aus meiner Erinnerung tilgen. Es ist ja letztlich auch kein Wunder: Microsoft wollte Geld verdienen- und das schafft man eben nur mit hochwertigerer = intuitiv zugänglicherer Software für die Massen- und vielen bezahlten Entwicklern. Entsprechend sieht der Windows Desktop-Marktanteil bis heute aus. Hat doch gar keinen Zweck das abstreiten zu wollen. Da half Linux selbst seine Kostenlosigkeit nicht. Natürlich hat der Linuxer da gleich tausend Glaubens-Alternativ-Erklärungen zur Hand in denen der böse Kommerz meist die Hauptrolle spielt. Nein sag ich da- zur Erklärung reicht(e) der unmittelbare Leistungs-Vergleich beider Betriebssysteme. Davon abgesehen ist's trotzdem schön, wie es sich als Alternative entwickelt hat. So schön, daß Linux inzwischen selbst von Microsoft ernstgenommen wird. Alle Seiten haben dazugelernt.
Andreas M. schrieb: > Der erste ernstzunehmende Desktop von Microsoft war Windows 95. Wir hatten davor schon lange Zeit Windows-NT im Einsatz. Das war die Zeit, wo es legale Anbieter für Entdongelung gab, da die üblichen LPT-Dongle unter NT nicht lauffähig waren.
Gerhard H. schrieb: > Wie erbittert viele Linuxer zunächst > noch den Sinn des Desktops als Vereinfachung des Computer-Zugangs > abgestritten haben. das geht heute natürlich auch noch ohne GUI, wers mag oder braucht. Aber da sind diverse Dinge halt nur SEHR bedingt darstellbar :-]
Andreas M. schrieb: > Unsinn. Wir haben z.b. hier Zertifzierungstesttools aus diesem Jahr. Die > laufen unter bald 10 Jahre alte Ubuntu 14 genauso wie mit nem > taufrischen Ubuntu 22. Der Support für 99% der Anwendungen ist unter > Linux nicht aufwändiger als unter Windows. Hm, selbst der Schöpfer und Haupt-Maintainer des Linux-Kernels sieht das anders. Aber was weiß der schon.
●DesIntegrator ●. schrieb: > Gerhard H. schrieb: >> Wie erbittert viele Linuxer zunächst >> noch den Sinn des Desktops als Vereinfachung des Computer-Zugangs >> abgestritten haben. > > das geht heute natürlich auch noch ohne GUI, wers mag oder braucht. > Aber da sind diverse Dinge halt nur SEHR bedingt darstellbar :-] Dafür sind andere Dinge so schneller zu erledigen, wenn man täglich damit arbeitet. Wer schlau ist, nutzt deshalb einfach aus beiden Welten das Beste, statt irgendeiner Ideologie zu folgen, die nur das eine oder das andere zulässt.
Le X. schrieb: > Hm, selbst der Schöpfer und Haupt-Maintainer des Linux-Kernels sieht das > anders. > Aber was weiß der schon. Für Deine Behauptung hast Du sicher auch Belege. Gerhard H. schrieb: > mit hochwertigerer = intuitiv zugänglicherer Software für die Massen- > und vielen bezahlten Entwicklern. Ja ja, so intuitiv das Microsoft inzwischen Horden an Indern für den Support braucht. Das sind Leute die nicht mal die Hauseigene Software kennen und im wesentlichen Versuchen die Anfragen durch gebetsmühlenartiges Vorlesen von Micrososoft's eigenen Webseiten abzuwimmeln. Mit viel Glück schafft man es mal ein paar Ebenen höher. Aber auch dort scheint das Hauptziel der Angestellten zu sein am Ende möglichst viele positive Bewertungen zu bekommen - unabhängig davon ob das Problem gelöst wurde oder nicht. Und wenn Sie keinen Bock mehr haben dann wird der Call einfach geschlossen und du fängst wieder bei null an. Kein wunder, das in vielen IT Abteilung inzwischen Resignation eingetreten ist und Probleme möglichst direkt auf Dritt-Firmen abgewälzt werden, in der Hoffnung das die es irgendwie gebacken bekommen. Wen Windows so intuitiv ist, warum nutzen denn dann die "Massen" heutzutage im wesentlichen noch iPad & Co um Ihre Privatsachen zu erledigen? Windows PCs im Privatbereich findet man doch fast nur noch als Daddelkisten.
Andreas M. schrieb: > Wen Windows so intuitiv ist, warum nutzen denn dann die "Massen" > heutzutage im wesentlichen noch iPad & Co um Ihre Privatsachen zu > erledigen? Da hast Du natürlich Recht. Eine PC-Desktopoberfläche ist längst nicht mehr das Maß der Dinge. Es geht eben alles immer noch ein Stück intuitiver = massentauglicher.
Andreas M. schrieb: > Die Zeiten in denen 440 Byte Maschinencode ausreichen um alle möglichen > Bootvarianten zu unterstützen sind lange vorbei. Man sieht ja das > Ergebnis von den ganzen Krücken die darauf basierend entstanden sind. > Der Bootstrap Code aus dem MBR, der gehofft hat an der richtigen Stelle > der Platte die nächste Stage zu finden. Wieso gehofft? Im MBR selbst ist die Stelle hinterlegt. Wenn da dann nix brauchbares ist, ist wohl die Partition noch nicht formatiert. > Diese hat dann wiederum eine weitere Stufe nachgeladen die dann > hoffentlich endlich richtige Treiber laden konnte um die Festplatten > vernünftig ansteuern zu können. Die brauchte man erst für den Kernel des Betriebssystems. > Und wehedem im Dateisystem hat sich mal die falsche Datei verschoben oder > jemand ausversehen an der falschen Stelle gelöscht. Das ist aber schon ein Weilchen her, kenne ich noch von LILO. Allerdings lag das bei dem nicht am BIOS oder irgendwelchen Hardware-Treibern, sondern daran, dass er selbst keine Dateisysteme unterstützt hat und sich deshalb die Sektoren merken musste, wo er den Kernel findet. > Davon was passiert wenn die Platte an einen anderen Port gehangen wird > oder der Controller ausgetauscht wurde brauchen wir gar nicht erst zu > sprechen. Damit habe ich auch schon sehr lange auch ohne UEFI keine Probleme mehr gehabt. > PCs sind heutzutage nunmal komplexer als früher, die Welt dreht sich > weiter. Das heißt aber nicht zwangsweise, dass man altbewährte Sachen durch was komplexeres ersetzen muss. > Rolf M. schrieb: >> Und dann muss für UEFI auch noch das seit >> Jahrzehnten eigentlich veraltete FAT unterstützt werden. > > An FAT ist nichts veraltet. Jede SD Karte läuft damit, ja es ist sogar > das nach SD Norm vorgesehene Format. Ja, obwohl es für Flash denkbar ungeeignet ist. Aber Windows kann halt nix anderes, also wird es eben notgedrungen verwendet. Bekommen die eigentlich immer noch für jedes Gerät mit FAT-Support, das verkauft wird, Lizenzgebühren?
Rolf M. schrieb: > Bekommen die eigentlich immer noch für jedes Gerät mit FAT-Support, das verkauft wird, Lizenzgebühren? Weiß ich nicht, aber die für FAT waren immer günstiger als für das Filesystem was Win 7/10/11 nutzt.
:
Bearbeitet durch User
Rolf M. schrieb: > Bekommen die > eigentlich immer noch für jedes Gerät mit FAT-Support, das verkauft > wird, Lizenzgebühren? Sind die Patente nicht inzwischen abgelaufen, und deshalb gibt's jetzt exFAT?
Εrnst B. schrieb: > Sind die Patente nicht inzwischen abgelaufen, und deshalb gibt's jetzt > exFAT? Ja, die Patente für FAT12/16/32 incl. der Patente für die LFNs sind allesamt abgelaufen. Aber ExFAT gibt es nicht etwa deshalb, sondern weil halt die Medien (und auch die Dateien) im Laufe der Jahre immer größer geworden sind und schlicht nicht mehr in FAT32 abbildbar waren. Du kannst aber nach wie vor z.B. ein 256GB-Medium auch mit einer einzigen FAT32-Partitition versehen. Aber du kannst halt keine Dateien darauf schreiben, die größer als 4GB sind. Z.B. für HD-Filmchen ist das zu wenig.
Ob S. schrieb: > Es gibt unzählige Softwares, die es nur für Windows gibt. Das stimmt. Die Anzahl der Softwarepakete, für die es keine Alternative unter Linux gibt, ist allerdings schon deutlich kleiner.
Ein T. schrieb: > Das stimmt. Die Anzahl der Softwarepakete, für die es keine Alternative > unter Linux gibt, ist allerdings schon deutlich kleiner. Die Frage ist nur ob sie mindestens gleichwertige Alternativen sind. Denn das sind sie oft genug nicht. Und ehrenamtlich entwickelt es sich halt auch nicht so effizient wie bezahlt. Geld ist und bleibt Hauptmotivation. Ausnahmen bestätigen die Regel.
Gerhard H. schrieb: > Denn das sind sie oft genug nicht. Na dann kannst du das ja auch sicher mit einem Beispiel belegen. Aus meiner persönlichen Erfahrung kann ich eher das Gegenteil behaupten. Z.b. im GIS Bereich kann QGIS (https://www.qgis.org) mehr als kommerzielle Systeme. Gerhard H. schrieb: > Geld ist und bleibt > Hauptmotivation. Ausnahmen bestätigen die Regel. Nicht wenig Entwickler werden ganz normal als Angestellte dafür bezahlt die Entwicklung von Opensource-Projekten weiterzubringen. Beim Linux Kernel sowieso und auch immer mehr bei den Applikationen. Kein Wunder, der Markt hat längst die Vorteile vom System erkannt. Lies mal bei einer aktuellen Siemens Software oder SPS den Beipackzettel, da bekommst Du eine ungefähre Vorstellung davon wie groß inzwischen der Anteil an Open-Source Komponenten selbst bei solchen Dingen ist. Diese Geräte wären ohne Opensource schlicht und ergreifend gar nicht mehr möglich.
Andreas M. schrieb: > Z.b. im GIS Bereich kann QGIS (https://www.qgis.org) mehr als > kommerzielle Systeme. Freut mich. Hast Du also eine Ausnahme gefunden. Die üblichen Profi-Programme auf Mac und PC kennen trotzdem meist nur kommerzielle Betriebssysteme. Bei meiner eigenen Elektronikentwicklung käme ich unter Linux auf keinen grünen Zweig, es sei denn man ist bereit und hat die Muße auch noch die dazu nötigen Tools mitzuentwickeln bzw. seinen Linux-Untersatz entsprechend hinzufrickeln. > da bekommst Du eine ungefähre Vorstellung davon wie groß inzwischen der > Anteil an Open-Source Komponenten selbst bei solchen Dingen ist. Diese > Geräte wären ohne Opensource schlicht und ergreifend gar nicht mehr > möglich. Vorhandene freie Software nutzt man doch gerne wenn damit Kosten gespart werden. Schon deshalb ist Geringschätzung nicht angebracht. Wenn deren Entwicklung dann auch noch bezahlt wird umso schöner. Es versteht sich aber von selbst daß auf dieser Grundlage allein niemand leben kann- wenn nicht am Ende doch etwas verkauft wird.
Gerhard H. schrieb: > Ein T. schrieb: >> Das stimmt. Die Anzahl der Softwarepakete, für die es keine Alternative >> unter Linux gibt, ist allerdings schon deutlich kleiner. > > Die Frage ist nur ob sie mindestens gleichwertige Alternativen sind. Das ist nach meinen Erfahrungen ziemlich häufig der Fall. > Denn das sind sie oft genug nicht. Und ehrenamtlich entwickelt es sich > halt auch nicht so effizient wie bezahlt. Geld ist und bleibt > Hauptmotivation. Ausnahmen bestätigen die Regel. Nun komme ich ja aus der kommerziellen Entwicklung und muß nach dem, was ich dort erlebe, leider sagen, daß das ein beliebter, aber dennoch ein Irrglaube ist. Denn kommerzielle Entwickler sind noch viel seltener die armen Schweine, die ihre Software am Ende benutzen müssen, was im OpenSource-Umfeld häufig anders ist; viele OpenSource-Projekte entstehen aus der Motivation, daß ein Nutzer eine andere, bessere, komfortablere Lösung haben möchte und sie sich einfach entwickelt. Im kommerziellen Umfeld sehe ich leider nicht selten die bekannte "Bananaware", die nach vom Marketing vorgegebenen Zeitplänen gebaut wird und erst beim Kunden "reift", und die Hersteller wollen nicht selten gern auch noch ihren kostenpflichtigen Support und die Folgeversion verkaufen. Und dann kommt noch hinzu, daß kommerzielle Hersteller ihre Kunden gerne insofern "enteignen", als sie deren Daten in proprietären Formaten einsperren und sie, wenn überhaupt, nur gegen Zahlung eines Lösegeldes wieder herausgeben. Wenn Dir diese Auswüchse von kommerzieller Software noch nicht begegnet sind, hast Du offensichtlich erfreulich großes Glück gehabt. Ich wünsche Dir sehr, daß Dir dieser Zustand auch in Zukunft erhalten bleibt. Nur, wie gesagt: ich habe andere Erfahrungen gemacht und vermeide proprietäre Software, wo immer dies möglich ist und zwar nicht wegen ihrer Anschaffungskosten, sondern wegen ihrer technischen Schulden, die ich später doppelt bezahlen müßte.
Gerhard H. schrieb: > Freut mich. Hast Du also eine Ausnahme gefunden. Die üblichen > Profi-Programme auf Mac und PC kennen trotzdem meist nur kommerzielle > Betriebssysteme. Mich dünkt, daß das eine Frage der Perspektive ist. Nämlich der, was man als "die üblichen Profi-Programme" ansehen möchte. > Bei meiner eigenen Elektronikentwicklung käme ich unter Linux auf keinen > grünen Zweig, es sei denn man ist bereit und hat die Muße auch noch die > dazu nötigen Tools mitzuentwickeln bzw. seinen Linux-Untersatz > entsprechend hinzufrickeln. Was fehlt Dir denn? > Vorhandene freie Software nutzt man doch gerne wenn damit Kosten gespart > werden. Verzeihung, aber nein, die Kosten -- also, wenn man alle Kosten betrachtet -- sind am Ende ohnehin meistens sehr ähnlich. Freie Software wird oft genutzt, weil sie größere Freiheiten und eine höhere Flexibilität bietet. > Schon deshalb ist Geringschätzung nicht angebracht. Dann verstehe ich Deine geringschätzigen Aussagen nicht? > Wenn deren Entwicklung dann auch noch bezahlt wird umso schöner. Es > versteht sich aber von selbst daß auf dieser Grundlage allein niemand > leben kann- wenn nicht am Ende doch etwas verkauft wird. Mir ist eine Reihe von Unternehmen bekannt, die ihre Software als OpenSource anbieten und trotzdem von deren Support, Individualentwicklungen, Schulungen und anderen Dienstleistungen leben können.
Ein T. schrieb: > Und dann kommt noch hinzu, daß kommerzielle Hersteller ihre Kunden gerne > insofern "enteignen", als sie deren Daten in proprietären Formaten > einsperren und sie, wenn überhaupt, nur gegen Zahlung eines Lösegeldes > wieder herausgeben. Vor vielen Jahren passiert mir mal dies mit LibreOffice: Ich habe einen ganze Tag an einem 350 Seiten großem Buch gearbeitet, um ihm den letzten Schliff zu geben. Ich konnte es als PDF exportieren und auf meiner Homepage veröffentlichen. Einen Tag später, als ich noch etwas ändern wollte, ließ sich die Datei nicht mehr öffnen. Dank einer brauchbaren Fehlermeldung konnte ich die kaputte XML Datei aus dem ODT File extrahieren und mit einem Texteditor reparieren. Meine Arbeit ist nicht verloren gegangen. Mit MS Office wäre das zu dem Zeitpunkt unmöglich gewesen. Denn MS Office speicherte seine Dateien in einem geheimen Binärformat. So weit ich weiß ich das DOC Format heute immer noch geheim, allerdings wurde es von Hobbyautoren weitgehend entschlüsselt.
Steve van de Grens schrieb: > Einen Tag später, als ich noch etwas ändern > wollte, ließ sich die Datei nicht mehr öffnen. Man pflegt ja auch seine Projekte mit einem VCS. Und bei Problemen lädt man eben eine Vorgängerversion. Aber auch Windows kann man so konfigurieren, daß es mehrere Versionsstände auf dem Netzlaufwerk speichert. Im Eigenschaftenmenü gibt es dazu den Punkt "Vorgängerversionen".
Steve van de Grens schrieb: > Mit MS Office wäre das zu dem Zeitpunkt unmöglich gewesen. Denn MS > Office speicherte seine Dateien in einem geheimen Binärformat. Ich will Microsoft ja nur ungern in Schutz nehmen, aber die Zeiten propriäterer Binärformate sind auch bei MS seit 2 Jahrzehnten oder so vorbei. Hast du schon mal irgendwo die Endung .docx bzw. .xlsx gesehen?
Le X. schrieb: > aber die Zeiten propriäterer Binärformate sind auch bei MS > seit 2 Jahrzehnten oder so vorbei. Das ist ein Trugschluss. Auch diese angeblich "offenen" Formate enthalten weiterhin undokumentierte Binär-Blobs, halt nur schön in XML verpackt.
Steve van de Grens schrieb: > Mit MS Office wäre das zu dem Zeitpunkt unmöglich gewesen. Denn MS > Office speicherte seine Dateien in einem geheimen Binärformat. Das Problem ist in solchen Fällen allerdings nicht MS Office, sondern der Anwender, welcher seine Arbeit eines 350-Seiten-Buches in einer einzigen(?) Datei gespeichert hat??? Ohne Sicherungsdatei mit anderem Dateinamen und auf anderen Datenträgern? Ich fasse es schlicht und ergreifend nicht.
Peter D. schrieb: > Man pflegt ja auch seine Projekte mit einem VCS Doch nicht Office Dokumente. Das sind ZIP Archive. Rainer Z. schrieb: > Ohne Sicherungsdatei mit anderem > Dateinamen und auf anderen Datenträgern? Ja doch, eine Sicherungsdatei hatte ich. Aber die war ein paar Tage alt. Das ist doch typisch: Wenn man ein Backup braucht, hat man keins, oder es ist zu alt, oder nicht lesbar. By the way: Das was so um 2005 herum, da hatte man Backups noch auf Bänder oder DVD gemacht. Tägliche Backups waren damals noch nicht üblich. > Ich fasse es schlicht und ergreifend nicht. Ich auch nicht. Man sich viele blöde Stories ausdenken und dann darüber ärgern. Schöne Stories heben hingegen die Laune.
Steve van de Grens schrieb: > Ja doch, eine Sicherungsdatei hatte ich. Aber die war ein paar Tage alt. Gut, das relativiert meinen Verdacht der Sorglosigkeit durchaus. > By the way: Das was so um 2005 herum, da hatte man Backups noch auf > Bänder oder DVD gemacht. Tägliche Backups waren damals noch nicht > üblich. Bei den Examensarbeiten von mir und meinen Kommilitonen schon. Sogar mehrfach täglich. Da musste ich allerdings höllisch aufpassen mit der Reihenfolge der Sicherungen. Es wurde auf mehreren Disketten abwechselnd gesichert, so dass jeweils die letzte, die zweitletzte und drittletzte Version zur Verfügung standen (nur Text, Fußnoten, Inhaltsverzeichnis). Auf der Festplatte waren alle Versionen. Wir waren ein gutes Team, eine(r) passte auf den anderen/die andere auf. Das war Anfang der 90er Jahre und das beherrschte am besten Word für Windows. Seither bin ich bei Word geblieben. Diese Sorgfalt habe ich beibehalten. Ich habe nie eine größere Datei "verloren".
Steve van de Grens schrieb: > Peter D. schrieb: >> Man pflegt ja auch seine Projekte mit einem VCS > > Doch nicht Office Dokumente. Das sind ZIP Archive. git-lfs(1) to the rescue! Okay, das gab es 2005 noch nicht... :-) Im Übrigen kann ich mich noch ganz gut an einige traurige Menschen erinnern, deren MS Word seine eigenen Dateien nicht mehr öffnen konnte. Manchmal waren Star-, Open- oder LibreOffice dann die Rettung! Ebenfalls niemals vergessen werde ich den Fall eines Immobilienmaklers, dessen MS Outlook seine eigene Mailboxdatei nicht mehr öffnen konnte, nachdem es sie vorher durch Überschreiten des Größenlimits von 2 GB ohne Warnung höchstselbst kaputt geschrieben hatte. Um das Problem zu beheben, konnte der Support von MS damals ein kostenpflichtiges Programm anbieten, welches ich nach hinreichend erboster Beschwerde dann erfreulicherweise doch kostenlos erhalten habe. Aber das Beste war dann, was dieses ominöse Superprogramm getan hat: es hat nicht etwa die ältesten, sondern einfach die neuesten Mails gelöscht! Wobei mir bis dato noch kein Mensch erklären konnte, wie jemand auf die Idee kommen kann, PlainText-Daten wie E-Mails zum Speichern in ein undokumentiertes Binärformat zu verwandeln. Soviel zu der angeblich überragenden Qualität, die man bei proprietärer Software aus gutem Hause erwarten darf. ;-)
Ein T. schrieb: > MS Outlook ... Überschreiten des Größenlimits von 2 GB Das ist ein alter Klassiker, ich erinnere ich. Damals hatte ich einige Kunden davor gewarnt und angeraten, ab und zu mal alte Mails zu löschen oder auszulagern.
Ein T. schrieb: > Wobei mir bis dato noch kein Mensch erklären konnte, wie jemand auf die > Idee kommen kann, PlainText-Daten wie E-Mails zum Speichern in ein > undokumentiertes Binärformat zu verwandeln. Da kommt man drauf, wenn man vorher versucht hatte, ein grosses Mailarchiv flach in eine NTFS-Directory zu legen (oder gar FAT), also irre viele kleine Files in einem einzelnen Verzeichnis. Das machte auch sonst keinen Spass, aber sobald man sich in schönster GUI-Manier mit dem Explorer in dieser Dir verirrte, konnte man den abschiessen.
:
Bearbeitet durch User
Steve van de Grens schrieb: > Das ist ein alter Klassiker Eben. In grauer Vorzeit gab es viel mehr Probleme, was in der Natur der Computer-Frühzeit liegt. Mit einem halbwegs aktuellen Outlook passiert so ein Malheur nicht so schnell. Seine bequem allumfassenden .pst Einzeldateien kann man jederzeit separat sichern. In die gleiche Kategorie fallen alte Zugriffsprobleme bei Microsoft's Office Datenformaten. (prx) A. K. schrieb: > irre viele kleine Files sind als Speicherphilosophie von Mailprogrammen jedenfalls nicht die letzte Weisheit.
Ein T. schrieb: > Was fehlt Dir denn? Daß viele Anbieter Windows für Software und Treiber bevorzugen muss man sicher hier nicht besonders betonen. Ganz egal wie sehr Linux da aufgeholt haben mag. Das Angebot ist schlicht viel größer. Mir selber würde unter Linux etwa das Microchip Studio fehlen mitsamt seinem reibungslosen Support für viele Entwicklungstools. Unter Linux ist das Angebot da eher spartanisch- wobei gerade bei Linux der Teufel oft im Detail liegt. Entschuldigung, bei dieser Sachlage habe ich es vorgezogen mich nicht weiter mit Linux und seinen Unzulänglichkeiten zu beschäftigen. Windows bietet einfach die besten Möglichkeiten für Anwender und es gibt (vorerst) wenig Grund zum Wechsel. Für Frickler und Komponisten ihrer eigenen Software-Welten mag Linux dagegen offener, freier und einladender sein. Zu diesem Zielpublikum zählt aber die Masse der Leute nicht, sofern sie wie schon angesprochen überhaupt noch mit PCs arbeitet.
Gerhard H. schrieb: > Frickler und Komponisten Wieso denunziert du Linuxnutzer permanent als Frickler oder unprofessionell? Deine Unfähigkeit damit ein professionelles Arbeitsergebniss hinzubekommen kannst Du nicht einfach auf den Rest der Welt übertragen. Gerhard H. schrieb: > sind als Speicherphilosophie von Mailprogrammen jedenfalls nicht die > letzte Weisheit. Warum? Weil NTFS oder FAT unfähig im Umgang mit vielen kleinen Dateien sind? Maildir ist das Standardspeicherformat der meisten IMAP Server.
Andreas M. schrieb: > Deine Unfähigkeit damit ein professionelles Arbeitsergebniss > hinzubekommen kommt "Denunzieren" doch noch ein ganzes Stück näher als jede meiner Formulierungen... Es wird halt zu schnell emotional. Finden wir uns an dieser Stelle einfach damit ab daß ein jeder in seiner Welt gerne zuhause ist- oder sein sollte. Andreas M. schrieb: > Warum? Weil NTFS oder FAT unfähig im Umgang mit vielen kleinen Dateien > sind? Nein. Sondern weil 1 Datei immer einfacher zu handhaben ist als unnötig viele kleine. Ganz pragmatisch gedacht.
Mein Chef geht davon aus, dass 80% aller Server unter Linux laufen. Das ergäbe sich aus seinen Kontakten mit Kunden und potentiellen Kunden. Das bei Amazon und Google ohne Linux nichts geht, sollte klar sein. Doch selbst die Kunden und Interessenten, die Microsofts Cloud nutzen, setzen alle auf Linux. Windows Server kommen nur noch punktuell zum Einsatz, wo es nicht anders geht. Neue Entwicklungen will kaum jemand darauf laufen lassen. In der Cloud gilt Windows als Altlast.
Steve van de Grens schrieb: > Windows Server kommen nur noch punktuell zum Einsatz Punktsieg für Linux! Selbst wenn es gerade ums Geschehen auf dem Desktop ging. Um nicht falsch verstanden zu werden: Die Existenz mehrerer OS-Welten mit jeweils ihren ganz eigenen, professionellen Stärken ist in jedem Fall ein Gewinn. In Kombination unschlagbar... Steve van de Grens schrieb: > In der Cloud gilt Windows als Altlast. Nur wollen noch nicht allzuviele dorthin, vor allem nicht mit ihren Daten.
Gerhard H. schrieb: > Punktsieg für Linux! > Selbst wenn es gerade ums Geschehen auf dem Desktop ging. Wenn Windows den Rechner nicht so auffällig ausbremsen würde, wenn Microsoft den Datenschutz ernst nehmen würde anstatt seine Kunden wiederholt zu hintergehen, wenn die Updates schneller und weniger beängstigend wären ... dann würde ich Windows noch als Desktop System empfehlen. Doch das ist leider lange vorbei. Jetzt sage ich: Benutze Windows nur wenn du musst.
Steve van de Grens schrieb: > Wenn Windows... Jeder einzelne der aufgezählten Kritikpunkte ist in meinen Augen ziemlich diskussionswürdig, doch sprengt das hier den "Bios vs. UEFI" Rahmen gewaltig. Wer sich > Benutze Windows nur wenn du musst leisten kann undoder will soll doch gerne so verfahren. Ich sehe das weit weniger dogmatisch.
Steve van de Grens schrieb: > Wenn Windows den Rechner nicht so auffällig ausbremsen würde, wenn > Microsoft den Datenschutz ernst nehmen würde anstatt seine Kunden > wiederholt zu hintergehen [...] Bin Windows-Nutzer, aber das mit dem Datenschutz der Sch...-Amis ist tatsächlich so eine Sache. Aktuelle Meldung dazu in Spiegel-Online: https://www.spiegel.de/netzwelt/apps/outlook-uebertraegt-jetzt-offenbar-zugangsdaten-an-microsoft-a-af2648d7-2a83-4e5b-ac78-913713d72ab9
Gerhard H. schrieb: > Ein T. schrieb: >> Was fehlt Dir denn? > > Daß viele Anbieter Windows für Software und Treiber bevorzugen muss man > sicher hier nicht besonders betonen. Ganz egal wie sehr Linux da > aufgeholt haben mag. Das Angebot ist schlicht viel größer. Das ist gerade bei Entwicklungswerkzeuge natürlich nicht richtig. > Mir selber > würde unter Linux etwa das Microchip Studio fehlen mitsamt seinem > reibungslosen Support für viele Entwicklungstools. Wie schön, daß Microchip da deutlich weiter ist: "Microchip has created and supports a free-of-charge Linux OS offering for our entire portfolio of microprocessors (MPUs). We are committed to the open-source Linux community and provide full coverage of System-on-Chip (SoC) peripherals in the Linux kernel." (Quelle: [1]) [1] https://www.microchip.com/en-us/development-tool/linux4sam.org# > Unter Linux ist das > Angebot da eher spartanisch- wobei gerade bei Linux der Teufel oft im > Detail liegt. Man muß sich halt ein bisschen auskennen, aber das ist keine Spezialität von Linux -- das gilt für MacOS und Windows natürlich ganz genauso. > Entschuldigung, bei dieser Sachlage habe ich es vorgezogen mich nicht > weiter mit Linux und seinen Unzulänglichkeiten zu beschäftigen. Also redest Du über etwas, wovon Du eigentlich gar keine Ahnung und womit Du weder Erfahrung hast -- noch haben möchtest. Dafür, daß Du über Linux so gut wie gar nichts weißt, redest Du ziemlich viel darüber. Aber das Lustige ist, daß Du hier die ganze Zeit davon faselst, wie ge"frickel"t und schlecht das unter Linux doch alles sei, aber auf meine Nachfrage überhaupt genau nichts Konkretes ausführen kannst. > Windows bietet einfach die besten Möglichkeiten für Anwender und es gibt > (vorerst) wenig Grund zum Wechsel. Für Frickler und Komponisten ihrer > eigenen Software-Welten mag Linux dagegen offener, freier und > einladender sein. Zu diesem Zielpublikum zählt aber die Masse der Leute > nicht, sofern sie wie schon angesprochen überhaupt noch mit PCs > arbeitet. Ich hatte das schon vorher vermutet, aber es hätte ja auch sein können, daß Du Dich bisher nur ein bisschen ungeschickt geäußert hast, und ich gebe jedem zunächst einmal eine zweite Chance. Aber mit Deinem neuen Gefasel hast Du meinen Verdacht bestätigt: Du bist ein Troll und willst nur provozieren. Für solche Menschen ist mir meine Zeit zu schade, insofern wünsche ich Dir viel Glück auf Deinem weiteren Lebensweg. Lebwohl.
Steve van de Grens schrieb: > Einen Tag später, als ich noch etwas ändern > wollte, ließ sich die Datei nicht mehr öffnen. Dank einer brauchbaren > Fehlermeldung konnte ich die kaputte XML Datei aus dem ODT File > extrahieren und mit einem Texteditor reparieren. Meine Arbeit ist nicht > verloren gegangen. > > Mit MS Office wäre das zu dem Zeitpunkt unmöglich gewesen. Denn MS > Office speicherte seine Dateien in einem geheimen Binärformat. Seit Office2007 nicht mehr. Ab da ist das auch nur noch gezipptes XML. Also seit mindestens 16 Jahren. Du lebst also dramatisch in der Vergangenheit! Aber klar, das war die Zeit, als XML der absolut heiße shice war. Inzwischen (nach unzähligen Sicherheitslücken auf allen Systemen, inclusive und ausdrücklich auch linuxbasierten!!!) ist auch dem Letzten Idioten klar geworden, das das zwar Heiß, aber eben auch Scheiße war. Viel zu komplex. Die typische Eierlegende Wollmilchsau. Der neue heiße shice heißt ja seit einigen Jahren json. Vieles basiert inzwischen darauf. Das ist wesentlich weniger komplex (und schon allein deshalb auch deutlich effizienter). Aber auch hier lauern noch genug Lücken in den diversen Implementierungen. Ist nur eine Frage der Zeit, bis es auch hier mal ordentlich knallt. Gott sei Dank gehe ich in knapp drei Jahren in Rente. Dann geht mich das direkt nichts mehr an. Allerdings: wenn die Software der Rentenverwaltung dann schon "fortschrittlich" auf Web-Technologien incl. json umgestellt ist, wird's doch bitter. Auch für mich...
Ob S. schrieb: > Dann geht mich das direkt nichts mehr an. Du wechselst nur die Seiten. Von Täter zu Opfer, oder so. Ich verstehe sowieso nicht, weshalb man unbedingt alle Verwaltung von dezentral Analog auf zentral Digital umstellen will. Gerade jetzt gehört eine grosse Portion Zwiedenk dazu, gedau das zu forcieren, was Hacker anzieht wie Scheisse die Fliegen. Ein Mikrofilmarchiv kriegt man schlecht aus der Ferne rausgetragen oder verschlüsselt.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Du wechselst nur die Seiten. Von Täter zu Opfer, oder so. Irgendwie schon, da hast du wohl Recht. > Ich verstehe sowieso nicht, weshalb man unbedingt alle Verwaltung von > dezentral Analog auf zentral Digital umstellen will. Klare Kostenfrage. Und übrigens: niemand will die "analoge" Welt zurück, mit kellerweise totem Baum und bestenfalls Fax. An digitaler Verwaltung führt kein Weg vorbei. Das eigentliche Problem (zumindest eins der eigentlichen Probleme) ist tatsächlich die Zentralisierung und "Normalisierung" der Sache. Das macht Angriffe auf das System überaus attraktiv, weil bei Erfolg umfassend. Bis hin zur de-facto-Lahmlegung ganzer Volkswirtschaften. In DE haben wir das noch nicht wirklich ernsthaft zu spüren bekommen, weil wir hier teils ein bis zwei Jahrzehnte hinterher hängen. Aber aus den negativen Erfahrungen weiter fortgeschrittener Länder (oder auch Konzerne) wird leider auch rein garnichts gelernt. Wir schreiten (wenn auch vergleichsweise langsam) fort auf dem Weg in den Abgrund...
Ein T. schrieb: > Gefasel Bei solchen "Herzensangelegenheiten" scheint sachliche Verständigung wohl ausgeschlossen- wer es aber nötig hat dabei persönlich zu werden scheint mir eher in der Defensive zu sein. Ob S. schrieb: > Aber aus den negativen Erfahrungen weiter fortgeschrittener Länder (oder > auch Konzerne) wird leider auch rein garnichts gelernt. Das stimmt doch so auch nicht. Im Gegenteil: Die Sicherheits-Hysterie nimmt langsam Formen an daß man sich fragt ob oft bzw. überhaupt noch nach dem ganz konkret vorhandenen Gefahrenpotential gefragt wird. Das Lernen aus Fehlern gehört zur IT Historie wie das Wasser zum Meer, der Schaden muß nur hoch genug sein. > Bis hin zur de-facto-Lahmlegung ganzer Volkswirtschaften Beispiele???
Ob S. schrieb: > Klare Kostenfrage. Und übrigens: niemand will die "analoge" Welt zurück, > mit kellerweise totem Baum und bestenfalls Fax. An digitaler Verwaltung > führt kein Weg vorbei. Als ich studiert habe, bin ich noch in die Bibliothek gegangen, habe stundenlang in Büchern gesucht und die benötigten Informationen abgeschrieben oder teuer kopieren lassen. Heutzutage ist das Suchen eine Sache von Sekunden und ein paar Mausklicks.
Ob S. schrieb: > (prx) A. K. schrieb: > >> Ich verstehe sowieso nicht, weshalb man unbedingt alle Verwaltung von >> dezentral Analog auf zentral Digital umstellen will. > > Klare Kostenfrage. Ja, aber wie herum geht die aus? Sind da die Kosten für: - IT mit ernsthafter Sicherheitshoffnung, - gelegentliche Erpressertantiemen, - den gläsernen Bürger schon mit eingerechnet? OK, der Bürger kostet nichts aus dem Säckel. Nur Wählerstimmen.
Gerhard H. schrieb: > Das Lernen aus Fehlern gehört zur IT > Historie wie das Wasser zum Meer, der Schaden muß nur hoch genug sein. Yep. Aber freier Zugang zu den Gesundheitsdaten, durch alle Interessenten, die sich in den richtigen Kreisen umsehen können? Solcher Schaden ist irreparabel, wenn die Daten mal von der Knute der Geheimhaltung befreit sind. Derjenige, der den Schaden hat - und das sind nicht die Ärzte, Kassen, Pharma, ... kann daraus zwar lernen, aber nur in Form von fundamentaler Verachtung des Bürgern allen gegenüber. Es zerrüttet die Gesellschaft, wenn jedes Grundvertrauen verloren geht. Es ist schon lange her, dass mir ein Brite eine Lebensweisheit vermittelte, der schon mindestens eine Pleite hinter sich hatte und die nächste ansteuerte: "I make my faults with other people's money."
:
Bearbeitet durch User
Ob S. schrieb: > Du lebst also dramatisch in der Vergangenheit! Ich habe nicht erzählt, in welcher Zeit ich lebe, sondern was mir früher (vor langer Zeit) mal passiert ist. Diese Situation hat mir klar gemacht, warum offene Dateiformate vorteilhaft sind. Ich habe ein konkretes Beispiel für offene Dateiformate gegeben. Unsere Bundesregierung hat zu Recht beschlossen, offene Dateiformate zu bevorzugen. Nur an der Umsetzung (es endlich zu tun) hapert es noch.
Ob S. schrieb: > als XML der absolut heiße shice war. > Viel zu komplex. Die typische Eierlegende Wollmilchsau. Ja schon, so ist das wenn man die Bedürfnisse von allen erfüllen will. Das Problem haben alle Bibliotheken irgendwann wenn sie richtig alt werden. Aber geheime Binärformate lösen dieses Dilemma nicht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.