Hallo! ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu werden, obwohl es von der Funktionalität her Unix haushoch unterlegen war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert waren...)
:
Verschoben durch Admin
Jürgen W. schrieb: > Unix war erst beim 80386 möglich Nein. Es gab auch Unixe für 8086 und 8088. Bitte nicht Unix und Linux verwechseln.
> http://de.wikipedia.org/wiki/Xenix > und 256 kByte RAM benötigte, die IBM-PCs aber nur mit 32 bis 64 kByte RAM ausgeliefert wurden. Genau, das hat eben nicht funktioniert ...
Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? IBM hatte anfangs kein gesteigertes Interesse, sich das gute Geschäft mit den dicken Kisten abzugraben. Dieser Gedanke beeinflusste sowohl das Design der Hardware, als auch die anfänglich verfügbare Software. Damals wie auch noch später hatte IBM aus diesem Grund beinahe den RISC/Unix-Erfolg verpennt. MSDOS hatte einen populären Vorläufer: CP/M. Dafür gab es allerlei Software, die sich relativ leicht auf das davon stark inspirierte MSDOS portieren liess.
Mark .. schrieb: > Unix war doch schon deutlich früher da und hatte > bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, > also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. Die ersten PCs hatten noch keine Festplatte und Multitasking auf ner 4,77MHz CPU willst Du nicht wirklich. Und die ersten Windows-Versionen hatten Startzeiten, da konnte man ein Ei hart kochen. Peter
Mark .. schrieb: > verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte > bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, > also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. Und wozu brauchst du das bei einem Rechner mit 64kB Speicher und 1 oder 2 Diskettenlaufwerken (der Ur-PC hatte überhaupt nur ein Kasettenrecorderinterface)? Noch dazu im kommerziellen Umfeld, also Banken und Firmen, die ihre Korrespondenz damit erledigen wollen und die einen Apple][ als Bastlerlösung ablehnen. 'Schutzmechanismen' für Dateien hieß: Die Diskette kommt in den Tresor. Multiuser? Was willst du mit Multiuser auf einer derartigen Plattform? Wenn das Teil eine Textverarbeitung läuft, dann ist das mehr als genug. Multitasking? Wozu? Der einzige 'parallele' Task, der damals relevant war, war der Druckertask. Nimm einen Drucker, der ein paar KB Pufferspeicher hat und du kannst ihm dein Textdokument in den Speicher blasen und der Rechner ist nach ein paar Sekunden wieder frei während der Drucker druckt. Es war nicht immer so wie heute, dass selbst simpelste Sachen mit mindestens 100kB zu Buche schlagen! Eine durchschnittlich vollgeschriebene Seite Din A4 in der Firmenkorrespondenz hatte nicht selten weniger als 1KB Speicherbedarf. Das Erstellen und Warten einer Autoexec.bat bzw. einer Config.sys stellte sowieso viele Firmen schon vor unüberwindbare Probleme. Unix mit seinem minimalistischen Ansatz in den Shells hätten da kein Mensch akzeptiert. Wenn die Durchschnittssekretärin einen DIR kannte und wußte, wie man die Textverarbeitung startet, dann war das schon sehr viel. Es ist mehr als einmal vorgekommen, dass ich von befreundeten Firmenbesitzern noch ca. 1990 rum gebeten wurde, mich ihrer Festplatte anzunehmen und mit ihnen gemeinsam Dateien zu löschen und aufzuräumen, weil sie das alleine nicht hinkriegen.
Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen Als IBM den PC heraus brachte, gab es einen anderen Platzhirsch auf dem Microprozessor-OS-Markt Digital Research mit seinem CP/M. http://de.wikipedia.org/wiki/Digital_Research DR war wohl etwas zu dämlich, bei IBM einen Fuß auf den Boden zu kriegen. Diese Situation nutzte Bill Gates mit Chutzpe "seinem" DOS, das keineswegs seine Entwicklung war und noch weit primitiver war, als die späteren Versionen, mit IBM ins Geschäft zu kommen. http://de.wikipedia.org/wiki/MS-DOS
Mark .. schrieb: > Hallo! > > ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil > wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu > verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Unix war doch schon deutlich früher da Unix benötigte in der Anfangszeit einen wesentlich grösseren Speicher, sodas Unix-Rechner mindestens doppelt so teuer waren. Ausserdem waren Unix-Rechner komplizierter in der Bedienung und deshalb als Bürorechner kaum geeignet. Ein "Standardbetriebssystem" gabs beim Aufkommen von MS-DOS sowieso nicht, sondern mindestens fünf Alternativen. Welche davon sich durchsetzen würde, war damals nicht absehbar. Gruss Harald
Harald Wilhelms schrieb: > Ein "Standardbetriebssystem" gabs beim Aufkommen von > MS-DOS sowieso nicht, sondern mindestens fünf Alternativen. So kann man das nicht sagen. In der 8-Bit-Welt war CP/M sehr verbreitet und es gab sogar eine Multiuser-Version davon: MP/M Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu vernagelt, sie zu nutzen.
Uhu Uhuhu schrieb: > Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu > vernagelt, sie zu nutzen. Sie haben im Verhandlungspoker verloren. Wollten pro Exemplar bezahlt werden, IBM aber nur einmal blechen. Welche Strategie da sinnvoller ist weiss man oft erst hinterher, denn die Gabe der Voraussage ist hauptsächlich jenen gegeben, die hinterher genau wissen wie sie früher selbst in der gleichen Situation entschieden hätten. Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die geleimten gewesen. Microsofts Glück war, dass in kurzer Zeit alle Welt den PC nachbaute - erst mit diesen Kunden wurde MS gross.
A. K. schrieb: > Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt > geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die > geleimten gewesen. Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt bleiben würde - das wurde auch so kommuniziert, als er heraus kam und die Hardware-Dokumentation war hervorragend. Nur hat man das bei DR entweder nicht begriffen, oder nicht ernst genommen. Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich besser, als das, was Gates damals zu bieten hatte. (Die erste Version von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.) Gates Vorteil war, daß er damals nur zu gewinnen hatte. Ich habe noch gut in Erinnerung, wie verblüfft wir damals waren, als wir hörten, daß DR nicht zum Zug kam. > Microsofts Glück war, dass in kurzer Zeit alle Welt den PC nachbaute - > erst mit diesen Kunden wurde MS gross. Sagen wir so: MS' Glück war, daß das IBM-PC-Konzept aufging. Wäre es nicht so geplant gewesen, dann hätte jeder Nachbauer ganz schnell ein Problem mit der IBM-Rechtsabteilung bekommen.
Uhu Uhuhu schrieb: > A. K. schrieb: >> Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt >> geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die >> geleimten gewesen. > > Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt > bleiben würde - das wurde auch so kommuniziert, als er heraus kam und > die Hardware-Dokumentation war hervorragend. Nennen wir die Dinge beim Namen. Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem Boden gestampft werden musste, weil es eigentlich keinen bei IBM wirklich interessierte, was aus ihm wird. IBM baute und verkaufte Großrechner.
Karl Heinz Buchegger schrieb: > Nennen wir die Dinge beim Namen. > Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem > Boden gestampft werden musste, weil es eigentlich keinen bei IBM > wirklich interessierte, was aus ihm wird. Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des Konzerns nach der ENIAC-Blamage wiederhergestellt haben. Daß das Ganze die Betriebswirtschftler in der Konzernspitze überfordert hat, liegt auf der Hand. Die waren - weder bei DR, noch bei IMB - jemals treibende Kraft des technischen Fortschritts, insofern überrascht das nicht. Daß die Rechtsabteilung nicht gegen den Nachbau tat, ist ein weiterer Hinweis in diese Richtung. Manchmal sind Juristen eben - wider Willen - kreativ...
Uhu Uhuhu schrieb: > Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt > hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des > Konzerns nach der ENIAC-Blamage wiederhergestellt haben. Die hatten sie schon in der 60ern längst ausgebügelt. Als sie eine Typen-Reihe brachten, die anders als bisher üblich ein breites Spektrum an Leistungs- und Anwendungsbereichen umfasste und die nicht in jeder Generation neu programmiert werden mussten. Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). Der Apple-II machte vor, wo der Weg lang gehen kann. IBM hatte das letztlich nur auf anderer Hardware-Basis etwas professioneller gestaltet. Und eine Plattform mit mehr Luft nach oben erwischt, während Apple sich danach mir Lisa selbst der Weg zunagelte.
A. K. schrieb: > Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). > Der Apple-II zeigte, wo der Weg langgeht. IBM hatte sich da letztlich > nur rangehängt und das etwas professioneller gestaltet. Das der PC schon technisch überholt war, als er heraus kam, ist richtig und wurde auch damals schon bemängelt. Diese professionellere Gestaltung gab aber letztlich den Nachbauern den Mut, sich auf dieser Schiene zu betätigen. Es war erkennbar kein Bastler-, oder Freak-Projekt. Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine Sackgasse gerannt, die aller Wahrscheinlichkeit tödlich enden würde.
Uhu Uhuhu schrieb: > Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine > Sackgasse gerannt. Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. Nur war da wenig Luft nach oben, das gab die 6502 CPU nicht her. Intels 8088 war zwar nicht grad das Ei des Kolumbus, aber bissel mehr als 6502 denn schon. Apples Nachfolger Lisa hatte dann zwar eine brauchbare CPU, aber damit erschöpften sich die Vorzüge auch schon. Über den Rest davon hat man bald den Mantel des Schweigens geworfen.
A. K. schrieb: > Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. Und genau den gab es beim PC nicht - so war es angekündigt worden und daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC ganz kräftigen Rückenwind bekam. Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen gehabt, in ein ähnliches Desaster, wie Lisa zu rennen. Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung nicht mehr völlig im Nebel lag.
Uhu Uhuhu schrieb: >> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. > > Und genau den gab es beim PC nicht - so war es angekündigt worden und > daran hielten sie sich. Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen. Das Ergebnis ist bekannt. Es war allerdings massgeblich auch Apple, die das Rennen dieser offenen Systeme verloren haben. Weil sie auf mehreren Wegen genau jene Vorzüge aufgaben, die den Apple-II ursprünglich ausmachten. Die Chancen waren da, Apple hatte es versiebt, IBM nicht.
A. K. schrieb: > Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem > Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen. > Das Ergebnis ist bekannt. Und was schließen wir daraus? Wenn die Wi"Wi"s das Ruder übernehmen, gehen nur sehr robuste Konzepte nicht über den Jordan ;-)
Und wenn Techniker das Ruder behalten, dann kommt die nächste Version erst raus, wenn sie perfekt ist. Also nie. Gleiches Ergebnis. ;-)
Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? Die innere Reibung eines Büromaschinen-Weltkonzerns, die technische Innovation im Keim erstickt?
Uhu Uhuhu schrieb: > Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? So wie ich die Zeit damals erlebt habe: Das er von IBM war. Das war schon was. IBM war damals nicht einfach irgendwer.
Karl Heinz Buchegger schrieb: > Uhu Uhuhu schrieb: >> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? > > So wie ich die Zeit damals erlebt habe: > Das er von IBM war. Das war schon was. IBM war damals nicht einfach > irgendwer. das kann ich bestätigen. Ich hatte mal eine Veranstalltung in Bezug auf Datensicherheit vor ca. 20 Jahren besucht. Die wurde von einem IBM Mitarbeiter gehalten. Er sagte dann zu uns, das er öfters ohne jede Identitätsfeststellung bis ins Rechenzentrum vorgedrungen ist. Hat halt nur "Ich komme von IBM" beim Pförtner gesagt und den bekannten Anzug getragen.
A. K. schrieb: > Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). Naja, 2 Typen von denen der eine ne Motorola Standardapplikation um edge connectors erweitert hat. Die Dinger hat er auch nicht erfunden sondern gekauft. Der andere, ein Unsympath vor dem Herrn hat das ganze dann vermarktet. Das war's auch schon. Später haben Sie dann bei Xerox Maus und Windows geklemmt und daraus nen richtigen Flop produziert. Genial ist das Marketing. Den ganzen Rübennasen zu verklickern das auf einmal Intel das Maß aller Prozessordinge ist wenn es denn vom Sektenführer persönlich verdongelt wird ist schon eine Meisterleistung. Vor allem nachdem 15 Jahre gepredigt wurde (und von man allen Seiten zu hören bekam) wie geil doch der PowerPc wäre während den jeder Profi bestenfalls in irgendwelchen Laserdruckern verortete. Bei MSDOS (ein Zukauf von Gates und Co) das dann als PCDOS in den ersten IBM PCs als OS diente gibt es nicht viel zu sagen. Es war allen völlig egal. Nach den absolut inkompatiblen benutzerfeindlichen und ständig sich veränderten Maschinchen der vor PC Ära wollten einfach alle einen Standard. Als das Wörtchen IBM auf den ersten Stand hat sich die genervte Anwenderschaar sofort darauf gestürzt und das andere gekrampfe in den in Orkus gekippt. Eine Art informellen Absprache um einen Standard zu geschaffen. Ähnlich ist das später beim iPhone gelaufen wo endlich mal was aus einem Guss den Konsumenten von dem Technikgewürge befreite (vom zwar bei Braun und Co.geklauten aber erstklassigen Design mal abgesehen).
Und seien wir mal ehrlich, gegen CP/M war MS-DOS schon richtig gut, command.com hatte 'dir' schon eingebaut :-) Ausserdem war es schon beim Bau des IBM-PC klar, das Intel an grösseren Prozessoren arbeitete, IBM hat zwar nie einen PC mit dem 8086 rausgebracht, aber der 8088 mit 8-Bit Krüppelbus kam ja nach dem 8086. Das Steckplatzkonzept des Apple ][ zeigte schon, das sowas eine gute Idee war, der IBM-PC hatte ja auch bis auf den Tastaturport keine einzige Schnittstelle und auch keine Grafikkarte. Für den 6502 gab es ja nie einen stärkeren Nachfolger, dieser war auch damals schon das Ende dieer CPU Schiene. Motorola hatte damit auch nichts zu tun, diese haben zur gleichen Zeit Prozessoren wie den 6800/6802 gefertigt. Der 6502 hingegen war von MOS und als bessere Alternative zum 6800 gedacht: http://en.wikipedia.org/wiki/MOS_Technology_6502
Kennt noch jemand die PC-Welt, wo man Assemblerprogramme abtippen konnte und dann mit Debug.exe daraus .com Programme gemacht hat. Peter
Ich war damals auch dabei. IBM hatte den Bedarf von PCs irgendwann vorher auf ein paar Hundert weltweit geschaetzt. Daher lohnte sich eine Entwicklung eines Betriebssystems nicht. Sie fanden einen kleinen Bastler, der das aus der Garage heraus anbot, und dabei schlau genug war, die Rechte daran zu behalten. Seltsamerweise war damals nichts neu. Der Trendsetter war und blieb Rank Xerox, die eine Denkfrabik laufen liess. Die hatten schon graphische Oberflaechen und Maeuse, bevor Apple oder Windows sie hatten. Daher waren weder Apple, noch Microsoft innovativ. Mein erster PC im '83 kostete 4500Fr, hatte eine 10MB Plarre und 640kB RAM. Ich hatte schon ein oder zwei Jahre vorher die Vorlaeufer bestaunt. Ohne Festplatte, dafuer 4 mal so teuer.
Zwoelf von Siebzehn schrieb: > IBM hatte den Bedarf von PCs irgendwann vorher auf ein paar Hundert > weltweit geschaetzt. Ich glaube, du verwechselst das mit der "Marktanalyse" i.S. Enigma. Die war ihnen Ende der 40er angeboten worden und sie lehnten wegen ähnlich kümmerlicher Erwartungen ab.
Etwa '85 kamen dann die '286 raus, ich konnte mir dann aber keinen leisten, war mit dem XT noch zufrieden. An einer IT Messe wagte ich mich an einen Intel Stand und frage nach dem geplanten '386. Und wurde von Intel gefragt was ich denn mit dieser gigantischen Rechenleistung machen moechte.
> wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Die ersten PCs hatten 16kByte Hauptspeicher, da lief kein Unix. Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches auf dem 8080/Z80 lief aber für den 8086 noch nicht fertig war, also nahm man MS-DOS. Mit MS-DOS 2.0 für Maschinen mit mindestens 64kByte wurden unix-ähnliche Funktionen hinzugefügt, danach gab es keinen Bedarf für Unix (Xenix) mehr.
Michael Bertrandt schrieb: > Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches > auf dem 8080/Z80 lief Das beschränkte sich aber auf die eingebauten Kommandos. Die Betriebsystem-schnittstelle war es nicht - wie auch, denn CP/M ist ein 8-Bit System, während der 8088 ein 8 1/2-Bitter war ;-) > aber für den 8086 noch nicht fertig war, also nahm man MS-DOS. So banal wars nicht...
Uhu Uhuhu schrieb: > Das beschränkte sich aber auf die eingebauten Kommandos. Die > Betriebsystem-schnittstelle war es nicht Ach? Dann vergleiche doch mal den BDOS API von CP/M http://www.seasip.demon.co.uk/Cpm/bdosfunc.html mit dem MS-DOS Int21 http://www.i8086.de/dos-int-21h/dos-int-21h.html
A. K. schrieb: > Dann vergleiche doch mal den BDOS API von CP/M Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80 nicht... Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den sehr unterschiedlichen Speichermodellen.
Uhu Uhuhu schrieb: > Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80 > nicht... Muss das jetzt wirklich auf derart unterirdischem Niveau landen? Willst du mir ernsthaft erzählen, dass ein Betriebssystem-API auf verschiedenen Plattformen allein schon dadurch ein völlig anderer wird, weil er nicht mit exakt dem gleichen Einsprungbefehl aufgerufen wird? > Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den > sehr unterschiedlichen Speichermodellen. Sicher. Aus DE wurde DS:DX oder so. Und? Es behauptet doch niemand, dass CP/M Programme Bit für Bit und Byte für Byte exakt lauffähig waren. Ein 8088 ist halt kein 8080. Aber der MS-DOS Int21 ist eindeutig direkt aus dem BDOS-API abgeleitet. Viel Arbeit beim Portieren von Programmen machte das nicht - und genau darum ging es dabei.
A. K. schrieb: > Sicher. Aus DE wurde DS:DX oder so. Und? Das eine sind 16 Bit, das andere 32, die zu einer 20-Bit-Adresse kombiniert werden. Diese Kompatibilität ist reine Augenwischerei, denn sehr viele Programme aus der 8-Bit-Welt waren in ASM geschrieben - da bedeutet Portierung Neuschreiben. Das war einfach Anlehnung an das Vorbild CP/M, mangels besserer Ideen. Ich hatte mal einen Job, bei dem es darum ging, einen Programmteil in PL/M zu schreiben. Das war ein Fehlschlag, weil das Compilat viel zu riesig und das Zeitverhalten zu behäbig war, als daß man es auf einem 8080 mit 64 KB RAM einsetzen konnte. Der Compiler war einfach bescheiden - und furchtbar langsam.
Die Leute von CP/M waren damals im Urlaub. Da haben sie eben DOS genommen.
Um das ganze Thema auch ein wenig medial zu untermauern, empfehle ich eine Doku und einen Speilfilm: 1. "Eine kurze Geschichte des PC", z.B. hier: http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-Geschichte-des-PC 2. "Die Silicon Valley Story", z.B. hier: http://www.new-video.de/film-die-silicon-valley-story/ Den Spielfilm leider nicht hier öffentlich als Link, gibts aber, wenn man ein wenig sucht ... ;-)
Matthias Sch. schrieb: > IBM hat zwar nie einen PC mit dem 8086 > rausgebracht Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab. Den '30 gab es ein Jahr später als ernstgemeintes System 30/286, das ein mit 10 MHz getakter AT war, einer der netteren IBM-Rechner, und ohne diesen MCA-Kram.
Matthias Sch. schrieb: > Für den 6502 gab es ja nie einen stärkeren Nachfolger, Doch. Eine 16-Bit Version: http://en.wikipedia.org/wiki/WDC_65816/65802 Aber das war ein Design zum Abgewöhnen.
Zu dem Erfolg von IBM-PC, MS-DOS und x86 hat nicht zuletzt INTEL selbst durch Wahrung der strikten Rückwärtskompatibilität bei der Weiterentwicklung seiner Prozessoren (insb. ab 386) beigetragen. Die Altleichen (z.B. A20-Gate) führten bzw. führen immer wieder zu Problemen und unschönen workarounds, aber bewährt hat sichs dennnoch. Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch jedenfalls) ;-)
Hans Franz schrieb: > Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer > MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch > jedenfalls) ;-) Lang lebe MS-DOS ;-). Versuch aber nicht, auf einen aktuellen Server ein Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den üblichen Inst-Medien.
A. K. schrieb: > Versuch aber nicht, auf einen aktuellen Server ein > Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den > üblichen Inst-Medien. Das hat aber andere Gründe ;-)
>1. "Eine kurze Geschichte des PC", z.B. hier: >http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-... Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!, das waren eigentlich die ersten PCs. Auch gab es neben dem Altair (der ein ganz schön komisches Bussystem hatte) weitere ähnliche Bauten mit Intel-Chips. Auch Bill Gates hatte sich an der Hardware versucht.
Uhu Uhuhu schrieb: > Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt > hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des > Konzerns nach der ENIAC-Blamage wiederhergestellt haben. Wie schnell doch Geschichte umgeschrieben wird... Das waren keine Visionäre, sondern Bastler. Es wurde ein Prototyp für ein neues Terminal kurzerhand zu einem PC ungefriemelt und das mit technischen Rückschritten gegenüber dem was zu dem Zeitpunkt bereits auf dem Markt war. Statt eines ordentliches Busses wurde der CPU Bus auf Stecker verlängert, damit war die DIP-Schalter-Arie erfunden. Interruptpriorisierung? Wozu das denn, einfach druff, die Software wird schon irgendwie rausfinden welche Karte sich da melden wollte. Tatsache ist, dass IBM keine neue Rechnerklasse wollte, sondern eine möglichst miese Kiste, die dazu dienen sollte die Kunden so schnell wie möglich davon zu überzeugen, dass diese Microcomputer Spielzeug sind und man doch besser die "professionellen" Computer kaufe sollte. Dank der damals üblichen detaillierten Hardwaredokumentation und dem Einsatz ausschließlich von Standardteilen war es jeglichem Mitbewerber möglich die Dinger sofort zu kopieren, das "Betriebssystem" war ja ohnehin bei Microsoft käuflich. Unfall im Marktgeschehen nennt man so was, nicht geplanter Erfolg. Und schon gar nicht "das Bessere wird sich durchsetzen", tatsächlich hat sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem betrifft, als auch was den Treppenwitz von einem Prozessor angeht. Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit Blattfedern fahren.
MCUA schrieb: > Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!, > das waren eigentlich die ersten PCs. Nicht wirklich. PC heisst persönlicher Computer und persönliche zugeordnete Rechner waren die Minicomputer dann doch nicht. Sie hatten zwar keinen RZ-Betrieb, aber es waren eher Arbeitsgruppenrechner oder projektbezogen. Sowas ähnliches gabs in den 50ern auf Röhrenbasis, als IBM 650.
Guido Körber schrieb: > Statt eines ordentliches Busses wurde der CPU Bus auf Stecker > verlängert, damit war die DIP-Schalter-Arie erfunden. Das war auch nicht als Design für Jahrzehnte gedacht, sondern für einfach und billig. Intels x86-Architektur ebensowenig, auch Intel hat mehrfach bewiesen, dass sie nicht weiter als bis zum nächsten Laternenpfahl denken konnten oder wollten. Interessant wurde es anno AT, also dem 16-Bit ISA-Bus. Weil da ein Timing eingeführt wurde, das streng genommen nicht funktionieren kann. Weil ein aus Adressleitungen abgeleitetes Signal eigentlich bereits vorhanden sein muss, noch bevor die Adressleitungen offiziell gültig sind. > Interruptpriorisierung? Also sachte, die gab es von Anfang an! Blöd war nur, dass Intel sich dabei für positiv flankengetriggerte statt negativ pegelgetriggerte Interrupts entschieden hatte.
Guido Körber schrieb: > Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende > Architektur auf dem Desktop. Das wär was für "Wetten Dass" auf Nerdisch: Jemand, der behauptet, sämtliche historischen und aktuellen x86-Befehle am Opcode zu erkennen, und welcher Prozessor welche implementiert. ;-)
> Dank der damals üblichen detaillierten Hardwaredokumentation Der PC hat sich durch das offene System durchgesetzt. Deckel auf, andere Karte rein, Deckel zu. Am Anfang gab es noch kein Plug and Play, es war trotzdem das flexibelste bezahlbare System auf dem Markt. Das Betriebssystem hieß am Anfang PC-Dos und wurde von Microsoft für IBM programmiert. Den halbfertigen Quellcode hatten sie von einer anderen Firma übernommen. Dann hat Microsoft es geschafft, sich das Recht am Quellcode durch winklige Schachzüge unter den Nagel reissen. Schon seit dieser Zeit beschäftigen die mehr Anwälte als Programmierer. > Und die ersten Windows-Versionen hatten Startzeiten, > da konnte man ein Ei hart kochen. Ein Windows 2.0 hat auf einem 386er 12 Sekunden zum hochgefahren gebraucht. Heute werden zwar viel mehr Prozesse gestartet, aber die Rechner sind auch 1000 mal schneller. Aber sind sie das wirklich? Durch das aktuelle Betriebssystem und neuere Software wird der Rechner regelmäßig bis zur Schmerzgrenze runtergebremst (Meine subjektives Empfinden). Das Antivirus will vor dem Start schon updaten, und bis dann alle Anderen nach Hause telefoniert haben könnte man ein Ei hartkochen.
B e r n d W. schrieb: > Aber sind sie das wirklich? Nur die virtuellen, die sind so schnell aus dem BIOS/UEFI raus, dass man ernste Probleme dabei hat, überhaupt in die BIOS-Config reinzukommen. Wenn du aber einem ordentlichen Server aus Blech mal beim Booten zusiehst, dann ist das Ei schon geniessbar, noch bevor das Betriebsystem überhaupt zum Zuge kam.
Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für Grossrechner zahlen. Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten, die für einzelne Personals (mehr oder weniger) erschwinglich waren. >Statt eines ordentliches Busses wurde der CPU Bus auf Stecker >verlängert, Und beim Altair (wollte halt eher mal schnell was verkaufen, nicht lange entwickeln) verliefen manche Busleitungen quasi Leere. >tatsächlich hat >sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem >betrifft, als auch was den Treppenwitz von einem Prozessor angeht. >Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende >Architektur auf dem Desktop. Ja, nur wegen Rückw-Kompatibilität.
DOS wurde anfangs gratis den Rechnern beigelegt als eine reine OEM Systemvariante.
MCUA schrieb: > Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für > Grossrechner zahlen. > Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten, > die für einzelne Personals (mehr oder weniger) erschwinglich waren. Du weißt, was das für Brocken waren?
Hallo, eine der wesentlichen Ursachen für den Erfolg von DOS war die bessere Kundenorientierung bzw. deren völliges Fehlen bei den Unix-Anbietern. Wir wollten z.B. unsere Kunden namens Müller auch so anschreiben, nicht als Mueller, und das auch auf den SUN-Computern für die Technik, nicht nur auf dem PC. Darauf erhielten wir nur die extrem unverschämte Antwort "wer nicht Englisch kann, ist für den Umgang mit unseren Unixcomputern nicht qualifiziert", eine deutsche Tastatur gab es nicht. Die Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die Anpassung an Länderspezifika von vornherein selbstverständlich - ein Quantensprung in der IT-Entwicklung! Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit 7bit-ASCII-Code schreiben. Mit freundlichen Gruessen Reinhard PS ich würde heute noch so entscheiden: lieber ein ab und zu abstürzendes System, das Deutsch kann, als ein stabiles, mit dem man nur englische Texte schreiben kann.
Uhu Uhuhu schrieb: > Du weißt, was das für Brocken waren? Die ersten eigenständigen CAD-Systeme von Racal-Redac basierten auf DEC VAX. Meiner Erinnerung nach, ich habe mal solche Systeme besichtigt, die uns gebraucht angeboten wurden, waren die Preise ca. 700000 DM für die VAX und 280000 DM für den Farbbildschirm. Plus Software natürlich. Unsumme ist halt ein relativer Begriff. Gruss Reinhard
Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch wen Windows intern anscheinend UTF-16 verwendet???), während der Rest der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.
Hallo Reinhard, CAD, CNC, DNC und so weiter hatten wir schon auf dem Vorläufer der VAX einer PDP-11 betrieben, mit Präprozessor und Grafikausgabe. War ein Schweizer Produkt, saugut aber auch sauteuer. Gruss Roman P.S: Der seine erste Datenverwaltung in Fortan auf PDP-11 schrieb.
Lukas K. schrieb: > gettext zur Lokalisierung während der Laufzeit schon seit '95. das ist ja wohl ein witzt, texte tauschen kann jeder. Lokalsierung ist ein wenig mehr (links rechts ausrichtung, andere einheiten, Satzstellung, usw.). Und dann wird es noch so weit getrieben das sogar der compiler die Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber Hauptsache Lokalisiert.
Peter II schrieb: > links rechts ausrichtung, andere einheiten, > Satzstellung, usw. Ausrichtung: Dafür gibt's Unicode, hebräische Schrift ist automatisch rechtsbündig. Satzstellung: was meinst du damit? Gettext hat damit kein Problem, der Übersetzer muss nur die Platzhalter richtig verteilen. Und auch Pluralbildung geht mit gettext. Kein Krampf wie '1 Objekt(e) ausgewählt' mehr. Wenn ich mich recht erinnere hat microsoft das mittlerweile aber auch in den Griff bekommen (hab' grad nur Windows 2000 zur Hand). Peter II schrieb: > Und dann wird es noch so weit getrieben das sogar der compiler die > Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber > Hauptsache Lokalisiert. Macht microsoft genauso schlimm. Dagegen kann ich auf Unix einfach LANG=C make aufrufen und hab die Compiler-Ausgaben in nicht lokalisierter Form.
Lukas K. schrieb: > bei den Zeilenumbrüchen sieht es ähnlich aus. Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix. Und rasch ist auch ein sehr relativer Begriff. Die traditionellen Anbieter wie HP und Sun haben das Eingehen auf Kundenanforderungen einfach für unter ihrer Würde gehalten (dass es technisch gegangen wäre, ist ja zutreffend, aber man wollte einfach nicht). Die Folge war, dass neben jeder Workstation jahrelang ein PC stand, um die "trivialen" Aufgaben der Verwaltung zu erledigen. Dumm nur für Unix, dass die PCs sehr schnell immer leistungsfähiger wurden und nach und nach die Workstations weitgehend ersetzt haben. Ein normaler PC leistet heute auch als CAD-System weit mehr als eine millionenteure Anlage aus dem Unix-Zeitalter, mit der man nicht mal eine Rechnung schreiben konnte. Man hätte also nicht müssen, aber man hats versaut. Gruss Reinhard
Reinhard Kern schrieb: > Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix. Ich hab mal diverse populäre Webseiten untersucht, nur microsoft.com verwendet CRLF, der Rest sendet nur ein LF. Das Verwundert auch nicht weiter, denn außerhalb von Microsoft ist ja praktisch alles UNIX-ähnlich: Linux, Mac OS, Android, iOS, etc..
Lukas K. schrieb: > Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber > rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's > gettext zur Lokalisierung während der Laufzeit schon seit '95. Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber stricken. > Auch sonst Microsoft hält immer noch an Windows-1252 als Encoding fest > (auch wen Windows intern anscheinend UTF-16 verwendet???), während der Rest > der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus. Weil es UTF-8 noch nicht gab als MS mit der NT Entwicklung begonnen hatte. Bei den ersten Versionen war es noch UCS-2, erst ab afair W2k war es UTF-16. Zeilenumbrüche macht eigentlich nur Windows/DOS richtig. Line Feed alleine bringt nichts, wenn der Druckkopf noch an der falschen Stelle steht scnr. Wenn heute immer noch CR,CR+LF,LF genutzt wird, könnte man auch fragen warum niemand den Standard nutzt: U+2028 (Line separator) http://www.unicode.org/charts/PDF/U2000.pdf
@Lukas K. (Firma: carrotIndustries) (carrotindustries) >Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber >rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's Was ist da hardcoded? >gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch >sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw. Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten noch nie). >wen Windows intern anscheinend UTF-16 verwendet???), während der Rest >der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus. Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine andere Codpage benutzen, wenn Du die vorher aktiviert hast. In dem einen Notepad schreibst du in russisch, im anderen Notepad in deutsch. Und wenn du willst, auch beide Zeichensätze in einem Notepad. Windows benutzt UCS-2 (UTF-16 bei den neueren Versionen möglicherweise, was aber bei den üblichen Sprahcen keinen Unterschied macht). Daß Systemmeldungen weiterhin in der voreingestellten Sprache ausgegeben werden, ist eine andere Sache.
Jens G. schrieb: > Was ist da hardcoded? Die Lokalisierung steht in der Binärdatei mit drin. Ist jedenfalls bei Windows 2000 so, bei XP afaik auch noch, mit Vista wurd's dann besser. Jens G. schrieb: > Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw. > Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also > nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten > noch nie). Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte Problemlos einen Text mit griechischen, kyrillschen und Lateinischen Zeichen schreiben. Jens G. schrieb: > Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine > andere Codpage benutzen, Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode. Arc Net schrieb: > Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber > stricken. Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht. Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller Programme zu ändern. Was die Zeilenumbrüche anbetrifft. Microsoft könnte sich jedenfalls mal die Mühe geben, wenigstens Unix-Zeilenunbrüche zu unterstützen, sprich als solche darzustellen.
> während Windows bis XP Hardcoded-Lokalisiert war, gibt's > gettext zur Lokalisierung während der Laufzeit schon seit '95. Man muß arg verbrettert sein, um darin die Wahrheit zu sehen. > Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine > andere Codpage benutzen Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980, in MS-DOS, und natürlich in jedem Windows und OS/2. Seit WindowsNT ist das jedoch Geschichte, seit WindowsNT basieren alle Microsoft-Systeme auf Unicode. Unter Linux kommt erst neuerdings UTF8 als Basiszeichensatz z.B. für Dateinamen, also bereits in der Installation, auf: http://nebelwelt.net/studies/visionen-articles/utf-8-unter-linux/ RedHat 2003, Suse 2004, also 10 Jahre nach Microsoft. Modernste Betriebssysteme, wie iOS, können es immer noch nicht, dort ist z.B. setlocale von C nur für "C" und "POSIX" möglich.
>Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte >Problemlos einen Text mit griechischen, kyrillschen und Lateinischen >Zeichen schreiben. Win benutzt intern auch nur ein Encoding, schon länger, als das bei Linux üblich war? (oder was meinst Du sonst mit EIN Encoding?) >Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode. Was glaubst Du, was 1252 ist - ein Codeset, welches letztendlich als Codepage in einem Computer verwendet wird. So ist es auch in Unicode, welches z.B. als UTF-x verwendet wird. Letztendlich meinte ich aber, daß Win grundsätzlich mit jedem Zeichen klarkommt (weil intern Unicode verwendet wird). Nur die Interaktion mit dem User muß zumindest bei der Eingabe auf z.B. ein Codeset eingeschränkt werden, weil so große Tastaturen für alle Zeichen hat man ja nicht. Und die Programme müssen natürlich Unicodefähig sein, was je nach Programm nicht unbedingt der Fall sein muß.
@MaWin (Gast) >> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine >> andere Codpage benutzen >Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980, >in MS-DOS, und natürlich in jedem Windows und OS/2. Ich meinte gleichzeitig in mehreren Programmen zur selben Laufzeit ....
Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich. Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber nicht ohne Abstraktion an die Anwendungen weiterreichen sondern Regionsspezifische Encodings verwenden???
Lukas K. schrieb: > Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber > nicht ohne Abstraktion an die Anwendungen weiterreichen sondern > Regionsspezifische Encodings verwenden??? Es gibt schlicht beides. Der Windows-API stammt aus Zeiten vor Unicode, folglich müssen Programme mit den alten 8-Bit Zeichensätzen unterstützt werden. Wem das zu blöd ist, der verwendet die API-Funktionen in ihrer Unicode-Variante direkt, völlig ohne Codepage. Das geht nämlich sehr wohl. Linux und Unix haben andererseits das Problem, dass es keinen festgelegten Charset für Filesysteme gibt. Wenn eine Anwendung aus historischen Gründen die Filenamen mit ISO-Charset schreibt und darauf aber auch ein Samba mit UTF-8 stitzt, dann gibts Chaos. Ähnlich Probleme gibts bei Backup-Software. Windows speichert in definiertem Charset und konvertiert je nach Art des API.
@Lukas K. (Firma: carrotIndustries) (carrotindustries) >Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich. >Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber >nicht ohne Abstraktion an die Anwendungen weiterreichen sondern >Regionsspezifische Encodings verwenden??? Ich sagte doch: >Und die Programme müssen natürlich Unicodefähig sein, was je nach >Programm nicht unbedingt der Fall sein muß. Wenn die Programme nur für 8bit-Zeichensätze ausgelegt sind, dann nützt denen natürlich auch kein Unicode. Und wenn Win aktuelle auf 1252 eingestellt ist, und man jubelt einen ollen Programm Zeichen unter, die eigentlich als 1253 zu interpretieren währen, dann kommt nur npoch Datenmüll heraus, weil diese dann als 1252 interpretiert werden (wen man Glück hat, enthalten die Daten nur den Basiszeichen satz (die ersten 127Byte), dann wird sogar noch was draus). Sieht man sehr schön mit der Kommandozeile, die man mit chcp auf 437 oder 1252 einstellen kann. Bei 437 kommt Datenmüll heraus, wenn man eine 1252-codierte Textdatei mit type anschauen will
Lukas K. schrieb: > Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode. Wird von ernstgemeinten Windows-Versionen seit 1993 genutzt.
Lukas K. schrieb: > Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte > Problemlos einen Text mit griechischen, kyrillschen und Lateinischen > Zeichen schreiben. Jein... http://lfsbook.linuxfromscratch.org/blfs/view/svn/introduction/locale-issues.html usw. usf. > Arc Net schrieb: >> Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber >> stricken. > Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht. > Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller > Programme zu ändern. Genau das wollen ich und einige andere (Kunden) nicht. Bspw. nutzte ich zwar meist das OS in Deutsch, die IDEs aber grundsätzlich in Englisch (früher auch mit englischer Tastaturbelegung). Einige Kunden wollen grundsätzlich eine xyz-sprachige Oberfläche, egal was das OS sagt (inkl. Zahlen/Datumsformat/Einheiten etc.)
Reinhard Kern schrieb: > Die > Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung > gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die > Anpassung an Länderspezifika von vornherein selbstverständlich - ein > Quantensprung in der IT-Entwicklung! meinst du "Einfach gesagt, ist ein Quantensprung eine Zustandsänderung in einem sehr kleinen System, also eine sehr kleine Änderung der Wirklichkeit." (http://de.wikipedia.org/wiki/Quantensprung)
Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war ausschließlich auf sündhaft teuren Workstations im Einsatz. Damit konnte das schon mal kein Massenbestriebssystem werden. Im Gegnsatz dazu war MS-DOS und später Windows von Anfang an für jedermann ausgelegt. Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die besseren Prozessoren hatten. Das gab dann den Unix-Workstations den Rest. Damit hat MS-Windows dann auch noch den Workstation Markt abgeräumt.
Helmut S. schrieb: > Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war > ausschließlich auf sündhaft teuren Workstations im Einsatz. Für normale PCs gab es auch einige Unixe. Sogar schon für 286. Ab Mitte der 90er gab es dann die freien BSD-Derivate. > Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die > besseren Prozessoren hatten. Der Schlüssel war bereits 1995 der Pentium Pro, der zu den RISCs aufschliessen konnte. Im weiteren Verlauf entschied dann der bei vergleichbarer Leistung günstigere Preis der x86-Massenware.
Klar gab es auch ein bisschen Unix auf PCs, aber das waren Exoten. Die
haben keinen nennnenswerten Marktanteil errungen. Ich sag nur SCO.
> Im weiteren Verlauf entschied dann der bei vergleichbarer Leistung günstigere
Preis der x86-Massenware.
Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations
konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht
mehr das Wasser reichen.
Helmut S. schrieb: > Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations > konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht > mehr das Wasser reichen. Das hing aber direkt mit der Preis-Situation zusammen. Entwicklung solcher Highend-Prozessoren ist von Generation zu Generation immer teuer - und zwar vorfinanziert. Da die x86 Entwicklung auf viel mehr Exemplare umgelegt werden konnte, waren die Resourcen einfach nicht gegeben, eine adäquate Entwicklung weiter zu führen. Die Alpha-Architektur wurde dann ausserdem von Intel mit dem Ziel aufgekauft, diese unliebsame Konkurrenz einzustampfen. Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und die Systeme dazu rangieren unverändert ganz vorne. Nur sind die schlicht zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs.
Ja. Es gab das SCO. Das war aber extrem teuer, und bei weitem nicht so komfortabel wie die heutigen Linuxe. Alleine die Administration war ein Alptraum.
Es gab auch Microport Unix, das war keineswegs extrem teuer. Klar, konsequent durch Tools wie smit (AIX) oder yast (Suse) gestützte Administration war damals in Unix/Linux nicht sonderlich verbreitet. Das ist bis heute nicht durchgängig der Fall (z.B. BSD, debian). Für Windows-Jünger ist die Administration von Unix-Systemen auch heute noch ein Alptraum (und umgekehrt - in welcher von zig Dialogboxen war die verdammte Einstellung noch mal und wo finde ich die?). Das hat aber auch Vorteile: Wer es kann wird besser bezahlt. ;-)
Rufus Τ. Firefly schrieb: > Matthias Sch. schrieb: >> IBM hat zwar nie einen PC mit dem 8086 >> rausgebracht > > Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die > Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab. Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400. Mann, die hatten doch sogar so ein merkwürdiges Bussystem, auf dessen Name ich jetzt nicht komme. Dadrin war eine gefrickelte Karte mit komischen IBM Chips(2*2cm grosse Metallrechtecke), die über ein Multicore mit der AS400 verbunden war. Neben einem Z80 Computer mit Oasis Betriebssystem und einer 10MByte HDD (8-Zoll!) war das eine der merkwürdigsten Arrangements meiner Computerlaufbahn.
> weshalb das aber nicht ohne Abstraktion an die Anwendungen weiterreichen
Tut Windows, alle Funktionen gibt es als W (widechar=unicode),
nur gibt es auch Programmierer die so wie du nicht wissen was
Unicode ist und das nicht verwenden, für diese Uninformieretn
gibt es alle Funktionen noch mal als A-Funktionen im lokalen
Zeichensatz, eigentlich gedacht als Rückwärtskompatible.
Es gibt unter Windows auch sehr schöne header-Dateien mit denen
man das automatisch machen kann, unter Linux muss man sich die
selber schreiben.
Lukas, du bist so uninformiert, du solltest lieber die Füsse
still halten. Linuxs hat erst 10 Jahre später Unicode umgesetzt
(und es funktioniert dort immer noch nicht überall).
Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
sind die bessere Implementation als 16 bit wie es Windows tut.
@Matthias Sch. (Firma: Matzetronics) (mschoeldgen) >Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir >Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400. Was - brauchte die AS400 einen Anlasser?
@MaWin (Gast) >Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen >sind die bessere Implementation als 16 bit wie es Windows tut. UTF8 ist universeller ausgelegt, und kommt verglichen mit UTF16/UCS2 mit vergleichsweise weniger Speicherplatz aus, sofern man mal bei lateinischen Zeichen bleibt. Allerdings hat das auch den Nachteil, daß UTF8-Strings keine vorhersagbare Bytelänge haben - will man also eine Stringvariable haben, die sämtliche UTF8-Zeichen aufnehmen können muß, dann muß man notfalls 4Byte/Zeichen vorsehen (gilt auch für UTF16, nicht aber UCS2). Auch der generelle Prozessing-Overhead ist höher, weil man einfach 1/2/3/4-Byte-Zeichen unterscheiden muß (bei UCS2 generell kein Problem, bei UTF8 erst ab 3Byte-Zeichen) Das ursprüngliche UCS2 und jetzige UTF16 betrachte ich also nicht so sehr als unglücklich.
Jens G. schrieb: > Was - brauchte die AS400 einen Anlasser? Alte IBM-Tradition: Servicerechner steuert Hauptrechner. Mindestens bei den früheren Maschinen war es auch hardwareseitig sparsamer, die diversen Kompenten des Hauptrechners durch Software auf dem Servicerechner zu initialisieren, als dazu eigens Hardware einzubauen. NB: Intels aktuelle Prozessoren haben einen Microcontroller an Bord, der beispielsweise die thermische Situation kontrolliert (PCU = power control unit). Kann schon sein, dass der noch mehr macht als nur das.
MaWin schrieb: > (und es funktioniert dort immer noch nicht überall). Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie Probleme mit mangelnder UTF-8 Unterstützung.
Jens G. schrieb: > Was - brauchte die AS400 einen Anlasser? Ja. Die AS400 hatte eigentlich nur die Twinax Netzwerkanschlüsse (bei uns warens 2 für 2 Segmente) und einen Steckplatz für die Multicore-Verbindungskarte zum Modell 25. Auf dem Model 25 wurde nach dem Booten von MS-DOS ein Progamm zum Starten und Verwalten der AS400 gestartet. Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1 Megabyte RAM!".
Uhu Uhuhu schrieb: > Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? Die Offenheit. Jeder konnte sich selbst eine Zusatzkarte bauen und reinstecken, der recht simple 8088-Bus war einfach zu handhaben und die Anwendungsprogramme konnten direkt in die Hardware greifen. Keine virtuelle Adressierung und trotzdem dank Segmentregistern auf verschiedene Adressen ladbare Programme, von denen auch mehrere gleichzeitig geladen sein konnten ("TSR") Kurzum, mit dem IBM-PC....XT....AT konnte man viel mehr machen als mit allen in sich geschlossenen Systemen. Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? Ach Mark, du redest seltsam daher. MSDOS war von Anfang an ein PC-Betriebssystem - ganz im Gegensatz zu Unix, was übrigens damals m.W. stinketeuer war. Unix ist im Sinne der Rechenzentren der späten 60er Jahre konzipiert: es gibt eine strikte Trennung von Usern und Administratoren, keinerlei Hardwarezugriff durch User, Volumina müssen vom Admi aufgelegt und dem betreffenden User in seinen Homebereich gemountet werden - und später wieder unmounted werden. Systempflege aller Art durch User war ausgeschlossen und das direkte Steuern von irgendwelcher Hardware außerhalb des Mainframes war nicht vorgesehen. Die Benutzung durch die User war im wesentlichen auf Rechen- und Organisations-Aufgaben beschränkt, falls die überhaupt direkten Kontakt zum Rechner hatten. Viel üblicher war der Job-Betrieb. Da gab man einen Blechkasten mit wohlsortierten Lochkarten an einer Luke des Rechenzentrums ab und kam am nächsten Tag vorbei, um die Ergebnisse abzuholen und den Job zu bezahlen. Glaubst du, ein Betriebsystem, das für solch ein Environment konzipiert ist, wäre auch nur ansatzweise geeignet gewesen für einen PC, also einen Persönlichen Rechner? Hier muß der Besitzer alles selbst machen, er saß (wie heute auch) höchstpersönlich vor dem Ding um es zu benutzen und so einzurichten, wie er es braucht. Und nochwas: RAM war damals sauteuer! Und ne grandiose Festplatte mit 8 MB (später 20 MB) war ebenfalls sauteuer - man könnte auch sagen "unbezahlbar". Und hier referiert ein ahnungsloser Frischling von "haushoch unterlegen" daher... Nee, Unix war und ist auch heute noch an die Bedürfnisse in den Gefilden der persönlichen Rechenkisten nicht wirklich angepaßt - und genau darum geht es. Alle typischen Männer-Diskussionen, wer am größten oder dicksten oder stärksten ist, sind Mumpitz. Sinnvolle Angepaßheit von Lösungen ist das eigentliche Thema. MSDOS war an die Verhältnisse am IBM-PC gut angepaßt, CP/M-86 war es nicht. Ich hatte beide wahlweise auf der Kiste, die damals ja noch von Floppy gebootet wurde. Zuerst satte 360 K Byte, später dann auch 720 K. Da hat MSDOS draufgepaßt, jaja. (waren das wirklich 360 K? ist schon zu lange her...) W.S.
Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in der Firma) wissen von Dos noch viele was aber Unix ist eher weg . Irgend was war einprägsamer für den User was auch immer.
> waren das wirklich 360 K?
Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5"
Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein
Loch reingestanzt werden.
Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded
Projekt entwickelt. Dazu hab ich drei Disketten benötigt. Quellcode,
Editor, Compiler, Linker und Eprom-Programmierer haben auf zwei Floppys
leider nicht draufgepasst. Später gabs dann einen AT mit 20MByte
Festplatte.
@Lukas K. (Firma: carrotIndustries) (carrotindustries) >MaWin schrieb: >> (und es funktioniert dort immer noch nicht überall). >Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie >Probleme mit mangelnder UTF-8 Unterstützung. sagt ja auch keiner, daß es allgemein nicht funktioniert. Aber soweit ich weis, ist das Linux-Filesystem z.B. nicht explizit auf Unicode ausgelegt, der Kernel auch nicht. Die Dateinamen werden einfach in der Codepage gespeichert, in der diese übergeben werden. In Win ist das Filesystem schon entsprechend ausgelegt. Man kann in Win keine Dateinnamen in irgendeiner ASCII-Codepage anlegen, nur weil ein olles 1252-Programm (wie die Cmd line) das so will, sondern es wird fein säuberlich in Unicode abgelegt (wird also vorher in Unicode umgewandelt). In Linux wird das meines Wissens so abgelegt, wie das Programm das übergeben hat - da kann man also Zeichencodierungen in allen Codepages wiederfinden, incl. Unicode natürlich, wenn man mit entsprechenden Umgebungen drauf zugreift. Hat man da was kyrilisch (8bit Codepage) abgespeichertes abgelegt, muß man wissen, daß es kyrillisch sein soll, sonst sieht man nur Müll. Da nützt mir auch eine sonst unicodefähige Umgebung nix, denn die zeigt auch nur Müll an. Man braucht also etwas, was die Zeichen als kyrilisch interpretiert. Solange irgendwelche Programme diese Dateinamen uninterpretiert verarbeiten, ist das kein Problem. Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert.
B e r n d W. schrieb: > Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded > Projekt entwickelt. Ich auf einem XT, mit 320k Ram und 2x 5 1/4 Floppy. Auch 3 Disketten. Dann kam Autocad mit 14 Floppys, ging aber auch, irgendwie wenn auch langsam. Den Plotter haben wir von ner HP Anlage geliehen 5 stellige Summe und das LPT - HP-IB Interface das mit den 3 embedded Floppys entwickelt wurde ging auch, irgendwie. Hat sich aber gelohnt, irgendwie, so über die Jahre ;-).
@ Matthias Sch. (Firma: Matzetronics) (mschoeldgen) >Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau >von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog >sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen >entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1 >Megabyte RAM!". Das waren die wohl unserer Zeit weit voraus ;-) Denn heute ist doch sowas gang und gäbe: - Autos/Motorräder (deren Motoren) werden künstlich gedrosselt, um unterschiedliche PS-Zahlen anbieten zu können (bei gleichem Motor) - in irgendwelchen Geräten oder SW lassen sich zusätzliche Features freischalten - man muß nur wissen, wie - die ganze Druckertechnik wird künstlich gegängelt - naja - usw ... IBM hat also damals schon gezeigt, wie man das macht ;-)
@ nennonnem (Gast) >Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt >und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in >der Firma) wissen von Dos noch viele was aber Unix ist eher weg . >Irgend was war einprägsamer für den User was auch immer. Naja - DOS war einfach einfacher, nicht so verwirrend in den Kommandos, übersichtlicher - das läßt sich einfacher merken.
Matthias Sch. schrieb: > Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau > von 512 kByte auf 1 MByte auf der AS400. Da wird noch heute ein Prinzip draus. Ein paar der grösseren Rechner von dem Verein werden mit "performance on demand" verkauft, sicherlich auch bei den Nachfolgern der AS/400. Da deren zu Grunde liegende Technik ohnehin etliche Prozessoren auf einem Modul hat, kannst du einen Teil davon kaufen und die anderen bleiben abgeschaltet. Leg Geld nach und du kriegst sie freigeschaltet. Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips ist nicht drin.
B e r n d W. schrieb: > Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5" > > Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein > > Loch reingestanzt werden. Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen natürlich in keiner Weise in ein 3,5" Laufwerk. Die 5 1/4" ergingen aber in das gleichgroße Foppylaufwerk des C64. nur das konnte die Dinger nur einseitig nutzen. Der berühte Locher war dazu da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man die Diskette wenden und auch die andere Seite nutzen. Später gab es dann auch ein 3,5" Laufwerk für den C64 das ganz normal beide Seiten beschreiben konnte. Habe noch einige der alten 5 1/4" C64 Disketten (den C64 natürlich auch, erstaunlich was man damals mit nur 64k Speicher alles gemacht hatte, ähnliches auf dem PC heute kommt nicht unter 5MB daher) und oh Wunder die sind sogar noch lesbar. Gleiches kann man von den 3,5" Disketten leider nicht sagen.
>> Ja, die 5" Floppys hatten 360k. Die haben später immer noch in >> die 3,5" Laufwerke gepasst (zusammengefaltet ;) > Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen > natürlich in keiner Weise in ein 3,5" Laufwerk. Doooch, lies den Satz bitte nochmal ganz genau! Außerdem haben die später auf die selbe Weise auch noch ins CD-ROM gepasst.
Steffen Warzecha schrieb: > Der berühte Locher war dazu > da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man > die Diskette wenden und auch die andere Seite nutzen. Umdrehen? Bei den 3,5er gab es einen Locher, damit die 720er als 1,44Mer liefen. Sonst: http://de.wikipedia.org/wiki/Floppy#Tabellen.C3.BCbersicht_der_Diskettenformate
alter ITler schrieb: > Bei den 3,5er gab es einen Locher, Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten.
Jens G. schrieb: > Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert. Das ist aber auch nur die halbe Wahrheit. Selbst FAT32 speichert in erster Linie Dateinamen in 8.3 (ja, wirklich). Erst mit der VFAT-Tabelle können bis zu 255 16-Bit-Zeichen hinterlegt werden. Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur aufgepfropft. Erst NTFS speichert Dateinamen immer mit 16-Bit breiten Zeichen. Das muss allerdings kein Unicode sein, bietet sich aber natürlich für UTF16 an. Das aber geht also in jedem Fall in die Hose, denn Unicode-Zeichen können auch doppelt so breit sein. Die ext-Dateisysteme von Linux/Unix speichern Dateinamen neutral in 255 Bytes. Deren Interpretation ist, wie du ja schon bemerkt hast, dem Betriebssystem bzw. dem Anwender überlassen. Das ist prinzipiell auch die sinnvollere Methode, finde ich. Spätestens mit POSIX geht der UTF16-Schwachsinn wieder schief, denn fopen() und Konsorten erwarten Dateinamen aus 'char', also Bytes. Das geht mit UTF16 nicht, es geht aber wunderbar mit UTF8. Darum gibts im Windows-API dann wieder solche Krücken wie 'wfopen' und die proprietären 'CreateFileW'. UTF16 ist in meinen Augen und aus heutiger Sicht eine Sackgasse und Speicherverschwendung.
Nachtrag: Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv arbeiten konnte. Das Mistding konnte ja effektiv garnix. Ewige Zeiten konnte man ja nichtmal einen eingegebenen Befehl korrigieren oder wiederholen. Nur von hinten zurück löschen oder neu eingeben.
Sven P. schrieb: > Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv > arbeiten konnte. Das Mistding konnte ja effektiv garnix. Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen. > konnte man ja nichtmal einen eingegebenen Befehl korrigieren Man konnte aber Tools einsetzen, die das taten. Mit der Bourne-Shell von Unix ging das übrigens auch nicht. Die C-Shell konnte es zwar, das Verfahren war aber für Fernschreiber optimiert und auf Terminals sehr gewöhnungsbedürftig. Zur Erinnerung: Man konnte früher sogar mit Lochkarten erfolgreich programmieren (ich hatte noch kurz das Vergnügen). Das war garantiert deutlich bequemer, als auf dem ENIAC Kabel zu stecken.
> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
arbeiten konnte.
99% der großen erfolgreichen Firmen haben MS-DOS und später WIN benutzt.
WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS.
Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX
wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern,
teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch
gezogen.
A. K. schrieb: > Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den > damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen. > [...] Naja, schon klar. Aber der DOS-PS sollte doch attraktiv für den ARBEITSPLATZ sein. Das war ja der Witz, dass man nicht mehr am Fernschreiber klemmte, sondern eine Kiste unterm Schreibtisch stehen hatte. Da wärs ja nochmal umso interessanter gewesen, den Komfort zu bieten. Und selbst wenn man das mit knapper Rechenleistung und so weiter rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den gesamten Lebenszyklus eher lächerlich, oder? Da wäre effektiv mehr drin gewesen. Machbar wars ja, die ganzen TSR-Helferlein, die da aufkamen... ordentliche Befehlszeile, Bildschirmseiten scrollen, rudimentäres Netzwerk, später mal Copy&Pasta mit der Maus auf dem Textbildschirm und so weiter. Fast nichts davon hat irgendwie zeitnah Einzug in MS-DOS gehalten...
Sven P. schrieb: > Fast nichts davon hat > irgendwie zeitnah Einzug in MS-DOS gehalten... Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie schneller und hat den Markt schon längst in der Tasche.
A. K. schrieb: > Sven P. schrieb: >> Fast nichts davon hat >> irgendwie zeitnah Einzug in MS-DOS gehalten... > > Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig > entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie > schneller und hat den Markt schon längst in der Tasche. Und das istn Grund, dass fast geschlagene ZEHN JAHRE gedauert hat, bis man es mit Doskey serienmäßig einigermaßen bedienbar gemacht hat?
A. K. schrieb: > Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig > entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie > schneller und hat den Markt schon längst in der Tasche. Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das A20-Gate eingebaut wurde behoben. Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel Geld gekostet hat. Die wieder freien Unixe, die wir heute kennen, gab es erst ab den 1990gern. Die ganzen modernen BSD Varianten mussten beispielsweise große Teile des Codes neu entwickeln. Dazu kam auch, dass die Rechner nicht genügend Arbeitsspeicher und nur selten Festplatten hatten. Die Leute, die sich es leisten konnten, haben schon immer unixoide Rechner benutzt. Das war früher halt teuer, hat sich aber im technischen Bereich sicherlich rentiert. Die Mehrkosten spielt man da locker in höherer Produktivität wieder rein. (Das merke ich immer dann, wenn ich einen Kollegen an seinem Tabellenkalkulationsprogramm verzweifeln sehe, und er dann nach stundenlanger Arbeit ein Bild hervorbringt, das unnötig schwer zu interpretieren ist und nichts Relevantes zeigt) Hier ein Artikel aus dem Jahre 1990: http://www.websalon.de/chalisti_ausgaben/chalisti_06/007_FRC6.html "Um es vorweg zu nehmen, ein richtiges Unix System fuer unter 15.000 DM zu bekoemmen wird auf legalem Wege ohne Ausnutzung von (sehr selten gewaehrten Studenten/Universitaeten/oder sonst welchen Rabatten) nahezu ein Ding der Unmoeglichkeit sein. Aber mit dieser Praemisse sind wir bzw. bin ich an den Start gegangen um die Messe abzusuchen." Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der DEC Seite, deren Betriebssysteme schon vor Unix für das Internet verwendet wurden. Deshalb benutzen die meisten Protokolle im Internet CR/LF als Zeilenendzeichen. Unix im Internet gab es erst grob ab den frühen 1980ger Jahren.
Sven P. schrieb: > Und selbst wenn man das mit knapper Rechenleistung und so weiter > rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den > gesamten Lebenszyklus eher lächerlich, oder? Es hat niemanden Interessiert, zumindest keinen der für das ganze bezahlt hat ;-). Selbst wenn DOS nicht mehr als einen start batch (autoexec.bat) geboten hätte. Entscheidend war das es Anwendungen gab. Da hat Microsoft und der ganze Rest der Branche sich drauf gestürzt. Mit Word und Excel wurden zwei "Programme" (knallhart dahingestrikte Betaversionen um den Markt zu besetzen) geliefert. Nicht der Unox Nerd der mit seinem OS rumspielt sondern die Bürohengste und -stuten entscheiden. Da spielte die Musik. Von denen hat hat jeder die Kommandozeile gemieden wie die Pest. Es war besser da nichts drüber zu wissen. Eine klare WinWin ;-) Situation für Admin und Anwender.
Christian Berger schrieb: > Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen > beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das > A20-Gate eingebaut wurde behoben. It's not a bug, it's a feature. ;-) > Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt > durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel > Geld gekostet hat. Microport Unix kam 1985 für anfangs $99 raus. Aber eben erst 1985. Ausserdem war mit den ersten PCs an Unix nicht zu denken. Mit 8088, Floppydisk und 64KB war da kein Blumentopf zu gewinnen.
Ach ja noch was. In den 1990ger Jahren wurde auch der 386ger von den Unix-Leuten unterschätzt. Mit dem war es endlich möglich ein "modernes" Unix (mit Speicherschutz) laufen zu lassen. Eigentlich hätte Sun, damals (einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt herausbringen müssen, und Cross-Compiler dafür anbieten müssen. Damit hätte man einen billigeren Markt bedienen können. Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark zerstritten. Es gab also dutzende von teilweise inkompatiblen Versionen. Gleichzeitig haben damals die Softwarefirmen den Quellcode nicht an den Kunden weitergegeben und Compiler waren teuer. Hier übrigens mal eine Fernsehsendung zum Thema Unix aus dem Jahre 1985. Toll ist auch die aus heutige Sicht totale Fehleinschätzung des Softwaretesters, dass Unix auf dem Arbeitsplatz nichts verloren hat. http://www.youtube.com/watch?v=g7P16mYDIJw Gegen 4:00 auch ein Satz den man sich einrahmen müsste, "A lot of people don't really understand UNIX". Wobei der Typ der danach spricht, übrigens Garry Kindall, der Chef von Digital Research, offensichtlich auch Unix nicht verstanden hat.
> Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur > aufgepfropft. Natürlich. FAT32 war ja auch vorher da, bevor es überhaupt Unicode gab, und die rückwärtskompatble Erweiterung war so genial, daß es darauf sogar eine Patenterteilung gab. Du hast ein Henne/Ei Problem.
Christian Berger schrieb: > Eigentlich hätte Sun, damals > (einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt > herausbringen müssen, Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren erreichen würden. Das aber war erst bedingt beim Pentium und wirklich beim Pentium Pro der Fall. Davor war der Unterschied der RISCs zu x86 eklatant. Und genau die Fliesskommaleistung war der Markt der Workstations. > Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark > zerstritten. Das allerdings war ein grosses Problem. Und wurde eigentlich erst dadurch einigermassen gelöst, dass das erfolgreiche Linux den Weg vorgab und die verbliebenen Unixe sich dem anpassten. > Toll ist auch die aus heutige Sicht totale Fehleinschätzung des Dieser Eindruck kommt fast immer auf, wenn man sich Vorhersagen in der Rückschau betrachtet. Völlig egal um was es dabei geht. Vielen Menschen gelingt noch nicht einmal eine annähernd korrekte Einschätzung der Vergangenheit, geschweige der Gegenwart. Weshalb sollte das dann bei der Zukunft besser sein? Auch professionelle Wahrsager irgendwelcher Institute sind dabei nicht viel besser.
A. K. schrieb: > Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er > eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren > erreichen würden. Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen wichtig sind, ein Unix ist aber auch ohne schon sinnvoll. Ja Unix Workstations waren schnelle Kisten, aber auch langsame Unix Rechner konnte man vernünftig nutzen. Zur Not hat man halt die Datenverarbeitung im Hintergrund gemacht. In dem Video kommt noch mal ein Softwartest von Paul Schindler (gegen 25:00) für ein Programm, das unter Unix trivial durch eine Liste mit Wörtern und grep ersetzt werden kann. Unter MS-DOS gab es damals kein grep.
grep ist doch nicht Betriebssystemabhängig. C-Compiler gab es auch damals schon für MS-DOS
> Unter MS-DOS gab es damals kein grep. Natürlich doch. FINDSTR. Du kennst dich mit MS-DOS nicht so ganz aus, gelle ? http://www.it.murdoch.edu.au/units/ICT306/dosfilters.html
Ja anonymer Autor. Man konnte auch für MS-DOS ein grep bekommen. Nur woher? Mitgeliefert wurde es nicht. Das Internet gab es damals auch für MS-DOS Nutzer in aller Regel nicht. Und einen C-Compiler musst man sich für MS-DOS auch erst mal dazu kaufen. Das waren früher viele hundert DM. Und selbst dann war es schwierig beispielsweise mehr als 64 Kilobyte an RAM am Stück zu nutzen, was Werkzeuge wie sort oder Texteditoren recht aufwändig macht. Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da sind. So wie manche Windows Fanbois solche Sachen mit Excel Macros machen, weil Excel einfach da ist.
Christian Berger schrieb: > Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen > wichtig sind, ein Unix ist aber auch ohne schon sinnvoll. Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht das, wozu man sie einsetzen kann. > Unter MS-DOS gab es damals kein grep. Bei mir schon. ;-)
Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit Zusatzprogrammen und Shareware war dem schon abzuhelfen. Mit der Shareware-Szene kamen dann aber auch schon bessere Shells, als die primitive von MS. Ein 'nacktes' DOS konnte man einschalten und wieder ausschalten. Das wars im Wesentlichen auch schon ;-) Das war aber im Nachinein auch zwangsläufig so; der Vergleich mit dem grep ist unsinnig. Von Unix/Linux alleine hat der Anwender auch nicht sonderlich viel. Interessant wirds ja erst mit dem ganzen Userland (GNU-Werkzeuge, heute auch die Desktops mit Anhang -> KDE, Gnome, ...). Das Userland von DOS war aber 'das DOS', also die Shell mit eingebauten Befehlen und dazu noch eine Reihe von eigenständigen Befehlen. Und das war eben ziemlich bescheiden. Ohne dieses bisschen Userland bleibt von DOS nicht mehr allzu viel übrig, das war der Unterschied. Die unixoiden arbeiteten theoretisch(!) ohne Userland. Das Userland war halt für den Bediener gedacht und hinten herum konnten Daemonen weiterarbeiten. Dazu war DOS aber nie gemacht, DOS ist Userland.
A. K. schrieb: > Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht > das, wozu man sie einsetzen kann. Ja, das ist ein interessantes Phänomen. Unterschiedliche Märkte belegen unterschiedliche Systeme, unabhängig davon wie geeignet das ist. Um mein CAD-Programm zu starten brauche ich kein Unix, trotzdem wurde das früher häufig gemacht. Dahingegen ist Unix ideal für Textverarbeitung und Bürokommunikation... was aber leider selten gemacht wird. Solche Leute verbringen dann Monate damit Excel-Sheets umzuformatieren.
Sven P. schrieb: > Von Unix/Linux alleine hat der Anwender auch nicht > sonderlich viel. Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und das ganze System eigentlich GNU/Linux heißt war Unix schon immer das komplette System, sprich Kernel und Userland. Von der Philosphie her sogar eher Userland als Kernel. Deshalb kannst du mit Cygwin auch in Windows-System fast zu was brauchbaren aufrüsten. ;) (Ja ich bin gemein) In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools drin.
„expanded memory“, „extended memory“,“upper memory“. Adresse = Segment*16 + Offset. Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger und neunziger Jahren. Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele Jahren hat die Entwicklung durch diesen Bremsen verloren...
Christian Berger schrieb: > Dahingegen ist Unix ideal für Textverarbeitung und > Bürokommunikation... was aber leider selten gemacht wird. Ich hatte damals sogar von der Stückzahl her eher mit denen zu tun als mit CAD-Systemen. Beispielsweise ca. 20 Schmalspur-RISCs (IBM 220, nicht besser als damalige PCs) an 2 Servern, für grafische Einsatzplanung. Aber das war, weil es diese Software damals so gab, nicht weil das billiger gewesen wäre. Und weil X11 als Basis damals mehr hergab und mehr Geschichte hatte als die sehr frischen und bei Vernetzung und Client/Server noch durchwachsenen Win3 oder OS/2. Das änderte sich markant mit NT.
Christian Berger schrieb: > Sven P. schrieb: >> Von Unix/Linux alleine hat der Anwender auch nicht >> sonderlich viel. > > Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und > das ganze System eigentlich GNU/Linux heißt war Unix schon immer das > komplette System, sprich Kernel und Userland. Von der Philosphie her > sogar eher Userland als Kernel. Ja dann, dann zieht der Vergleich ja doch viel eher, als ich eigentlich gedacht hatte. Die Verkaufsstrategie hinter den Unix damals kann ich nicht beurteilen - das war vor meiner Zeit.
Christian Berger schrieb: > Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die > Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten > Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools > wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da > sind. Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können.
Schuld ist doch nur der Installer. Wenn ich mir die Geschichte mit YAST von Suse angucke: Bei den ersten Linuxen musste man ganz schön tief in die Materie eindringen und bei der Installation eine Menge FachTLAs wissen oder nachschlagen ==> Viele Aufwand. Bei DOS und später bei Windows konnte man einfach eine Diskette ins Laufwerk stecken und fertig. Die Disketten konnte man auch wunderbar kopieren, womit der Privat-Markt gesättig wurde, was dazu führte, dass Firmen die Lizenzen kaufen musste... (aber das ist eine andere Geschichte...)
ach schrieb: > Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können. Hat es ja auch nicht. Oder wo siehst du heute PCs mit MS-DOS? ;-)
STK500-Besitzer schrieb: > Schuld ist doch nur der Installer. > Wenn ich mir die Geschichte mit YAST von Suse angucke: > Bei den ersten Linuxen musste man ganz schön tief in die Materie > eindringen und bei der Installation eine Menge FachTLAs wissen oder > nachschlagen ==> Viele Aufwand. Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den Abhängigkeiten in autoexec.bat und config.sys haben. Eine Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows auch nutzbar.
An jene, die den längeren Teil der Karriere noch vor sich haben: (1) Im Raum sitzt ein externer Supporter, der 2 Tage lang fast unterbechungsfrei im vi unlesbaren Konfigurationskram eintippt. Ohne Doku zu bemühen. (2) Anderer Supporter, andere Software: Der Installateur sitzt eine Woche vor allerlei GUI-Fenstern und klickt die Maus kaputt. Preisfrage: Wer von den beiden wird besser bezahlt? Wer erntet vom Chef ein "Wow!" und wer ein "Hmm, das sieht ja aus wie bei mir zu Hause, kann doch jeder!"?
> Wer von den beiden wird besser bezahlt?
Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten
arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind.
Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige
nutzlose Konfigurationsarbeit die nur durch unzureichende Software
verursacht wird.
Wenn überhaupt was eingestellt werden soll weil der Zustand nach der
Installation nicht passend war (was eiegntlich nicht vorkommen darf),
dann bitte vom Endanweder in einem übersichtlichen Dialog.
MaWin schrieb: > Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige > nutzlose Konfigurationsarbeit die nur durch unzureichende Software > verursacht wird. Es gibt eben nicht nur auspacken-installieren-benutzen Software. Praktisch jede Serversoftware bedarf händischer Konfiguration, oder erwartest du von einem DHCP-Server gleich zu wissen, welche IPs er verteilen soll?
MaWin schrieb: > Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige > nutzlose Konfigurationsarbeit die nur durch unzureichende Software > verursacht wird. > > Wenn überhaupt was eingestellt werden soll weil der Zustand nach der > Installation nicht passend war (was eiegntlich nicht vorkommen darf), > dann bitte vom Endanweder in einem übersichtlichen Dialog. Aha. Zum Glück kann man ja mit einer Universalinstallation alle Anwendungsfälle abdecken... Apple kann das ganz gut. Was halt nicht da ist, braucht der Anwender nicht. Per Definition.
MaWin schrieb: > Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten > arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind. Es gibt neben MS-Office auf Windows auch Software, die in jeder einzelnen Installation hochgradig kundenspezifisch eingerichtet wird. Weils jeder Kunde anders haben will. Die wird natürlich nicht millionenfach verkauft, aber davon gibts andererseits recht viel. Kann freilich sein, dass dir sowas nicht über den Weg läuft. Mir schon. Szenario (1) hatte ich vor gut 12 Jahren so erlebt. Sowohl die Software als auch die Server-Hardware von damals sind noch im Einsatz und werden es wohl noch ein paar Jahre sein. Kann man nicht meckern.
ach schrieb: > Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den > Abhängigkeiten in autoexec.bat und config.sys haben. Eine > Linuxinstallation lief meist ohne weiters zutun des Nutzers durch Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde auch auf der 386er Platform entwickelt. Und viel Ahnung war da nicht nötig. Ohne CD ROM gabs eigentlich nur die Umstellung auf die deutsche Tastatur - das wars. Entscheidend für den Anwender war ja nicht, wie toll sich ein Programm installieren lässt (das war bei MS-DOS ohne HDD auch gar nicht nötig), sondern wie benutzbar ein Programm war. Ich kannte Firmen, die sich komplett mit Lotus-123 und Sidekick durch die Daten gewurschtelt haben und nie etwas anderes benötigt haben. Du konntest mit 2 Diskettenlaufwerken arbeiten, ohne dauernd Schwabbelscheiben zu wechseln und hattest eine enorme Erleichterung gegenüber der Fakturierung mit Schreibmaschine und Kohlepapier. Das war der entscheidende Vorteil. Zusätzlich gab es tonnenweise Klone des XT (und auch des AT) die billig waren und gegen die sich IBM nie wirklich gewehrt hat. Mein erstes medizinisches Plotprogramm hab ich damals mit Turbopascal auf einem 2-Disketten Zenith Klon geschrieben. Eine selbstgebaute 4-Kanal A/D Karte mit ISA und eigenem 8048 Subprozessor hat da die Daten gesammelt und an die langsame Zenith Schüssel weitergereicht.
Naja, als die 486ger populär waren, war Windows noch nicht so viel benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem Desktop. Das müsste so um 1993 gewesen sein.
Sven P. schrieb: > Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit > Zusatzprogrammen und Shareware war dem schon abzuhelfen. Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf.
Christian Berger schrieb: > > In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools > drin. Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei. Alles was man heute an Unix Tools auf dem Markt findet ist reverse engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt noch auf meiner archivierten Platte. Mit verbockt hat Novell die ganze Unix Sache. Als auf der Intel Plattform mit Unixware eine relative preiswerte Lizenz vorhanden war gibt das unfähige Management Marketing an SCO ab und diese schränken die unbegrenzte Anzahl Arbeistplätze wieder ein und kassieren bei SCO-Unix ab. SCO Unix ist eben Schrott. Unixware war 200% stabiler. Nun ja Novell hat es später nochmals mit Suse Linux versucht und ebenfalls Schiffbruch erlitten. Auch die Motorala 68000 Welt war anfangs nicht einfach. Für Unix hat SUN damals zuerst eine Hardware Memory-Management-Unit um den 68000 herum entwickelt und damit Unix lauffähig gemacht - lineare Addressierung ist eben nicht alles. Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche drauf und durchgestartet. Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran. Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als recht mobil telefonieren können. Optik ist alles, Bedienung andere Baustelle. Viel Spass mit Touchscreen und Win8 auf dem Desktop. Mast- und Schootbruch alte Seefahrer
> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv > arbeiten konnte. Das Mistding konnte ja effektiv garnix. Man konnte immerhin grundlegende OS- u. Datei-Operationen damit machen, und viel Zusatzsoftware gab es auch. Und oft geht Commandline schneller als Mausgeklickse. >Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der >DEC Seite... Und das kommt ursprüngl. von Schreibmaschinen und Fernschreiber. Es muss halt CR und LF sein, damit der Text nicht in gleicher Zeile überschrieben wird. Und der Asci-Code 127 mit deshalb mit DEL belegt, weil mit den ganzen 1-en (nein, mit den Löchern) man beim Lochstreifen nachträglich das (falsche) Zeichen ungültig machen konnte. ..ist also eine Festlegung die schon uralt ist.
Christian Berger (casandro) schrieb: > Naja, als die 486ger populär waren, war Windows noch nicht so viel > benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten > Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf > Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem > Desktop. Das müsste so um 1993 gewesen sein. Das ist wirklich Geschichtsfälschung in Reinform. Du bist genau so ein Jungspund wie Sven P. (haku) der selber gerade mal Baujahr 1989 ist aber hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation. Mein erster Rechner war ein 80386SX mit 16 MHz und 4MByte RAM, den ich mir zur Studienzeit damals gerade so leisten konnte (40MHz DX Rechner kosteten damals ein gefühltes Vermögen von um die 3500 DM). Darauf lief zunächst ein Windows 3.0, dann 3.1 dann WFW 3.11 und das war in etwa die von dir beschriebene Zeit. Im Rechnerraum der FH lief kein Unix und schon gar kein Linux, sondern Novell NetWare und das stabil über Jahre. Auf den Clients durfte man Borland Turbopascal starten, Turbo C++ und anderes Zeugs. Einen Unix Großrechner gab es dennoch zu Übungszwecken. War eine alte ausrangierte Gurke mit der damals dennoch beachtlicher Rechenleistung von 4 Prozessoren und viel, viel RAM (heute lächerlich). Die Studies hatten nach und nach alle einen PC mit Windows, darauf wurde programmiert und das Schriftgut in WYSIWYG abgewickelt und auf dem damals gängigen HP 500 Deskjet ausgedruckt. CAD Programme waren ACAD für die Zeichenübungen und ORCAD 386 für Schaltungsdesign. Das waren DOS Programme mit eigenen Grafiktreibern und den damals üblichen Bildschirmauflösungen von meist 800x600 Pixel oder bei den 5000 DM 20 Zöllern auch mehr. Wie gesagt, wir reden hier die ganze Zeit noch über DOS und dann Windows 3.x, noch nicht mal über das damals sehr erfolgreiche (weil erstmals echte 32-bit Windows 95). Keiner der mit Win 3.x begann hätte damals die Umstallung auf Windows 95 ausgeschlagen, um zu Linux zu wechseln. Dessen Zeit lief da langsam erst an. Die SuSE GmbH hatte sich 1992 gegründet, aber erst im Mai 1996 also nach Windows 95' ihre erste Distribution herausgebracht. Vorher war da nur Slackware. Die hatte ich auch, als ich mein erstes Doublespeed Mitsumi CD-ROM gekauft hatte (nein der 386SX hatte noch kein CD-ROM eingebaut ;)) für damals rund 300 DM und Treiber für DOS. War eine nette Spielerei, aber nicht mal ansatzweise das was man heute unter "Linux" subsummiert. Also bitte keine Geschichtsfälschung betreiben. Wie Helmut S. (helmuts) schon schrieb, "99% der großen erfolgreichen Firmen haben MS-DOS und später WIN benutzt. WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS. Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern, teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch gezogen." PCs waren inzwischen gegenüber Unixrechnern (in meinem Firmenumfeld VAX und VAX Clones) verdammt billig und bei ESCOM als Massenware zu haben. Unixrechner wurden 1995 nicht mehr neu angeschafft, statt dessen kamen mehr und mehr PCs mit den neusten Intel Prozessoren. Der Pentium 60 hielt Einzug und das war damals gegenüber den alten Unixrechnern bereits eine verdammt schnelle Kiste. Der Trend war klar erkennbar. Aus heutiger Sicht mag Win95 in der ersten Release elend erscheinen. Aber gegenüber Win311 war es bereits ein Quantensprung und in der inoffiziellen OSR 2.0 dann auch ganz brauchbar. ;) Das war übrigens alles noch die Zeit ohne DSL. Das muss man dabei immer im Hinterkopf behalten und den Begriff "Flatrate" kannte keiner. 14,4 kbsp Modem war angesagt, später dann 56 kbps und sauteure Onlinekosten.
Was mir damals an Intel ziemlich auf den Geist gegangen ist und bis heute tief in mir verwurzelt ist, ist der Versuch von Intel damals die aufkommende Konkurrenz AMD im 386er Prozessorenbereich zu verhindern. Intel Prozessoren waren einzeln nur sauteuer (für viele praktisch unbezahlbar) zu erhalten und sie haben damals alle Hebel in Bewegung gesetzt, um die Billigkonkurrenz AMD zu verhindern. Damit hat Intel damals aktiv den Markt behindert (die Schw..e). Es gelang aber nicht und AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann auch einen DX Rechner leisten, durch einfachen Austausch der Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz. hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix.
Wobei diese Nummer noch nicht durch ist. Auch Intels zweiten Versuch, das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. Es war ja nicht Intels Idee, die x86er zu 64 Bits auszubauen. Dazu wurde Intel durch AMDs Schachzug regelrecht gezwungen. Aber da AMD technisch mit Intel nicht mehr so recht mithalten kann, sind wir grad wieder in einer Situation, in der Intel die Chance hat, ein Monopol der Highend-x86er zu errichten. AMD liegt pro Core weit hinter Intel, sowohl in blanker Rechenleistung als auch in Rechenleistung pro Watt. Jedenfalls wenn man das ATI-Erbe der integrierten Grafik aussen vor lässt. Einzig die nicht zuletzt dank Tablets gewonnene Erkenntnis, dass man für einen Internet-Browser nicht zwingend einen 100W Desktop-Prozessor oder ein mit einem völlig überteuerten Prozessor ausgestattetes Ultrabook benötigt, erspart uns vorerst den Durchmarsch Intels, insgesamt gesehen. In diesem Sinne gehört ausgerechnets Apples Hardwareschmiede zu den grösseren Hindernissen für Intel - Apples selbst designte ARM-Cores sind nämlich recht beachtlich.
W7 schrieb: > Sven P. (haku) der selber gerade mal Baujahr 1989 Woher hast du denn das Datum? > ist aber > hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden > selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals > sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich > Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation. Also anders formuliert, die Anwenderprogramme waren erfolgreich und MS-DOS war eben grad da... Ich bin mir der Problematik dieser Zeit schon bewusst. Und natürlich erlebe ich vieles davon nur als Retrospektive, obwohl ich mich tatsächlich über diverse DOS-Versionen und -Klone, Win3.1 und 3.11 bis zu Win95 durchgehangelt habe, da ich fast immer nur anderweitig ausrangierte Hardware hatte. Aber weil auf praktisch jeder kleinen Maschine MS-DOS lief, muss das ja nicht automatisch auch bedeutet, dass MS-DOS so unheimlich gut war. Es boten sich ja auch nicht viele Alternativen dazu. Ich schrieb ja auch 'es erschließt sich mir nicht'. Da können ja durchaus noch Aspekte sein, die ich nicht berücksichtige, mit denen es sich mir aber vielleicht erklären wird. Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft. Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal oder QuickBasic zusammengehauen. Solche Dinge und noch viele andere hätte man doch wirklich in den über zehn Jahren des MS-DOS-Lebens mal verbessern können.
W7 schrieb: > "99% der großen erfolgreichen Firmen haben MS-DOS und später WIN > benutzt. Wir reden aneinander vorbei. Ich rede nicht davon was "99% der erfolgreichen Firmen" gemacht haben. Das ist mir genau so egal wie die angeblichen >50% Marktanteil die Windows heute auf dem Desktop haben soll. Das betrifft mich nicht. Es ging mir darum, was man damals machen hat können, was es damals schon gab, und was die Leute die wirklich ein gutes System haben wollten auch schon langsam gemacht haben. Das die Masse schon immer nach dem Grundsatz "Was der Bauer nicht kennt, frisst er nicht" handelt ist normal. Schau in ein übliches schlechtes Systemhaus und Du wirst richtige "Linuxphobiker" finden, die ernsthaft Angst vor Linux haben und glauben sie wüssten irgendwas von Windows, dann aber an simplen Aufgaben unter Windows scheitern. Das ist nicht der Standard nach dem ich handeln will. Ich will für jede Aufgabe das richtige Werkzeug benutzen, egal ob das jetzt ein Xubuntu Linux, OS/2, Windows oder CP/M ist.
>Damit hat Intel damals aktiv den Markt behindert .... Das ist fast immer so, wenn es nur noch weniger Mitspieler gibt >Da können ja durchaus noch Aspekte sein, die ich nicht berücksichtige, Schonmal dran gedacht, dass Grafik- und Miltimediakrams sehr Speicher- und rechenintensiv sind? (jedenfalls damals) Deshalb sind viele Anwendungen (blitzschnell) im Textmodus gelaufen (und in manchen Fällen konnte man in den Grafikmodus umschalten). Heute "muss" für jeden Kickifacks gleich ne umfangr. Grafik her, obwohl noch vieles im Textmodus möglich wäre. Aber (fast) Alle denken, wenn man kein KlickiBunti sieht, muss es alt sein. Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit Erweiterung gemacht, weil 'normal' Evolution und kompatibel, und nach AMD gibts ja auch noch VIA.
MCUA schrieb: > Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit > Erweiterung gemacht, weil 'normal' Evolution und kompatibel, Soweit mir bekannt ist hatte Intel das nicht vor. Sondern wollte für den Desktop/Mobilmarkt solange weiter 32-Bit x86 anbieten, bis die Kundschaft freiwillig auf bis zum Anschlag zupatentierten IA64er wechselt. Mindestens die erste Itanium/IA64-Generation hatte einen x86-Kompatibilitätsmodus an Bord, einen eher traurigen allerdings. Im weiteren Verlauf wäre es wohl eher auf dynamic code translation rausgelaufen, wie HP es für Programme der alten PA-Maschinen implementierte. Nur kam dann AMD64 und Intel merkte, dass sie mit ihrer Strategie in die Falle laufen. Und machte eine Kehrtwendung mit der exakten Übernahme dieser Architektur. Eine eigene x86-64er Variante durften sie nicht bringen, dagegen legte Microsoft sein Veto ein. Nun steht dafür HP etwas im Regen, weil Itanium langsam absäuft. > und nach AMD gibts ja auch noch VIA. Naja. VIA taugt doch nicht einmal als Feigenblatt zur Abwehr von Monopolvorwürfen.
> bis die Kundschaft freiwillig.. Aber was die Kundschaft mal gewöhnt ist (X86(!)bei PCs), will sie auch behalten. Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum 68k. Das weiss Intel doch. >wäre es wohl eher auf dynamic code translation... das ist schon mal gescheitert >Naja. VIA taugt doch nicht einmal... VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe Leistung gefordert. Viele Dinge gehen damit.
MCUA schrieb: > Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum > 68k. Das weiss Intel doch. AMD hatte damals nicht nur AMD64 parat, sondern zudem auch noch gleichzeitig die klar bessere Hardware. Die Opterons waren den damaligen Intels schlicht deutlich voraus, sowohl bei der Performance als auch beim Systemdesign. Intel hatte sich gleichzeitig nicht nur bei der Befehlssatz-Architektur verspekuliert, sondern auch bei der Netburst-Architektur des Pentium 4. Die sah auf dem Papier brilliant aus. In der Praxis fing das Papier leider zu schnell Feuer und verbrannte. Wäre AMD ungefähr im heutigen Ausmass hintendran gewesen (GPU ausgenommen), dann hätte Intels Strategie möglicherweise funktioniert.
MCUA schrieb: > VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe > Leistung gefordert. Viele Dinge gehen damit. Schon, aber das ist in der Entscheidung von Highend-Architekturen völlig irrelevant. VIA konkurriert nicht mit Intel oder AMD, sondern letztlich mit ARM.
MCUA schrieb: >>wäre es wohl eher auf dynamic code translation... > das ist schon mal gescheitert Einmal ja, bei Transmeta. Ansonsten siehst du sie an allen Ecken im Einsatz. So ist mit Androids Dalvik-VM der Smartphone-Markt von dieser Technik geprägt. Die ursprüngliche Virtualisierungstechnik von VMware ist ebenfalls eng damit verwandt. x86 ist ja eigentlich nicht virtualisierbar, weshalb man böse Tricks anwenden musste, um es trotzdem möglich zu machen.
Sven P. schrieb: > Ich bin mir der Problematik dieser Zeit schon bewusst. So? Meinst du? Ich nicht. Ich zitiere dich mal: "Auch wenn Linux nur ein Kernel ist, und das ganze System eigentlich GNU/Linux heißt war Unix schon immer das komplette System, sprich Kernel und Userland." Siehst du es jetzt? Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von Tausenden von SW-Schreibern, kommerziellen wie privaten). Also "komplettes" System gegen komplettes System. Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell (aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine 360K Diskette paßt. Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so weitergeht. Gesellschaftlicher Alzheimer? W.S.
Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere Hardware im Vergleich zum IBM-AT. Und sich dann doch nicht durchsetzten weil für DOS/Win bekanntere Anwendungen verbreitet waren. Der Markterfolg eines Betriebssystems wird von der Werbung und von der passenden Anwendungssoftware bestimmt - und nicht von Leistungsfähigkeit und Flexibilität des Betriebssystems selber.
W.S. schrieb: > Siehst du es jetzt? Nein, aber du siehst es ja ebensowenig. Eingangs hatte ich MSDOS mit den nackten UNIX-Kern verglichen, genau wie du es nun vorschlägst. Man hat mich dann darauf aufmerksam gemacht, dass das Userland damals integraler Bestandteil eines 'UNIX' war. > Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es > richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den > auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von > Tausenden von SW-Schreibern, kommerziellen wie privaten). Also > "komplettes" System gegen komplettes System. Nein, offenbar ist das ja nicht so. Ein frisch gekauftes UNIX beinhaltete bereits viele Werkzeuge. Ein frisch gekauftes MSDOS beinhaltete praktisch nichts. Beide Systeme dabei unmittelbar ab Werk vom Hersteller. Es erscheint mir ab diesem Punkt aber nur logisch, dass sich um MSDOS eine größere Entwicklerkultur gebildet hat, weil ja jeder an das System heran kam. Das ist dann wohl auch der Trend, der heute Linux so vorantreibt. Da erübrigt sich ja beinahe schon der Vergleich... > Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell > (aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit > dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine > 360K Diskette paßt. Es gibt nach wie vor Linux-Distributionen, die auf einer Floppy (ok, 1,5MB) Platz finden. Inklusive Werkzeug und Netzwerk. > Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer > geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen > hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so > weitergeht. Gesellschaftlicher Alzheimer? Dafür sorgen andere Institutionen ja schon recht erfolgreich... Ich bemühe mich ja wenigstens, solche Zusammenhänge zu verstehen. Ich habe noch mit DOS gearbeitet (arbeiten müssen). Das DOS- und Windows-Lager betreibt aber mindestens genauso eifrig Geschichtsverzerrung, wie alle anderen Gruppen und Randgruppen auch. Insofern fällt es zumindest mir zugegebenermaßen nicht leicht, den Dünnpfiff daraus auszusortieren.
Ich verstehe nicht, warum man den Vergleich von DOS mit UNIX-Rechnern herstellen will. Dieser Vergleich geht doch genauso schief, wie wenn man einen heutigen PC mit einem heutigen UNIX-System vergleichen will. Nehmen wir mal das Jahr 1985. Da ist eher der Vergleich mit Commodore und Apple angebracht. Und dann waren da ja noch die in Massen vertretene CP/M-Rechner. Die Konzeption unterschied sich nur unwesentlich. Die Begriffe auf der Befehlszeile waren auch ähnlich. Wer CP/M bedienen kann, der kann auch DOS bedienen. Meist wurden ja auf beiden vor allem Programme für das Büro verwendet. Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte dabei den Apple und Commodore so 5 Jahre hinterher. Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben alles genauso auf Basis von CP/M und ZILOG, oder AMIGA? Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern. Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.
Sven P. (haku) schrieb: W7 schrieb: >> Sven P. (haku) der selber gerade mal Baujahr 1989 > Woher hast du denn das Datum? hehe, das Internet ist eine Verräterplattform. :) Quelle: Beitrag "Re: Balla Balla, na super, der Topic wird abgewiesen" oder haste geschummelt?
A. K. schrieb: > Auch Intels zweiten Versuch, > das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu > zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde dazu empfehlen: Rechne einfach mal die Gewinne der Firmen Intel und AMD der letzten 15 oder 20 Jahre zusammen und vergleiche die beiden. Mir ist das im Moment zuviel Mühe, aber dabei ist wohl eher die Frage, ob AMD summa summarum überhaupt Geld verdient hat, während es sich bei Intel um zig Milliarden handelt. Erfolgreich für AMD würde ich das nicht nennen, "tapfer" würde besser passen. Erinnert mich irgendwie an Asterix und Konsorten. Für den Thread ist das allerdings nicht weiter relevant, denn ohne AMD wäre x86 vielleicht schon teurer geblieben, aber doch eine Grössenordnung billiger als Unix-Hardware. Gruss Reinhard
Michael_ schrieb: > Meist wurden ja auf beiden vor allem Programme für das Büro verwendet. > Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte > dabei den Apple und Commodore so 5 Jahre hinterher. 1992 Amiga 1200 und 4000, 8-Bit Sound, Stereo Macintosh, 8-Bit Sound (afair einige nur Mono) Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie die NeXTstation/cube afair 1990?) > Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben > alles genauso auf Basis von CP/M und ZILOG, oder AMIGA? Der legendäre Z80000 oder das noch legendärere Missmanagement bei Commodore und Atari ;-) > Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder > Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern. > Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.
Reinhard Kern schrieb: >> Auch Intels zweiten Versuch, >> das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu >> zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. > > Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde > dazu empfehlen: Ich bin jetzt etwas irritiert, denn das klingt für mich wie gezielt missverstanden durch Ausnutzung sprachlicher Doppeldeutigkeit. Nenn es einen Phyrrussieg, wenn du willst, denn um AMD ist es wirtschaftlich nicht gut gestellt. Aber ein Architekturmonopol hat AMD erfolgreich verhindert. Auf der finanziellen Seite waren sie im Volumen und über die Gesamtzeit gesehen erfolglos. Aber das sind zwei verschiedene Aussagen. Weil du auch als armer Mann erfolgreich eine Strasse überqueren kannst - das besagt nämlich nur, dass du drüben lebend ankommst, nicht dass du drüben reich ankommst. > Für den Thread ist das allerdings nicht weiter relevant, Klar, denn im Thread geht es eigentlich um MS-DOS. In der Zeit, auf die sich keine Aussage bezieht, war MS-DOS längst Schnee von gestern. Insofern war das ein wenig offtopic. > wäre x86 vielleicht schon teurer geblieben, aber doch eine > Grössenordnung billiger als Unix-Hardware. Weshalb? Zumal das auch nicht immer zutraf. Jedenfalls nicht, was die Grundkosten der Hardware angeht. Und die Kosten eventuell mitverkaufter Software sind ein anderes Thema. Dass eine Unix-Workstation mit einem PowerPC 604 Prozessor dennoch deutlich teurer verkauft wurde, als ein Aldi-PC mit einem Pentium drin, lag weder an der verbauten Technik noch am Marktpreis des Prozessors. Beim Hersteller besagter Unix-Workstation waren auch die PCs deutlich teurer als bei Aldi. Allerdings war das schon in einer Ära, in der es nicht mehr um MS-DOS ging. Seitens der Ansprüche an die Hardware-Ressourcen unterschied sich Windows NT nicht mehr von Unix.
Hi, ach schrieb: > STK500-Besitzer schrieb: >> Schuld ist doch nur der Installer. >> Wenn ich mir die Geschichte mit YAST von Suse angucke: >> Bei den ersten Linuxen musste man ganz schön tief in die Materie >> eindringen und bei der Installation eine Menge FachTLAs wissen oder >> nachschlagen ==> Viele Aufwand. > > Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den > Abhängigkeiten in autoexec.bat und config.sys haben. Eine > Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und > die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows > auch nutzbar. BITTE??? Das ist aber wohl ein absolutes Gerücht! Ok, meine Erfahrungen reichen nicht so weit zurück wie die einiger wirklich alten Hasen in diesem Forum, ich selbst habe im Februar 1993 meinen ersten PC bekommen der zugleich vielleicht der vierte oder fünfte PC war der überhaupt in meiner Klassenstufe (immerhin vier Klassen) zuhause stand und m.w. der erste der einem Schüler selbst gehörte. Das war ein 486SX25 mit 4MB RAM und 120MB Festplatte für 1400 DM. damit war ich über ein Jahr der mit dem schnellsten Privatrechner in meinem gesamten bekannten Umfeld überhaupt! (heute -egal wieviel man ausgibt- ja undenkbar über so einen langen zeitraum-) Wobei ich da -wie viele andere auch- von einer Fehlkalkulation von "Quelle" enorm profitiert habe. Dieser REchner stand für den PReis im Katalog und Tagespreise haben die damals noch nicht gehabt. Kurz nach Drucklegung des KAtaloges sind aber wohl die PReise für Speichermodule und ähnliches rasant angezogen. Selbst bei Escom und Vobis war zu dem Zeitpunkt das vergleichbare Gerät rund 400 DM teurer. Von den lokalen Händlern ganz zu schweigen. Es warn aber auch 5 Wochen Lieferzeit... Aber BTT: ICh war zu dem Zeitpunk 13 Jahre alt, bin im März 14 geworden -wobei mir meine Eltern und Verwandschaft im Februar dann schon einen Vorschuss gewährt haben - Ursprünglich war aber auch von 8 Wochen Lieferzeit die Rede! Wie es da als 13Jähriger so ist probiert man ein wenig rum usw. löscht auch mal etwas und dann ist mir versehentlich das "Del *.*" im Verzeichniss C:\ statt im beabsichtigten Unterverzeichniss rausgerutscht. Erst große Panik weil nichts mehr lief - und niemand da der sich auskannte Dann über den IT-Verantwortlichen in der Fa. wo mein Vater damals arbeitete zumindest die Infos bekommen das wohl die Autoexec.Bat und besonders die Config.sys jetzt fehlen und wo ich im HAndbuch für MSDOS 5.0 -das damals ja noch als PApierausgabe dabeilag- die Infos zur Neuerstellung mit erklärung der Parameter finde. Ca. drei Stunden hat gedauert bis ich als absoluter PC Anfänger dann wieder eine vernünftige Einstellung gezaubert hatte auf der auch speicherhungrige Dinge liefen - also auch mit Loadhigh usw... und nicht nur alles in die unteren 640kB geladen... Und das noch ganz ohne Memmaker u.ä. Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das auch lief -ohne spezielle Startdiskette. (Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil das ja EMM386 immer geladen hat.) Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam und meine Versuche damit machte, da dauerte es erst einmal Tage bis überhaupt die Hardware im PC richtig erkannt und initialisiert wurde. Vom Beherschen des Systems ganz zu schweigen!!! Und das trotz inzwischen Mehrjähriger PC Erfahrung und Programmierkenntnissen - sowie der Vorgeschichte mit Computer (C64) im Haus seit meinem 7.en LEbensjahr und Programmierkenntnissen auf C64 und CPC464 lange vor meiner PC Zeit (dieses Wissen war ja der Grund für das starke Sponsoring des PC Kaufes durch die Verwandschaft den ich mir als 13.Jähriger sonst nie hätte leisten können) ICh denke manche sehen das ganze einfach zu sehr durch die NERD Brille... JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der Zeit. Und es mag auch sein das dadurch vielleicht sogar resourcen verschwendet wurden. (Wobei mich die Hintergründe des Betriebssystem nie interessiert haben und es auch heute nicht tun! - kann es also gar nicht sicher beurteilen) Aber bei der Verbreiteten PC Nutzung ging es eben darum das der PC genau wie es der Name schon sagt ein "Persöhnlicher" Computer war und der absolute Großteil dieser Rechner wohl auch nur als bessere Schreibmaschine von Sekräterinnen usw. bedient wurden, oder halt für andere Anwendungsprogramme wie CAD oder sonstige Zeichenprogramme. Die vielen Speziellen Buchhaltungs- und LAgerbestandsapplikationen nicht zu vergessen. Das Betriebssystem war für diese RIESEN Gruppe einfach nur ein Mittel zum Zweck um möglichst schnell das gewünschte Programm aufzurufen. Und das sollte so einfach wie möglich sein... Hier hatte DOS einfach die Nase vorne. Die ganzen Features die Unix/Linux mehr bot waren für die meisten Anwender ja absolut unnötig, ja sogar kontraproduktiv da verkomplizierend. Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen -besonders den kleineren- alles andere als Selbstverständlich war und von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde gewesen wären!) Und als persöhnlicher alleinstehender Rechner war damals eine trennung von User und Admin wie in großen Netzen absolut Sinnvoll einfach unnötig! Die bessere Verfügbarkeit von Software tat dann ihr Übriges. Wie in vielen anderen Fällen auch schon. (Ich denke das ist beispielsweise ein Grund warum sich z.B. der C64 so enorm durchgesetzt hat während der im grunde für Büroanwendungen Leistungsfähigere Amstrad CPC64 in der Versenkung verschwand) Sven P. schrieb: > Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft. > Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach > Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die > ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell > erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal > oder QuickBasic zusammengehauen. Programmieren in der Befehlszeile von DOS? Das ist aber auch etwas was nie jemand vorgesehen hat. Womöglich noch in ASM und dann mit dem Systemtool (war das nicht die Debug.EXE?) übersetzt? Genau dafür gab es doch die Hochsprachenumgebungen. QuickBasic gehörte ja zu DOS dazu. C oder PAscal leider nicht. Und längere Komandozeilen waren in DOS auch eher eine seltenheit. Gerade das war ja der Vorteil von dos. Simpel, die wichtigsten Grundfunktionen konnte man auch der Sekräterin in einigen Minuten erklären. MN schrieb: > alter ITler schrieb: >> Bei den 3,5er gab es einen Locher, > > Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten. Es gab BEIDES: Wie schon geschrieben den Locher für die zweite Schreibschutzkerbe auf der gegenüberliegenden Seite wenn man beim C64 die 5 1/2 Disketten doppelseitig nutzen wollte. Denn das Diskettenlaufwerk schrieb und laß bei diesem nur einseitig. (Schere und ruhige hand funktionierten aber auch) UND es gab zu späteren Zeiten der 3,5" Disketten spezielle Locher um aus 720KB Disketten 1,44MB Disketten zu machen. (Ein Bohrer tats aber auch) Allerdings war das immer noch mit einem kleinen Restrisiko behaftet. Für die 720er Disketten war ja eine geringe Qualität der Magnetschicht ausreichend - zu Anfang waren diese auchs dem Grund zusammen mit den technischen Gegebenheiten bei der Produktion der Schreib-Lese Köpfe ja auch der Standard. Erst mit immer weiter vortschreiten der Produktionstechnik war es dann möglich ohne irgendwelche Merhkosten die für 1,44MB notwendige Qualität zu produzieren. Da es natürlich billiger war nur eine Sorte von Innenleben herzustellen haben viele HErsteller dann von diesem Zeitpunkt an für ihre HD und DD Disketten dasselbe Innenleben verwendet. Da war ein nachlochen problemlos möglich. Aber es bestand immer das Risiko das man eine DD Diskette erwischte deren Innenleben tatsächlich nur für DD geeignet war was dann bei HD Nutzung zu Datenverlust führen konnte. Besonders bei Alten Disketten oder NoName Produkten unbekannter oder gar wechselnder Hersteller war also immer etwas vorsicht ratsam. Zumal die Einsparmöglichkeiten insbesondere zu späteren Zeiten ja auch mächtig nachließen. Gruß Carsten
Das wurde alles weiter oben schon geschrieben, Hauptsächlich (Rückwärts-)Kompatibilität (schade, denn die 68000er waren (und sind) nicht schlecht Einfachheit IBM und Datenbanksoftware Kundenfreundlich (abschalten) Coole Programme (Quake Multiuser-Geballere ;), Basic, Pascal, Debug, Softice. Quake (u.a.) mussten Windows verlassen um performant (ohne Directx) zu laufen) Sonderzeichen (Linuxe legen englisches Tastaturlayout nahe) Diskettenfreundlich (Os Diskette raus, Programmdiskette rein, Programm diskette raus, Datendiskette rein, Format A: eingeben zum Formatieren) Viele Unixprogramme gibts auch für Dos (und umgekehrt) Vergleichsweise günstig (+viele alte Programme; teure Apple Computer mit wenig Programmen) Vorteil vom PC u.a. auch: wird schnell leistungsstärker + viele nutzbare Anwendungen im Rucksack. Und eigentlich hat sich (neben der Intel Hardware) auch nicht Dos durchgesetzt, sondern die gereiftere Form von Windows mit Dos-Kompatibilität (d.h. Viele Spiele, Viele Anwendungspramme, Mischlösungen, günstige und leistungsstarke Mainboards usw.)
Guido Körber schrieb: > als auch was den Treppenwitz von einem Prozessor angeht. > Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende > Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie > abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit > Blattfedern fahren. Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und einen neuen Proz. mit vernünftiger Architektur entwickeln sollen. Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren entwickelt. Teilweise auch die Hardware. Das waren (leider waren) Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen könnte man würde in C programmieren. Entsprechend optimal war auch der C-Compiler. Unser Unix-Maschine die wir 1986 auf den Markt gebracht haben, lief mit einem 10 MHz NS32016, 2 MB Ram und einer 20 MB Festplatte. Die bediente problemlos vier VT100 Terminals mit 38400 Baud. Und war damals mit einem VK von 9000,- DM ein Schnäppchen. Aber zurück zur Frage, warum DOS alles in den Schatten stellte: Da schon viele Antworten gegeben worden sind, nur ein Zusatz: Die Unix-Lizenzen waren damals sehr teuer, DOS bekam man im Vergleich nachgeschmissen oder beim Taiwan-Nachbau kostenlos dazu. DOS ist nach Wordstar, die am meisten illegal kopierte Software der Welt. Stand mal so im PC-Magazine. Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss ich feststellen, dass die für den Anwender komplizierter und unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw. Ubuntu).
Unixer schrieb: > Intel hätte ab dem 8086 diese begraben sollen und > einen neuen Proz. mit vernünftiger Architektur entwickeln sollen. Haben sie ja auch. Versucht. Vernünftig geriet iAPX432 freilich nicht, also musste x86 weiterleben. Der nächste Versuch einer eigenständigen 32-Bit Architektur geriet mit i860 auch nicht wirklich grandios. Intel hatte einfach kein Händchen dafür. Intels einzige brauchbare 32-Bit Architektur war i960, und die haben sie (deshalb? ;-) wieder eingestampft. > Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren > entwickelt. Teilweise auch die Hardware. Ebendiese Architektur hätte dank ihrer extrem inkrementellen Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen. Die war in der Hinsicht weit schlimmer als x86.
Arc Net schrieb: > 1992 > Amiga 1200 und 4000, 8-Bit Sound, Stereo > Macintosh, 8-Bit Sound (afair einige nur Mono) > > Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie > die NeXTstation/cube afair 1990?) Zu dieser Zeit habe ich meinem AT286 Musik beigebracht. Mit einem Soundblaster mono für stolze 99DM. Es war eine wilde Zeit so 1990 - 1995. Es gab da auch noch einen engl. RISC-Home-Computer. Ich hätte ihn bald gekauft. Es war wohl der A5000 Archimedes von ACORN.
und du vergisst den Atari8bit der bereits über 4 Audiokanäle verfügte welche aber Dummerweise zu einem Monokanal onboard zusammengemischt wurden tststs
Wolfgang R. schrieb: > Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei. > Alles was man heute an Unix Tools auf dem Markt findet ist reverse > engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code > anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt > noch auf meiner archivierten Platte. Welches genau? Vielleicht gar etwas, das nicht im Unix Tree http://minnie.tuhs.org/cgi-bin/utree.pl nachzulesen ist? Tiefer eingelesen habe ich mich nur in die Sixth Edition mit dem Lion's Commentary. Steinzeit-C ist schon echt harter Stoff. > Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei > Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche > drauf und durchgestartet. Da stimmt die Reihenfolge aber nicht ganz, das war ja keine Neuentwicklung. Apple hat das von Steve Jobs gegründete NeXT aufgekauft, um deren Betriebssystem NeXTstep als Nachfolger von MacOS zu verwenden. Jobs wurde erst ein halbes Jahr nach dem Kauf Interims-CEO von Apple.
Mark .. schrieb: > ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil > wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu > verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit > durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte > bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, > also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff. > > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? > (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert > waren...) Personal Computer waren, wie der name schon sagt persönlich also für einen einzelnen Nutzer gedacht. Für einen solchen rechner (Schreibmaschine) braucht es kein mutliuser und netzwerk, das überfordert nur den Anwender. Auch gab es für Unix kaum Büroanwendungen und keine Videospiele, eben das was man von einem personal computer erwartet. Unix ist was für Server und netzwanwendungen und damit kam die breite Masse erst Mitte der Neunziger zurecht. MfG,
Matthias Sch. schrieb: > ach schrieb: >> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den >> Abhängigkeiten in autoexec.bat und config.sys haben. Eine >> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch > > Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde > auch auf der 386er Platform entwickelt. DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra einen neuen Betriebsmodus eingeführt, damit Multitasking mit Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter verbessertem Multitasking, und es wurde extra noch die Möglichkeit in die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren zu können, damit auch alte Programme darin weiter benutzt werden können. Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble Krücken. Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo sie eigentlich nicht hingehört. Und Jahre später steckte dann das Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und das eigentliche Betriebssystem war zum Bootloader verkommen.
Rolf Magnus schrieb: > Und Jahre später steckte dann das > Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und > das eigentliche Betriebssystem war zum Bootloader verkommen. Das trifft nur auf die 9x-Versionen zu. Das schon vor Win95 existente NT war bereits ein echtes 32-Bit Multitasking-System, auf dem alle folgenden Versionen ab W2K basieren. Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.
Icke ®. schrieb: > Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man > konnte ähnlich wie bei Unix zwischen den Konsolen umschalten. Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen für normales DOS, mit denen mehrere parallele virtualisierte DOS-Sessions möglich wurden.
A. K. schrieb: > Ebendiese Architektur hätte dank ihrer extrem inkrementellen > Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen. > Die war in der Hinsicht weit schlimmer als x86. Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen, bevor Du solche Aussagen in den Raum stellst. National hatte einfach den Zug verschlafen und das Marketing vernachlässigt. NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und damals Intel um Jahre voraus. Wenn ich nur an den Krampf mit A20 denke.... Nur Dank Mickysoft konnte sich die x86 Archtitekur so gewaltig durchsetzen. http://de.wikipedia.org/wiki/NS320xx bzw. http://stuff.mit.edu/afs/sipb/contrib/doc/specs/ic/cpu/ns32532.pdf
A. K. (prx) schrieb: Icke ®. schrieb: >> Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man >> konnte ähnlich wie bei Unix zwischen den Konsolen umschalten. > Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen > für normales DOS, mit denen mehrere parallele virtualisierte > DOS-Sessions möglich wurden. Nur wollte DR-DOS damals kaum einer ernsthaft auf seinem Rechner haben. Das hatte nämlich ein paar Kompatibilitätshänger gegenüber MS-DOS. Noch dazu gabs die Disketten zunächst auch nicht umsonst, sondern lediglich günstiger als das damalige MS-DOS. Also aufpassen, dass hier keine Mythen gestrickt werden. ;)
> DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder > weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra > einen neuen Betriebsmodus eingeführt, damit Multitasking mit > Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 > genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter > verbessertem Multitasking, und es wurde extra noch die Möglichkeit in > die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren > zu können, damit auch alte Programme darin weiter benutzt werden können. > Und DOS hat ihn als schnelleren 8086 genutzt. Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine neue Plattform umzuschreiben. Das können sich manche Hardwaredeppen, die ständig inkompatibles Zeug konstruieren, offenbar gar nicht denken.
Ein Argument für MS-DOS ist hier noch gar nicht genannt worden: Vitamin B "Bill Gates Mutter Mary hatte über die Wohltätigkeitsorganisation „United Way“, in welchem sie im Vorstand war, Kontakte zu John Opel, dem Präsidenten von IBM. Über diese Verbindung bereitete sie für ihren Sohn den Weg zu „Big Blue“." Quelle: http://de.wikipedia.org/wiki/Microsoft
> Die ganze 80x86 Architektur ist aus meiner Sicht Müll.
Aus deiner Sicht.
Was mehr über deine Blindheit aussagen, als über den 80x86, der sich
nämlich gegen all die "angeblich besseren" 68k, 32k, etc. durchgesetzt
hat.
Es war nämlich verdammt schlau, schon 1976, als noch gar nicht genügend
grosse Chips möglich waren sondern nur von Gordon Moore postuliert
wurden, eine Architektur eines Grossrechners (Burroughs 5500) der damals
als fortschrittlich und gut galt, so zusammenzustreichen, daß er als 16
bit Prozessor implementierbar war, das ging eben in dem man die ganze
Speicherverwaltung auf simple Addition zusammenstrich.
Die Leute bei Intel waren nämlich im Gegensatz zu dir nicht uninformiert
und doof, sondern ihrer Zeit voraus.
Der 286 ist dann die Realisierung dieser Burroughs als single chip mit
Segmenten und Speicherschutz und allem pi pa po. Leider hat man das
dirty bit vergessen.
Daß dann Windows NT wieder den Rückschritt machte, war der DEC Alpha zu
verdanken, die war nämlich zu blöd für Segmente, und seit dem haben wir
den Salat, wo eine DLL mehrfach in den Speicher muß weil reloziert
werden muß, also der Code im Speicher auch nicht dem Code auf der Platte
entspricht, sondern je nach Prozess anders sein muß. Der Idiot hiess
David N. Cutler.
Ihr seid alle viel zu jung. MS-Dos ist keine eigene Entwicklung und erst recht keine Erfindung von Bill Gates. Große Betriebssysteme gab es schon vor 1970. Für die kleinen CPUs 8004, 8008 und 6800 begann die Entwicklung Angang der 70er. Um ca. 1976 habe ich schon mit dem Betriebssystem FLEX auf einer 6800-CPU mit 1 MHz gearbeitet. FLEX konnte zu Beginn über ein Controller-IC zwei Diskettenlaufwerke mit je 128kB bedienen. Meine Platinen und die Pläne waren selbstgemacht. Im Betriebssystem FLEX hat man I/O-Adressen an die eigene Hardware angepasst und dann lief das System. Assemblerlistings waren frei verfügbar und somit konnte FLEX sehr gut angepasst werden. Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die 80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben. Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer graphischen Benutzeroberfläche und Mausbedienung. Auch hier hat Bill Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und nichts Neues vorgestellt. Joe
Unixer schrieb: > Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen, > bevor Du solche Aussagen in den Raum stellst. Ich habe diese Architektur einstmals recht genau angesehen - und eben darauf gründet meine Aussage. Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt, erfordert einen beachtlich hohen Aufwand. Der Aufbau eines Befehls ist extrem variabel und die Länge von maximal 4 möglichen Displacements im jedem einzelnen Displacement selbst zu codieren bedeutet, dass Länge des Befehls und Position der sehr vielen Komponenten des Befehls nur aufwendig zu ermitteln sind. Speicherindirekte Adressierungen jedes der beiden möglichen Operanden führt zu eine hohen internen Komplexität bei der Umsetzung von Befehlen, wenn sie erheblich schneller sein sollen als das sequentielle Ausführungsprinzip der ersten Generation. > National hatte einfach den Zug verschlafen und das Marketing > vernachlässigt. Und hatte soweit ich mich erinnere erkleckliche Probleme, die erste Generation dieser Prozessoren überhaupt leidlich fehlerarm zu implementieren. Was bei 2-Adress-Architekturen damals nicht so ganz einfach war. Motorola hatte den langsamen Weg des Microcode-Interrupts eingeschlagen, um sich das eine oder andere Problem vom Hals zu halten. NS setzte auf Retry, was schneller und eleganter war, aber ohne OOO-Ausführung bei mehreren Speicheroperanden nicht wirklich einfach ist. Die Architektur erinnert nicht zufällig an die VAX und die Probleme waren ähnlich. DEC musste in deren Weiterentwicklung derart viel Resourcen reinstecken, dass sie danach den Notausgang wählten und mit Alpha eine neue wesentlich einfacher implementierbare Architektur brachten. Der unproduktive Overhead einer Architektur wie VAX oder NS32K liess sich in einfacher verarbeitbaren Architeturen produktiv umsetzen. > NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und > damals Intel um Jahre voraus. Das waren sie, als sie neu waren und die meisten Leute Rechner wie besagte VAX im Kopf hatten. Ein paar Leuten war freilich schon damals klar, dass dieser Weg problematisch ist. Einer sass bei IBM und sein Ergebnis wurde totgeschwiegen, weil es den Erfolg der Mainframes gefährdet hätte. Aber die Architekturen entstanden in einer Zeit, in der kaum jemand an einen realisierbaren Durchsatz von einem Befehl pro Takt dachte, geschweige denn von mehreren. Und genau da haben diese Architekturen gewaltige Probleme bekommen. Weshalb 68K und NS32K letztlich eingestellt wurden. Intel x86 lebte weiter, weil Intel aufgrund des Finanzvolumens der PC-Prozessoren die Resourcen hatte, mit dem Pentium Pro den gordischen Knoten zu durchschlagen. Der freilich etwas einfacher zu implementieren war als ein äquivalenter NS32K Prozessor. Mit der heute möglichen Komplexität der Implementierung wäre eine NS32K wieder machbar. Aber nicht lohnend. > Wenn ich nur an den Krampf mit A20 denke.... Das hat nicht Intel verbockt. Versteh mich nicht falsch: x86 ist grausig. Aber ich betrachte das hier aus Sicht einer Implementierung der Hardware, nicht aus logischer Sicht eines Programmierers.
Joe schrieb: > Ihr seid alle viel zu jung. ;-) > Im Betriebssystem FLEX hat > man I/O-Adressen an die eigene Hardware angepasst und dann lief das > System. Ich habe in Erinnerung, dass das Filesystem von FLEX die Files sektorweise verkettete. Viel Vergnügen bei random access, also beispielsweise jedweder Form von Datenbank. Da ist sogar FAT besser, weil zwar auch verkettet, aber viel dichter zusammen und daher pufferbar.
A. K. schrieb: > Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt, Gemeint war Befehlsdecodierung.
@Joe (Gast) >Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die >80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben. Ja - und Unix hat von DOS abgeschrieben - die haben nämlich auch einen echo-Befehl ... ;-) Ich dachte eher, Gates hatte CP/M als Grundlage genommen, denn da sind die meisten Gemeinsamkeiten deswegen zu finden.
es gibt doch DOS Emulatoren für Windows oder? dann muss es doch auch Windows Emulatoren für DOS geben!
heinz schrieb: > dann muss es doch auch Windows Emulatoren für DOS geben! Klar, nennt sich Windows 3. Einfach WIN und return tippen. Oder dachtest du an eine Art Windows 7, das unter DOS läuft? Am besten im Real Mode mit 640 kB Speicher? Gruss Reinhard
A. K. schrieb: > Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die > verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier > endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips > ist nicht drin. Das hat schätzungsweise einen ganz simplen Grund: Die Intel-Prozessoren sind Massenware und da ist die Wahrscheinlichkeit, daß irgend welche Hacker den Freischaltmechanismus knacken, eher groß. Wenn so ein Hack das Licht der Öffentlichkeit erblickt, hätte das zur Folge, daß Intel das Geschäft unter dem Hintern wegbricht.
Rolf Magnus schrieb: > Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das > Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie > Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese > Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo > sie eigentlich nicht hingehört. Und Jahre später steckte dann das > Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und > das eigentliche Betriebssystem war zum Bootloader verkommen. Tja, mein Lieber, da liegst du eben ganz falsch. Aber mach dir nix draus, hunderte von Linuxern denken genauso falsch wie du, weil sie die Funktionalität hinter einer grafischen Oberfläche nicht begreifen wollen/können und deshalb allzeit predigen, daß man den Betriebssystemkern nebst seinen Peripheriefunktionen möglichst säuberlich von der grafischen Oberfläche getrennt halten müsse. Diese Knaller müssen noch viel dazulernen, bis sie endlich begreifen, daß die grafische Oberfläche eben nicht aus ein paar Rändern, Flächen, Bildchen und etwas Text besteht, sondern aus hunderten von Programmen, die alle von einem möglichst schnell reagierenden Multitasking-Kernel bedient sein wollen - und dazu braucht man den Scheduler eben mitten drin in der grafischen Oberfläche. Ein davon separater "Betriebssystem"-Kernel ist hingegen völlig überflüssig. Die paar Dienste, die abseits der Oberfläche im PC so herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten. Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) einfach in die Tonne zu treten. Solche Systeme wie Android oder Bada haben ja schon mal einen ersten Eindruck geliefert: Bei beiden dient das darunterliegende Linux nur noch als eine Art Fußabtreter. Bei Bada sogar offiziell, denen ist es relativ wurscht, was sie für ein System unterhalb von Bada nehmen, um Dateien lesen und schreiben zu können. DOS war zu keiner Zeit als Multitasking-BS gedacht, sondern als Dienstleister, der es gestattet, Applikationen (z.B. Word oder Excel) zu starten und der anschließend nur noch zum Dateiverkehr benötigt wurde. W.S.
Joe schrieb: > Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die > 80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben. Definitiv nicht... MS hat, nach dem sie den Deal mit IBM hatten, QDOS inkl. Entwickler eingekauft und dann das System umgestrickt, da QDOS mehr oder weniger ein CP/M-Clone war. Daher wohl auch die angebliche Zahlung von IBM an DR, obwohl dem Gericht damals die Unterschiede groß genug waren und DR den Prozess verloren hat. > Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer > graphischen Benutzeroberfläche und Mausbedienung. Windows gibt's auch seit 1985, ebenso wie den Amiga > Auch hier hat Bill > Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und > nichts Neues vorgestellt. TOS = GEM+DOS 1) Bei den GUIs haben ALLE bekannten Hersteller (Apple, DR (für Atari), MS, Amiga/später Commodore) bei Xerox abgekupfert. Erster Rechner mit GUI: Xerox Alto von 1973 auf dem es dann auch die ersten Smalltalk-Versionen liefen. 1) Deshalb war bei den meisten Programmen http://www.drdos.net/documentation/sysprog/chap4.htm http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen... > Weshalb 68K und NS32K letztlich eingestellt wurden. Na, ganz so schlimm ist es dem 68k nicht ergangen... Freescale listet die immer noch, auch 040 und 060 (MC68060RC60 für schlappe 458.61 USD bei 10k...) und in den ColdFire-Varianten steckt auch noch viel 68k.
Jens G. schrieb: > Ja - und Unix hat von DOS abgeschrieben Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie teilweise anders heissen wie ls bei Unix oder DPV bei Siemens ändert daran garnichts). Ich habe schon lange vor CP/M ein Floppy-Betriebssystem geschrieben für einen heute nicht mehr bekannten Prozessor (F8), und ganz ohne was abschreiben zu können hatte das System annähernd die gleichen Befehle. Jeder Programmierer der seine Tassen halbwegs im Schrank hatte, wäre etwa auf das Gleiche gekommen. Gruss Reinhard
Reinhard Kern schrieb: > Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl Die Befehle waren damals (TM) Allgemeingut. Egal in welchem Betriebssystem, Programmiersprache oder Prozessor wurden die verwendet. Aus dem Monitor und dem BASIC meines Z-1013 Bausatzes von 1986 waren die üblich.
@Reinhard Kern (Firma: RK elektronik GmbH) (rk-elektronik) >Jens G. schrieb: >> Ja - und Unix hat von DOS abgeschrieben >Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl >nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie Ich wollte damit nur die Absurdität von Joe's FLEX als Basis der DOS-Befehle unterstreichen ... Das mußt Du also Joe sagen, nicht mir.
http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert.
W.S. schrieb: > Die paar Dienste, die abseits der Oberfläche im PC so > herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten. Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut in Embedded-Systeme integrieren lässt... > Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem > Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. > zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung > auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) > einfach in die Tonne zu treten. Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und warum man das nicht in die GUI integriert? Und dass Windows ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst, dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt ist?
Sven P. schrieb: > W.S. schrieb: >> Die paar Dienste, die abseits der Oberfläche im PC so >> herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten. > Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut > in Embedded-Systeme integrieren lässt... > >> Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem >> Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. >> zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung >> auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) >> einfach in die Tonne zu treten. > Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und > warum man das nicht in die GUI integriert? Und dass Windows > ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst, > dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt > ist? So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern? Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen Talk.
Lukas K. schrieb: > So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer > würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern? > Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen > Talk. Ja und nein. Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt und der Graphikmist saß im Usermode. Dann hat man das wohl für zu ineffizient befunden und in den Kern verschoben. Das war dann die totale Neuerung und sollte die graphische Oberfläche um Welten flotter machen und so weiter. Allerdings wird ein verkorkstes Framework halt nicht besser, wenn man Hardware und Rechenleistung draufschmeißt. Heute noch ruckelt und zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen Binaries extrahiert wurden und so weiter. Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst mit X11 über Netzwerk schon... Die Folgen davon, alles in einen 'Kern' zu packen, sind dann zum Beispiel, dass irgendein total nebensächlicher Prozess abstirbt und plötzlich das ganze System verstopft. Ich sag nur Windows und Druckerspooler stöhn
> 1) Deshalb war bei den meisten Programmen > http://www.drdos.net/documentation/sysprog/chap4.htm > http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT > Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen... Scherzkeks, welch Wunder daß die Nummern übereinstimmen, DR DOS war von Digital Research, und GEM war von Digital Research, und das DOS unter dem GEM war ein ? DR-DOS, was sonst. Herr wirf Hirn oder erkläre den Kindern mal die Geschichte.
MaWin schrieb: >> http://www.drdos.net/documentation/sysprog/chap4.htm >> http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT >> Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen... > > Scherzkeks, welch Wunder daß die Nummern übereinstimmen, > DR DOS war von Digital Research, > und GEM war von Digital Research, > und das DOS unter dem GEM war ein ? DR-DOS, was sonst. > > Herr wirf Hirn oder erkläre den Kindern mal die Geschichte. Ach, um was ging's in der Diskussion nochmal? DR DOS ist von 1988 und ist definitiv nicht GEMDOS. GEM wurde von Atari Leuten die zu DR geschickt wurden portiert, das GEMDOS "darunter" wurde deshalb genommen, da CP/M-68k immer noch kein hierarchisches Dateisystem hatte und dazu grottenlahm war und - GEMDOS wurde in Anlehnung an (eher Clone von) MS-DOS entwickelt, nicht andersrum.
http://de.wikipedia.org/wiki/TOS_(Betriebssystem) Du meinst wohl Mint http://de.wikipedia.org/wiki/MiNT
MaWin schrieb: > http://de.wikipedia.org/wiki/TOS_(Betriebssystem) http://en.wikipedia.org/wiki/DR-DOS 1984 Concurrent DOS, dann die abgespeckte DOS Plus-Variante, "It did not perform well, and Digital Research made another attempt, this time a native DOS system. This new disk operating system was launched in 1988 as DR DOS." > Du meinst wohl Mint > > http://de.wikipedia.org/wiki/MiNT Nein, das kam mehr oder weniger raus als das letzte Gerät (Falcon) nach kurzem Marktauftritt abgekündigt wurde. Hier gibt's die Geschichte etwas ausführlicher http://www.atarimagazines.com/startv3n1/threeyearsofst.html ab "HARD CHOICES, HARD TIMES" und um den Satz von oben zu ende zu führen: "Deshalb war bei den meisten Programmen" die ich für den ST geschrieben habe die erste Aktion, das OS auszuschalten. Auch bei den Programmen, die GEM genutzt haben, war es üblich alles von Hand zu zeichnen oder die Line-A-Routinen zu nehmen (auch wenn das hieß erst mal für alle Auflösungen/Farbtiefen optimierte Algorithmen zu schreiben, ST, TT, Falcon).
Sven P. schrieb: > Heute noch ruckelt und > zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen > Binaries extrahiert wurden und so weiter. Das liegt nur an der Implementierung des Windows Explorer, und der läuft im user mode. > Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst mit X11 > über Netzwerk schon... X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen katastrophal langsam. Und das betrifft nicht nur neue Frameworks.
>> Heute noch ruckelt und >> zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen >> Binaries extrahiert wurden und so weiter. Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste CPU und Platte zu kaufen.
hach schrieb: > Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und > irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste > CPU und Platte zu kaufen. Ganz meiner Meinung. Ein Pentium III 650 MHz sollte es schon für Win XP sein...
MaWin schrieb: > Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine > neue Plattform umzuschreiben. Nein, ich sehe nur, daß Microsoft das am falschen Ende getan hat. Andy D. schrieb: > http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass > der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht > gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert. Das schöne am klassischen Unix-Ansatz ist, daß jedes Tool nur genau eine Aufgabe löst, diese aber möglichst gut und daß sich diese Tools auf einfache Weise kombinieren lassen, um komplexere Aufgaben zu lösen. Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht gesehen. Andreas Schwarz schrieb: >> Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst >> mit X11 über Netzwerk schon... > > X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen > katastrophal langsam. Und das betrifft nicht nur neue Frameworks. 10 ms sind aber für ein LAN auch schon sehr viel. Ich habe auch schon OpenGL-Anwendungen (natürlich keine Spiele) und Videoplayer über Remote-X flüssig laufen lassen, und das war bei einem 100-MBit-Netz.
Rolf Magnus schrieb: (wegen Tool-Konzept) > Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht > gesehen. Das gibt es dort auch nicht - und zwar aus prinzipiellen Gründen. Ein grafisches User-Interface ist nämlich nicht ein Bildchen und wie es aussieht, sondern ein möglichst echtzeitfähiges Multiprogram/Multithread-System und das hat mit einem Tool-Konzept rein garnix gemeinsam. Das GUI ist die Funktionalität hinter der sichtbaren Oberfläche. W.S.
Mark .. schrieb: > Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu > werden, obwohl es von der Funktionalität her Unix haushoch unterlegen > war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? > (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert > waren...) Das hatte folgende Gründe: 1. Unix war teuer 2. Unix benötigte viele Resourcen, sowohl vom RAM Speicherbedarf als auch von der sonstigen CPU Leistung. Mehrbenutzerfähigkeit frißt nunmal auch RAM und Leistung. 3. Die Schutzfunktionen die ein Unix bot, gab es auf der x86 Architektur erst mit der Einfürhung des Protected Modes, also dem 80286er. Unix hätte auf einem 8080 also gar nicht so funktioniert, wie man es von den Großrechnern kannte. -> Keine Abschottung der Prozesse untereinander. Nun zu DOS: 4. Quick'n Dirty OS (also MS-DOS) war günstig 5. Der Resourcenverbrauch (RAM & CPU Leistung) war relativ niedrig. 6. Der 8080 Prozessor hatte eh keine Schutzfunktionen, DOS war also das ideale OS. 7. Aufgrund von 6 war auch an einen sicheren Mehrbenutzerbetrieb nicht zu denken, weswegen man das gleich sein lies. Für einen Personal Computer, also ein Computer der nur für eine Person gedacht war, war DOS also ideal. So dachte man damals jedenfalls. Als das erste Unix für den PC umsetzbar war, es also Protected Mode fähige 80286er gab, war DOS schon so stark verbreitet und dieses Unix immer noch so sau teuer, dass es sich praktisch nicht auf dem Markt durchsetzen konnte. Und der 80286 brachte da noch so seine Probleme mit sich, die auch Software Entwickler feststellen mußten, die versuchten aus DOS ein DOS zu machen, dass im Protected Mode läuft und zu alten DOS Programmen abwärtskompatibel ist. Da brauchte es 3 Steppings des 80286er Prozessors, damit das wie gewünscht funktionieren konnte. Der 80286er war letzten endes aufgrund seiner Segmentierung doch nicht so gut für ein Mehrbenutzerbetriebsystem geeignet unter dem Prozesse untereinander gut abgeschottet werden konnten, denn die Programmierung war aufwendig, was dazu führte, dass die eigentlich erst so richtig dafür geeignete CPU erst der 80386er war. Der bot nämlich Pageing anstatt Segmentierung, hatte eine MMU und erlaubte auch einen Virtuellen RealMode. Anmerkung: Dies ist übrigens einer der Hauptgründe, warum der Linux Kernel hauptsächlich nur für den 386er entwickelt wurde, obwohl es in der Anfangsphase versuche gab, eine 286er Version zu entwickeln. Als dieser 386er aber dann endlich auf dem Markt war, da waren dann schon längst grafische Oberflächen wie man sie vom Apple oder Amiga kannte, der gute Ton. Weswegen die Entwicklung gleich in OS/2 und Windows ging. Kein Mensch wollte da ein überlicherweise Kommandozeilenbasiertes Unix haben und der X Server frisst nochmal extra viel RAM, was man auf einem typischen PC kaum vorfand. Vor 1990 dürften die meisten nicht mehr als höchstens 2 MB RAM gehabt haben. Durchschnittliche Rechner mit 8 MB fand man erst ab ca. 1993 in ausreichender Menge und für ein Unix mit X Window Manager sollte man besser 12 oder 16 MB einplanen und das gab's dann erst ca. 1996-1997 standardmäßig im Rechner. Zu dem Zeitpunkt war aber dann schon längst OS/2 Warp und Windows NT für die Zielgruppe auf dem Markt, die sich vielleicht ein Unix angeschafft hätte, während alle anderen weiterhin Windows 95 und DOS verwendeten. Aus all diesen Gründen hatte Unix auf dem PC keine Chance. Und ehe man Unix verwendete, setzte man eher auf Windows NT und OS/2.
Uhu Uhuhu schrieb: > > Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der > hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich > besser, als das, was Gates damals zu bieten hatte. (Die erste Version > von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.) Das hatte CP/M auch nicht.
Hallo, ja es war ein harter Winter, bei uns graben die Wildschweine direkt neben den Häusern die letzten Äpfel aus - so ähnlich graben verzweifelte User aus Langeweile uralte Threads aus und fangen mit der Dikussion ganz von vorne wieder an. Wenns denn sein muss, meintewegen nochmal 200 Posts, aber ohne mich. Gruss Reinhard
Uhu Uhuhu schrieb: > A. K. schrieb: >> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. > > Und genau den gab es beim PC nicht - so war es angekündigt worden und > daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC > ganz kräftigen Rückenwind bekam. > > Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen > gehabt, in ein ähnliches Desaster, wie Lisa zu rennen. > > Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung > nicht mehr völlig im Nebel lag. Der wenige Monate später erschienene 80286 er, der schon 1982 erschien war für den privaten Bedarf und für kleine Firmen schon ein absolutes Leistungswunder. Der 8088 war zwar alt, aber mit dem 286er hatte der PC ein derart starkes Pferd, dass er damals alle Konkurrenz CPU Architekturen in diesem Marktbereich in Sachen Leistung und Features ausstach. Der 8088 war der Anfang, aber der 286 verhalt damit praktisch dem PC von der Leistungskrone her betrachtet zum Sieg. Und spätestens mit dem 386er hatten dann alle anderen verloren.
Reinhard Kern schrieb: > > Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit > 7bit-ASCII-Code schreiben. > Blödsinn. Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch 1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp. Mit steigenden RAM Größen war aber dann überall abzusehen, dass sich Codes die auch nicht englische Zeichen unterstützen, definitiv durchsetzen würden. Stell dir vor, vor der x86 PC Ära, als der Apple 2 & Co Standard war, gab es sogar Rechner für den privaten Bedarf, die nur Großbuchstaben schreiben konnten.
Lukas K. schrieb: > Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber > rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's > gettext zur Lokalisierung während der Laufzeit schon seit '95. Gettext gibt's leider nur für GPL Programme. > Auch > sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch > wen Windows intern anscheinend UTF-16 verwendet???), während der Rest > der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus. Käse. Windows 1252 gibt's aufgrund der Abwärtskompatibiltät. Und UTF-8 können die Windows APIs auch, nur wird UTF-16 aus Geschwindigkeitsgründen für manche Dinge bevorzugt. Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine spezielle Behandlung die unter Umständen langsamer sein kann, als das etwas mehr Speicher fordernde UTF-16 Format. Die Java VM verwendet übrigens ausschließlich nur UTF-16.
A. K. schrieb: > > Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und > die Systeme dazu rangieren unverändert ganz vorne. Das hat man gesehen, als Apple von den PowerPCs zur x86 Architektur gewechselt sind. Da hat so mancher Maccianer, der immer noch als ewig Gestriger auf das A20-Gate herumhakte, so richtig große Augen gemacht, als er sah, um wie viel schneller so ein x86er bei gleichem Geldeinsatz ist. > Nur sind die schlicht > zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz > unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits > die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren > lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs. Die IA64 Architektur hat sich aber unter anderem auch deswegen nicht durchgesetzt, weil sie völlig andere Compiler und eine andere Art der Programmierung Voraussetzte und dies sich in der Praxis dann nur sehr schwer umsetzen lies. Siehe dazu der WP Artikel zur IA64 Architektur, da müsste einiges dazu stehen.
MaWin schrieb: > Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen > sind die bessere Implementation als 16 bit wie es Windows tut. Nein, das hängt davon ab, was man machen will. UTF-16 ist wesentlich performanter. Das mag bei Deutschsprachigem Text, der nur aus wenigen Sonderzeichen besteht, nicht auffallen. Aber bei Chinesisch und so Zeugs schlägt UTF-16 in Sachen Performance UTF-8 um Längen. Es gibt hier also kein, das ist besser als das andere, sondern es kommt ganz auf die Situation an. Für eine API für das Programmieren ist eine feste Bytegröße (UTF-16) immer besser als eine Lauflängenkodierung (UTF-8), letztere gewinnt erst dann, wenn a) nur wenige Sonderzeichen im Text verwendet werden und b) das Zeugs übertragen werden soll. Für's Internet, also für Webseiten ist UTF-8 also ideal, weil es, sofern der Großteil des Textes weiterhin aus englischem Standardzeichen besteht, nur wenig Datenübertragungskapazität und Speicherplatz benötigt. Auf der CPU aber, bremst UTF-8 den Rechner stärker als UTF-16. Für eine Datenbank würde ich also nie und nimmer auf UTF-8 setzen wollen.
skorpionx schrieb: > „expanded memory“, „extended memory“,“upper memory“. > Adresse = Segment*16 + Offset. > > Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger > und neunziger Jahren. > Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele > Jahren hat die Entwicklung durch diesen Bremsen verloren... Da der 386er 1985 auf dem Markt kam und der erste IBM PC 1981 sind das theoretisch nur 4 Jahre. Praktisch hat's zwar länger gedauert, weil IBM ihr OS/2 unbedingt auch auf dem 286er laufen lassen können wollten, welcher ja schon den Protected Mode kannte, nur eben halt noch mit Segmentierung und Microsoft sich gerade deswegen dann erst von OS/2 abkoppelte um dann Windows NT zu entwickeln und all das hat leider etwas gedauert.
Karl schrieb: > Sven P. schrieb: >> Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit >> Zusatzprogrammen und Shareware war dem schon abzuhelfen. > > Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware > ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor > an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf. Quatsch. Praktisch reicht WordPad um einen Brief zu schreiben. Und damals gab's auch an den Ausdruck andere Anforderungen. Mir hat da auch edit.exe gereicht, das war Bestandteil von MS-DOS 5.0. Und wenn man schnell was berechnen wollte, dann konnte man das durchaus auch mit QBasic lösen, was ebenfalls Bestandteil von MS-DOS 5.0 war. Man mußte zwar Programmieren können, aber Basic ist auch nicht viel komplizierter als die Bedienung und Schalteroptionen der ganzen Unix Tools awk, sed, vi usw. kennenzulernen. In den Anfängen der Personal Computer gehörte das Programmieren können in Basic sogar zum Normalzustand.
Wolfgang R. schrieb: > > Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes > Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran. > Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als > recht mobil telefonieren können. > Optik ist alles, Bedienung andere Baustelle. Hi, hi, kleine Anekdote. Erst neulich habe ich eine junge Dame gesehen die als Handy wahrhaftig einen riesen Knochen in der Hand hielt und damit telefonierte. Das ding war ein modernes Tabletartiges Smartphone und als Klapphandy konzipiert. Ich könnte euch gar nicht vorstellen, wie ulkig das aussah, als sie diesen riesigen Knochen ans Ohr hielt um zu telefonieren und alle Personen darum sie nur staunend anschauten. Die Abmessungen waren geschätzt ausgeklappt ca. 30 cm lang und 8,5 cm breit und dieses Riesenteil hielt sie an den Kopf.
W7 schrieb: > Es gelang aber nicht und > AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst > direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann > auch einen DX Rechner leisten, durch einfachen Austausch der > Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und > konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz. > hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix. Das stimmt so auch nicht. Gerade zur Zeit des Pentium 166 MHz hatte Cryix mit dem Cyrix 6x86 eine CPU im Peto, die mit nur 133 MHz Taktfrequenz in der Integerleistung schneller als der höher getaktete Pentium 166 MHz war.
MCUA schrieb: > Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit > Erweiterung gemacht, weil 'normal' Evolution und kompatibel, > und nach AMD gibts ja auch noch VIA. Nein, das hätte Intel nicht. Hätte es AMD nicht gegeben, dann hätte Intel die x86 Architektur zugunsten des Itaniums sterben lassen. Das wäre kein Problem für Intel gewesen, sie hätten nach etwas Anlaufzeit und Nutzung der IA64 Architektur im Hochpreissegment dann nur die Preise senken müssen, so dass diese auch Einzug in die normalen Haushalte erhalten hätte. Und das hätte Intel spielend machen können, denn Intel hat genug Barreserven auf der Hand um da einen sehr langen Atem zu haben. Aber praktisch ging es dann nicht, solange AMD da war und eben 64 Bit auf x86 herausbrachte.
troll schrieb: > Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man > jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere > Hardware im Vergleich zum IBM-AT. Hatte er nicht. Schon der 386er lies jeden Amiga alt aus sehen. Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu programmierenden AGA Chipsatz.
Carsten Sch. schrieb: > Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe > das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit > EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das > auch lief -ohne spezielle Startdiskette. > (Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil > das ja EMM386 immer geladen hat.) Hat es nicht! Ich habe mir MS-DOS 6.0 damals noch zugelegt und EMM386 wurde nur dann geladen wenn man es auch in die entsprechende Konfigurationsdateien eintrug. (autoexec.bat oder config.sys) MS-DOS 6.0 hatte sogar den spitzen Vorteil, dass man Menüs anlegen konnte, womit man sich das mit den Startdisketten sparen konnte und man immer die passende Konfiguration zur Verfügung hatte. Ich hatte dann am Ende etwa die folgenden Kombinationen: 1. EMM386 ohne CD-ROM Treiber (ja, MSCDEX fraß ne Menge Speicher und manche Spiele hatte ich noch auf Diskette) 2. XMS ohne CD-ROM Laufwerk, kein EMM386 3. EMM386 mit CD-ROM Treiber 4. XMS mit CD-ROM Treiber aber kein EMM386 5. EMM386 ohne CD-ROM Treiber und ohne Maus Treiber 6. Windows 3.1 mit CD-ROM Treiber Dazu kamen dann noch so paar weitere Sachen die dazu geladen wurden. Wie z.B. ein VESA 2.0 BIOS, das nachgeladen wurde, weil die Grafikkarte keine derartige VESA Version auf der Karte hatte. War aber per SW schnell nachrüstbar. Treiber für den SCSI Adaptec Controller. > Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam > und meine Versuche damit machte, da dauerte es erst einmal Tage bis > überhaupt die Hardware im PC richtig erkannt und initialisiert wurde. Alles richtig. Linux war zu der Zeit keineswegs das einfache "auto konfigurier dich selbst OS", wie es dein Vorposter behauptete. Wenn es ganz schlimm war und z.B. man noch ISA Karten im Rechner hatte, dann mußten die I/O Ports, IRQs und der DMA Kanal ebenfalls noch konfiguriert werden und das war in den Tiefen der Konfigurationsdateien und Optionen wesentlich schwieriger als bei MS-DOS oder Windows 3.1. Um die SOundkarte in einem DOS Spiel zu nutzen, mußte man zwar bei fast jedem Spiel die SETUP.EXE Datei einmalig ausführen, aber dafür bekam man dann in der Regel ein einfaches Menü geboten und dann lief die Karte im Spiel. Und die 2 Zeilen die man in die Config.sys (oder AUtoexec.bat) bezüglich der Soundkarte eintragen mußte, das war auch kein Hinderniss. Unter Linux mußte man aber erstmal darauf achte, dass man mit modprobe den richigen Treiber lud und das auch entsprechend in der /etc/modules Config eingetragen hatte. Im großen und ganzen kann man aber sagen, dass Linux erst als IBM auf der CeBit 1998 angekündigt hat, auf Linux zu setzen, auch Linux erst so richtig populär wurde. Davor war es in Computerzeitschriften überwiegend kein Thema und bestenfalls ne Randnotiz. Automatisch per Autokonfiguration konfigurierbar war es eigentlich erst ab Ubuntu Dapper Drake. Dürfte 6.06 gewesen sein.* Ansonsten mußte man immer hier und da Hand anlegen, auch bei Suse mußte man in Yast herumkonfigurieren. * Hier sei gesagt, dass es weniger an Ubuntu festgelegt ist, sondern eher an den Sachen unter der Haube die alle Linux Distributionen betrafen. Also udev und so Zeugs. > > ICh denke manche sehen das ganze einfach zu sehr durch die NERD > Brille... > JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom > technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der > Zeit. Als Windows 3.1 auf dem Markt war, war Linux ne ziemliche Alpha Version mit 0.9* Kernel. Als Produktivsystem also absolut unbrauchbar und als Win9x auf dem Markt kam, gab's ziemlich großes Staunen in der Linux Szene, wie fortschrittlich die grafische Oberfläche von Windows 9x gegenüber dem bekannten (X Window, Window Manager und auch Windows 3.1) war. Halbwegs brauchbar war Linux erst ab Kernel 2.0 und das auch nur auf Kommandozeilenebene. Für den grafischen Desktop hat es noch ne ganze Weile gedauert, bis endlich KDE 1.1 draußen war. Die erste halbwegs akzeptable Oberfläche, die featuretechnisch mit Windows 95 halbwegs mithalten konnte, schön war sie da aber noch lange nicht, das kam erst mit KDE 2.x (oder meinetwegen auch Gnome 1.x, was aber erhebliche Feature und Usabilitymängel in der 1.x Version hatte). Ach ja und an den geringen Resourcenbedarf von Windows 9x oder Windows 3.1 kam kein Linux + X Window Oberfläche heran. Für den reinen Kommandozeilenmodus sollte es bei einem 2.2er Kernel mindestens 8 MB RAM Sein. DOS + Windows 3.1 lief da schon mit nur 4 MB sehr gut. Und Windows 9x konnte man ab ca. 8-16 MB ganz gut nutzen, wobei Linux mit KDE erst ab ca. 64 MB RAM Spaß machte. > Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen > -besonders den kleineren- alles andere als Selbstverständlich war und > von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann > hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren > die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde > gewesen wären!) Es gab noch die Möglichkeit mit einem speziellen Gerät einen Dienst zu nutzen, der Programme und Infos über das Fernsehsignal laden konnte, welches wie der Videotext zwischen den Zeilensprüngen verbreitet wurde. Den Namen hab ich allerdings vergessen. Ich kann mich nur noch daran erinnern, dass ich auf der Hobby-Elektronik in Stuttgart um das Jahr 1994 herum so ein Teil kaufen wollte, aber dazu kam es dann nicht und wenige Zeit später wurde der Dienst dann auch eingestellt, so dass es im Nachhinein kein Fehler war, auf dieses Gerät zu verzichten. Und mit dem damals aufkommenden Großangebot an vielen CD-ROMs mitsamt PD-, Patch- und Sharewaresammlungen war der Bedarf auch gar nicht mehr so groß.
Unixer schrieb: > Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus > meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und > einen neuen Proz. mit vernünftiger Architektur entwickeln sollen. > Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren > entwickelt. Teilweise auch die Hardware. Das waren (leider waren) > Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten > wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen > könnte man würde in C programmieren. Entsprechend optimal war auch der > C-Compiler. Am dem 386er im Protected Mode ist die x86 Architektur aus Programmierersicht definitiv kein Müll mehr und ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes. CISC hat damals übrigens den Vorteil gegenüber RISC geboten, dass man sehr kleine speichersparende Programme schreiben konnte, während man in RISC vieles erst mühsam in Software umschreiben mußte und das den Code aufblähte. Als der IBM PC also eingeführt wurde, war CISC ganz klar ein Vorteil und kein Nachteil. Denn RAM Speicher war damals sehr knapp bemessen und schweineteuer. > Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss > ich feststellen, dass die für den Anwender komplizierter und > unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw. > Ubuntu). Dem muss ich entschieden widersprechen. Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung auf, meistens, wenn Updates eingespielt werden, dann ist der Benutzer meistens aufgeschmissen, weil der Rechner nicht mehr so funktioniert wie er sollte. Entweder geht plötzlich der Sound, der Drucker oder das Netzwerk nicht mehr und all das meistens genau dann, wenn man es am dringensten braucht. Diese Erfahrung habe ich jetzt schon ständig machen müssen und ich bin beileibe kein unerfahrener Linuxer, ich muss also letzten Endes meist selbst Hand anlegen um ein Problem zu fixen, das gar nicht hätte passieren dürfen. Windows 7 läuft dagegen auf meinem Rechner seit der Erstinstallation rockstabil und bis jetzt hat kein einziges Update dessen Funktionalität außer Kraft gesetzt. Ubuntu kann da von Windows 7 also noch sehr viel lernen. Richtig ist lediglich, dass Windows XP recht Umständlich bei der der Konfiguration und Usability ist, wenn man mal etwas konfigurieren und sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe ja inzwischen Windows 7 und das ist meiner Meinung nach ganz klar das bisher beste Windows, welches MS auf dem Markt gebracht hat. Windows 8 dagegen ist ein schlechter Witz, welcher hoffentlich so schnell wieder verschwindet wie Windows Vista. Windows 7 ist jedenfalls ein sehr gutes, robustes, ausgereiftes und ordentliches OS, ich kann da nicht meckern. Und das sage ich dir als Linuxer der Linux neben Windows schon > 14 Jahre auch als Hauptsystem im Einsatz hat.
Rolf Magnus schrieb: > Matthias Sch. schrieb: >> ach schrieb: >>> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den >>> Abhängigkeiten in autoexec.bat und config.sys haben. Eine >>> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch >> >> Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde >> auch auf der 386er Platform entwickelt. > > DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder > weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra > einen neuen Betriebsmodus eingeführt, damit Multitasking mit > Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 > genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter > verbessertem Multitasking, und es wurde extra noch die Möglichkeit in > die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren > zu können, damit auch alte Programme darin weiter benutzt werden können. > Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den > neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die > Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble > Krücken. > Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das > Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie > Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese > Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo > sie eigentlich nicht hingehört. Und Jahre später steckte dann das > Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und > das eigentliche Betriebssystem war zum Bootloader verkommen. MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das zukünftige OS werden. Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected Mode des 386er laufen konnte und diesen recht weitgehend nutzte. Probleme gab es nur noch mit dem Zugriffsschutz, denn der war in Windows 3.1 noch nicht implementiert und DOS hatte im Notfall noch das sagen. Aber spätestens mit Windows NT änderte sich all das ja.
Mario K. schrieb: > Schönes Thread schön zu lesen! Könnte auch ein Buch werden. Ich habe mal fleißig daran weitergearbeitet und ein ganzes neues Kapitel hinzugefügt. ;)
Computerfachprofi schrieb: > Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected > Mode des 386er laufen konnte und diesen recht weitgehend nutzte. Wenn jedes DOS Programm die Kiste abschiessen konnte, kann von protected Mode nutzen keine Rede sein.
Computerfachprofi schrieb: > Aber spätestens mit Windows NT änderte sich all das ja. Unix konnte das schon 15-20 Jahre früher.
Computerfachprofi schrieb: > Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu > ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung > auf, meistens, wenn Updates eingespielt werden LTS Version ?
Sven P. schrieb: > Lukas K. schrieb: >> So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer >> würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern? >> Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen >> Talk. > Ja und nein. > Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt > und der Graphikmist saß im Usermode. Dann hat man das wohl für zu > ineffizient befunden und in den Kern verschoben. Das war dann die totale > Neuerung und sollte die graphische Oberfläche um Welten flotter machen > und so weiter. Die ganze Geschichte des Wechsels vom Userspace in den Kernelspace kann man hier nachlesen: http://technet.microsoft.com/en-us/library/cc750820.aspx
AntiHirnWäscher schrieb: > Computerfachprofi schrieb: >> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected >> Mode des 386er laufen konnte und diesen recht weitgehend nutzte. > > Wenn jedes DOS Programm die Kiste abschiessen konnte, kann von protected > Mode nutzen keine Rede sein. Doch, denn ich bezog mich hier auf den linearen Speicherzugriff, der mit dem 386er und im Protected Mode nun möglich war. Das die Sicherheit da noch nicht gewährleistet war, habe ich hier auch irgendwo schon erwähnt.
AntiHirnWäscher schrieb: > Computerfachprofi schrieb: >> Aber spätestens mit Windows NT änderte sich all das ja. > > Unix konnte das schon 15-20 Jahre früher. Ja und? Ist nicht das Thema hier. Die Nachteile von Unix sind bekannt, insbesondere zur Zeit der Einführung des PCs. Dazu habe ich ja oben genug geschrieben.
AntiHirnWäscher schrieb: > Computerfachprofi schrieb: >> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu >> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung >> auf, meistens, wenn Updates eingespielt werden > > LTS Version ? Die auch.
Computerfachprofi schrieb: >> Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und >> die Systeme dazu rangieren unverändert ganz vorne. > > Das hat man gesehen, als Apple von den PowerPCs zur x86 Architektur > gewechselt sind. Die Leistung selbst ist da, aber IBMs Implementierungen adressierten damals wie heute den Server-Bereich. Für Desktop/Notebook-Prozessoren war Motorola zuständig gewesen, und die bekamen es im Rahmen des viel kleineren Marktes nicht gebacken. Die Preis/Leistungs-Relation stimmt bei den IBMs im Desktop/Notebook-Sektor nicht. Die Leistung selbst ist da, die POWER Prozessoren sind nach wie vor vorne. > Da hat so mancher Maccianer, der immer noch als ewig Gestriger auf das > A20-Gate herumhakte, Hehe... Ob Andreas Stiller hier wohl mitliest? ;-) > so richtig große Augen gemacht, als er sah, um wie > viel schneller so ein x86er bei gleichem Geldeinsatz ist. Die Masse machts. Mit genug Motor fliegt auch ein Scheunentor und mit genug leidlich kompetent investiertem Geld läuft auch ein x86 schnell. Aber dieses Geld kommt nur mir Masse wieder rein, wenn das Produkt bezahlbar bleiben soll. Diese Masse war bei der PowerPCs nicht gegeben.
Computerfachprofi schrieb: > ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes. Eine schnelle Architektur, aber keine schlanke. Der in Hardware statt Software umzusetzende Wasserkopf blieb. Es störte nur nicht mehr, weil die Chiptechnik weit genug war, um den gegenüber RISC zusätzlichen Aufwand mitschleppen zu können. Dito Intel Atom vs. ARM Cortex A15. Der Wasserkopf ist da, aber der effektive Unterschied für den Anwender nicht. Dass der Wasserkopf aber als nicht völlig irrelevant betrachtet wurde, bewies Intel mit dem Pentium 4. Denn dessen Trace-Cache adressiert ja massgeblich eben diesen Wasserkopf. Das ging zwar in die Hose, aber Reste dieser Technik finden sich in den aktuellen Intels wieder.
Computerfachprofi schrieb: > AntiHirnWäscher schrieb: >> Computerfachprofi schrieb: >>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu >>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung >>> auf, meistens, wenn Updates eingespielt werden >> >> LTS Version ? > > Die auch. 10.4 macht es bei mir seit 3 Jahren ziemlich gut. Weniger Aufwand als unter XP.
A. K. schrieb: > Computerfachprofi schrieb: >> ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes. > > Eine schnelle Architektur, aber keine schlanke. Der in Hardware statt > Software umzusetzende Wasserkopf blieb. Es störte nur nicht mehr, weil > die Chiptechnik weit genug war, um den gegenüber RISC zusätzlichen > Aufwand mitschleppen zu können. Welcher Wasserkopf? Durch die MicroOpcodes ist die CPU ein RISC Kern und mit diesen werden dann die CISC Instruktionen der x86 Architektur nachgebildert. Ein normaler RISC macht hier auch nichts anderes, als mehrere Opcodes hintereinander auszuführen um einen Befehl auszuführen, den ein einziger CISC Befehl ausführen wurde. Bei den normalen RISC CPUs nennt man das eben nur nicht µOpcodes. > Dito Intel Atom vs. ARM Cortex A15. Der > Wasserkopf ist da, aber der effektive Unterschied für den Anwender > nicht. Gerade der Atom ist AFAIK KEIN Intel RISC, wie eben der Pentium 2 bzw. genauer der Pentium Pro ( ich vergesse leider immer wieder, dass es den Pro gab, die RISC microopcode Bauweise fing natürlich mit dem Pro an, nicht mit dem P2).
@ Computerfachprofi >Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element >Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine >spezielle Behandlung die unter Umständen langsamer sein kann, als das >etwas mehr Speicher fordernde UTF-16 Format. das stimmt so nicht.. hier der ERSTE absatz: http://www.unicode.org/faq/utf_bom.html nicht jedes "zeichen" in UFT_16 ist 2 Byte lang... >Blödsinn. >Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch >1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp. DAS wäre jetzt interessant im RAM ?? (ich kenne das nur von serieller übertragung (terminal) dass man sich das 1 bit sparte, aber im RAM ?? dort war doch immer schon 1 Byte = 8 Bit ?? (der 386 war auch nicht IN ALLEN BELANGEN besser als der AMiga, aber das lassen wir jetzt mal...)
Computerfachprofi schrieb: > Welcher Wasserkopf? Dekodierung von Befehlen mit stark variabler Länge und mit Präfixen, die die Erkennung der Länge der Befehle beeinflussen. Der Pentium 1 und die Nexgen/AMDs verwendeten deshalb Predecoding mit 1-5 zusätzlichen Bits pro Byte im I-Cache. Ebenso der Trace-Cache (zzgl. eines anderen Vorteils) vom Pentium 4 und der microop cache vom Sandy Bridge. NB: Auch 68020 und Nachfolger hatten arg aufwendig superskalar zu dekodierende Befehle. > Gerade der Atom ist AFAIK KEIN Intel RISC Sicher, aber am Problem der superskalaren Dekodierung ändert das nichts. Verlängert mindestens die Pipeline, vergrössert ggf. die Fläche durch zusätzliche Caches oder -bits. > wie eben der Pentium 2 bzw. > genauer der Pentium Pro ( ich vergesse leider immer wieder, dass es den > Pro gab, die RISC microopcode Bauweise fing natürlich mit dem Pro an, > nicht mit dem P2). Die Methode hatten andere ziemlich zeitgleich zu Intel allerdings auch drauf, wie Nexgen (Nx586, aus dem Nx686 Design wurde letztlich der AMD K6) und AMD (K5). Ich meine mich zu erinnern, dass zumindest publizistisch Nexgen vorne lag.
Computerfachprofi schrieb: > AntiHirnWäscher schrieb: >> Computerfachprofi schrieb: >>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu >>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung >>> auf, meistens, wenn Updates eingespielt werden >> >> LTS Version ? > > Die auch. Die Patches von MS sind auch nicht ohne, aber die notwendigen Virenscanner Updates sind eine viel größeres Risiko.
Mandy schrieb: > Die Patches von MS sind auch nicht ohne, aber die notwendigen > Virenscanner Updates sind eine viel größeres Risiko. Kaum schreibt man es, schon passiert es: http://www.heise.de/newsticker/meldung/Microsoft-zieht-Sicherheitsspatch-fuer-Windows-und-Windows-Server-zurueck-1840771.html
Robert L. schrieb: > @ Computerfachprofi > > >>Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element >>Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine >>spezielle Behandlung die unter Umständen langsamer sein kann, als das >>etwas mehr Speicher fordernde UTF-16 Format. > > das stimmt so nicht.. > hier der ERSTE absatz: > http://www.unicode.org/faq/utf_bom.html > > nicht jedes "zeichen" in UFT_16 ist 2 Byte lang... Okay, dann hat sich das im Laufe der Zeit geändert. Hast Recht. > >>Blödsinn. > >>Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch >>1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp. > > DAS wäre jetzt interessant > im RAM ?? > > (ich kenne das nur von serieller übertragung (terminal) dass man sich > das 1 bit sparte, aber im RAM ?? dort war doch immer schon 1 Byte = 8 > Bit ?? Wenn Speicherplatz knapp war, dann hat man das Zeugs eben Bitweise ins RAM kodiert. Ältere Rechner hatten dazu auch eine andere Wortbreite. Die Wortbreite 1 Byte = 8 Bit hat sich später dann durchgesetzt Es gab aber auch Computer mit völlig unterschiedlicher Wortbreite. http://en.wikipedia.org/wiki/Word_%28computer_architecture%29#Word_size_choice Auch nachzulesen in dem Buch Computerarchitekur von Andrew Tanenbaum. http://www.amazon.de/Computerarchitektur-Strukturen-Grundlagen-Andrew-Tanenbaum/dp/3827371511/
Computerfachprofi schrieb: > Schon der 386er lies jeden Amiga alt aus sehen. Hm? Jeden? Jeden A500? Also, ich habe meinen A4000 mit 68060/50 noch bis über die Jahrtausendwende benutzt.
Um alt auszusehen dürfte er da aber schon qualifiziert gewesen sein.
Computerfachprofi schrieb: > troll schrieb: >> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man >> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere >> Hardware im Vergleich zum IBM-AT. > > Hatte er nicht. > > Schon der 386er lies jeden Amiga alt aus sehen. Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein, dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC alles aufwendig in Software erledigt werden mußte. > Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu > programmierenden AGA Chipsatz. VGA hat aber praktisch keine Features. Nicht mal einen Blitter gab es. Jeden Pixel mußte man einzeln in Software auf den Bildschirm malen. Und aus unerfindlichen Gründen wurde der Speicher im 320x200-Modus nicht einfach linear adressiert, sondern auf eine Art, durch die 3/4 des Grafikspeichers brach lagen. Eine lineare Adressierung wurde dann in der Grafikkarte emuliert. Für Sachen wie double buffering mußte man deshalb den Chain4-Modus abschalten und das dabei entstehende Adressierungschaos zu Fuß lösen. Computerfachprofi schrieb: > Richtig ist lediglich, dass Windows XP recht Umständlich bei der der > Konfiguration und Usability ist, wenn man mal etwas konfigurieren und > sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe > ja inzwischen Windows 7 Hmm, also ich finde mich bei Windows 7 noch schlechter zurecht, als bei XP. Die Konfigurations-Optionen erscheinen mir noch versteckter, und wenn man einmal falsch klickt, hat man gleich wieder einen völlig nutzlosen Wizard an der Backe, der 3 Minuten lang eine nichtssagende Animation darstellt und dann ganz lapidar sagt, daß ihm auch keine Lösung für das Problem einfällt. Computerfachprofi schrieb: > MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das > zukünftige OS werden. > > Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected > Mode des 386er laufen konnte und diesen recht weitgehend nutzte. Es lief aber dennoch unter DOS. Und ich hätte es für logischer erachtet, diese Funktionalität erstmal in DOS einzubauen und in der graphischen Oberfläche dann zu nutzen, denn es ist logisch betrachtet eine Basisfunktion des Betriebssystems und nicht Teil einer graphischen Oberfläche.
np rn schrieb: > Computerfachprofi schrieb: >> Schon der 386er lies jeden Amiga alt aus sehen. > Hm? Jeden? Jeden A500? > Also, ich habe meinen A4000 mit 68060/50 noch bis über die > Jahrtausendwende benutzt. Nunja, mir ging es mehr um den 386 als Architektur mit modernem Design, nicht als konkreter Chip. Also Protected Mode mit Paging, MMU und Virtual 8086 RealMode. Und hier war der 386er einfach Wegweisend und bezüglich der Geschwindigkeit kann man hier auch den Pentium oder 486DX4 gegen den 68060/60 antreten lassen. Den 486er deswegen, weil er im Prinzip den 386er weitgehend geerbt hat und nur noch die FPU integriert wurde und ein bisschen am Cache und den Taktraten geschraubt wurden. Im Kern war es doch ein 386er. Es machte ja auch keinen Sinn mehr, den 386er mit höheren Taktraten anzubieten, wenn das Feld schon lange an den 486er übergeben wurde. Und den Pentium kann man nehmen, weil man, als der 68050/60 dann endlich auf dem Markt war, der Pentium zu der Zeit als dieser 68050/60 erschien das eigentliche CPU Gegenstück für teils auch weniger Geld war und nicht der ca. 9 Jahre ältere 386er. Technisch auf den PC bezogen betrachtet war der 386er der Beginn des Ende des Amiga. Beim 286er war das noch nicht ganz so klar.
Rolf Magnus schrieb: > Computerfachprofi schrieb: >> troll schrieb: >>> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man >>> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere >>> Hardware im Vergleich zum IBM-AT. >> >> Hatte er nicht. >> >> Schon der 386er lies jeden Amiga alt aus sehen. > > Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen > mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein, > dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC > alles aufwendig in Software erledigt werden mußte. Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah auch im Sound der Amiga alt aus. Die Erweiterbarkeit ist schließlich auch ein Feature des PC. Und was die CPU betrifft war die nicht nur von der Rechenleistung besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k Prozessoren bekamen. Die gängigen Amigas, also der Amiga 500, 600, 1200 und 2000 hatten alle keine MMU und von denen gab es lediglich für die CPU 68020 des Amiga 1200 einen Baustein um eine MMU nachzurüsten, aber ob das im konkreten Amiga 1200 Modell dann auch möglich gemacht wurde, das ist mir nicht bekannt. Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und vielen Farben in die Tasche. >> Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu >> programmierenden AGA Chipsatz. > > VGA hat aber praktisch keine Features. Nicht mal einen Blitter gab es. > Jeden Pixel mußte man einzeln in Software auf den Bildschirm malen. Und > aus unerfindlichen Gründen wurde der Speicher im 320x200-Modus nicht > einfach linear adressiert, sondern auf eine Art, durch die 3/4 des > Grafikspeichers brach lagen. Eine lineare Adressierung wurde dann in der > Grafikkarte emuliert. Für Sachen wie double buffering mußte man deshalb > den Chain4-Modus abschalten und das dabei entstehende Adressierungschaos > zu Fuß lösen. Der Amiga hatte das Problem, dass er für animierte Spiele bestenfalls nur AFAIK 64 Farben im EHB Modus gleichzeitig darstellen konnte und um das zu realisieren war das ansteuern der Bits ziemlich umständlich, während mit VGA 256 Farben gleichzeitig auf einfache Weise möglich waren und dies auch einfach zu adressieren waren 1 Byte/Pixel => 256 Farben. Der HAM Modus mit 4086 Farben war für Bewegtbilder weitgehend unbrauchbar. Und als dann für den PC die VESA Modi verfübar waren, sah es für den Amiga dann ganz alt aus. Grafikkarten mit Blitter gab es durchaus, nur waren die nicht Bestandteil des VGA Standards. IBM versuchte mit dem IBM PS/2 Modell der im April 1987 erschien und der darin verbauten IBM 8514 Grafikkarte den VGA Standard zu erweitern und diese Karte hatte dann auch schon einen Blitter integriert: http://en.wikipedia.org/wiki/IBM_8514 Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder an sich zu reißen, war die Unterstützung dieses erweiterten Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA Standard. In der Zwischenzeit kamen von Grafikkartenherstellern natürlich immer weitere SVGA Karten heraus, die VGA konnte und noch weitere zusätzliche Modi und Features wie 2d Beschleuningsfeatures inkl. Blitter boten, nur mußte man diese Features mangels Standardisierung eben extra ansprechen und somit für jedes SW Produkt eigene Treiber dafür schreiben, weswegen bei den Spielen bis auf wenige Ausnahmen (z.B: der FS Flight Simulator) die meisten Spiele sich auf den kleinsten gemeinsamen Nenner, also VGA einigten. Mit Windows 3.1 und der WinG API sollten diese Blitter aber, sofern es zu der jeweiligen Grafikkarte einen speziellen Grafiktreiber für Windows 3.1 gab, der diese Features anbot, für Spiele verwendbar sein. Praktisch wurde die WinG API und Windows 3.1 natürlich sehr schnell von Windows 9x abgelöst, womit der Nachfolger der WinG API, also DirectX das Feld übernahm, aber die Richtung war klar. > > Computerfachprofi schrieb: >> Richtig ist lediglich, dass Windows XP recht Umständlich bei der der >> Konfiguration und Usability ist, wenn man mal etwas konfigurieren und >> sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe >> ja inzwischen Windows 7 > > Hmm, also ich finde mich bei Windows 7 noch schlechter zurecht, als bei > XP. Die Konfigurations-Optionen erscheinen mir noch versteckter, und > wenn man einmal falsch klickt, hat man gleich wieder einen völlig > nutzlosen Wizard an der Backe, der 3 Minuten lang eine nichtssagende > Animation darstellt und dann ganz lapidar sagt, daß ihm auch keine > Lösung für das Problem einfällt. Die Admin User Trennung bei XP ist grottig, sie ist so schlecht, dass der größte Teil der User Windows XP ständig im Administratormodus verwendet hat. Mit Windows 7 (bzw. genauer Visa) wurde dieses Problem gelöst. Man kann hier als normaler Benutzer mit einfachen Rechten arbeiten und wenn es etwas zu Konfigurieren oder Installieren gibt, dann wird von der der normalen Benutzersession aus, nach dem Adminpasswort gefragt um dann diese Aufgaben, die höhere Adminprivilegien erfordern, durchführen zu können. Unter Windows XP gab's so etwas nur mit dem Kommandozeilenbefehl runas.exe und damit brachen sich nur die wenigsten einfachen User den Arm ab. Das es in der Anordnerung der GUI auch Änderungen hier und da gab und der erfahrene Benutzer nun seinen Gerätemanager unter einer neuen Menüführung suchen muss und damit aus reinen Gewohnheitsgründen nicht so gut klar kommt, ist klar, aber das ist eben nur eine Frage der Gewohnheit. Objektiv betrachtet ist die Menüführung logischer und damit besser geworden. Hier mußt du einfach mal unvoreingenommene Benutzer, die noch nie einen Computer* gesehen haben, an eine Windows XP und Windows 7 Maschine setzen und dann vergleichen lassen. * Gibt's im Gefängniss bei > 15 Jahre Häftlingen. > > Computerfachprofi schrieb: >> MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das >> zukünftige OS werden. >> >> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected >> Mode des 386er laufen konnte und diesen recht weitgehend nutzte. > > Es lief aber dennoch unter DOS. Und ich hätte es für logischer erachtet, > diese Funktionalität erstmal in DOS einzubauen und in der graphischen > Oberfläche dann zu nutzen, denn es ist logisch betrachtet eine > Basisfunktion des Betriebssystems und nicht Teil einer graphischen > Oberfläche. DOS war aber eine Sackgasse, es lief im Real Mode und alle Programme die für DOS geschrieben wurden erwarteten daher, auch, dass sie direkten Zugriff auf die Hardware und das BIOS haben. Mit so einem alten Gaul kannst du kein neues OS stemmen, es bedarf dazu einer völligen Neuentwicklung und die kam mit Windows NT und OS/2. Was aber MS für die Übergangslösung richtig gemacht hat war, dass sie wenigstens mit Windows 3.x die Anwendungsprogramme durch die WinAPI von der Hardware und dem darunterliegenden OS abstrahiert haben und damit später ein Wechsel nach Windows NT sehr einfach wurde. Der Schritt hat sich ausgezahlt und war goldrichtig. Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an. Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten. Microsoft konnte mithilfe von Windows 3.1 die Windows Anwendungen nach Windows NT hinüber retten. Und die Windows Anwendungen waren stark verbreitet, weil Windows 3.1 noch auf einem DOS lief und die Einstiegshürden in die Windows Welt also sehr einfach war. Ein genialer Schachzug, sozusagen. Und wenn man es ganz genau will, dann war eigentlich Windows 95 genau das was du gerne hättest. Im Prinzip eine Weiterentwicklung von DOS, die schnell in den Protected Mode sprang und den DOS Unterbau weitgehend mit einer weiterentwickelten Win9x Kernellösung ersetzte. Das diese DOS Altlasten aber weiterhin ihre Nachteile mit sich brachten, das konnte dann trotzdem jeder Windows 9x/Me User an den vielen BlueScreens erleben. Wer von den DOS Altlasten seine Ruhe wollte, der mußte auf Windows NT und ordentliche Windows NT Treiber setzen. Im Prinzip muss man also Microsoft für den Schachzug Windows 3.x und WinAPI geradezu gratulieren. Auch wenn die WinAPI aus heutiger Sicht schon so manchem Programmierer die Nackenhaare zu Berge stehen läßt, hat sie aus damaliger Sicht doch eine einheitliche Programmierumgebung für Anwendungsprogrammierer geschaffen und somit Zusatzhardware und Spezialfeatures (wie z.B. Grafikkarten mit 2d Beschleuigungsfunktionen, Soundkarten usw.) unter einer einheitlichen HW Ansteuerung den Weg geebnet.
Computerfachprofi schrieb: > Den 486er deswegen, weil er im Prinzip den 386er weitgehend geerbt hat > und nur noch die FPU integriert wurde und ein bisschen am Cache und den > Taktraten geschraubt wurden. Im Kern war es doch ein 386er. Der Kern war zwar unverändert klassisch CISC, aber mit viel ausgeprägterem Pipelining als beim 386. Der Pentium 1 übernahme die (Integer-) Pipeline, nur doppelt. Am Cache des 386 Prozessors konnte man intern nicht schrauben, denn er hatte überhaupt keinen an Bord. Extern anfangs oft auch nicht. Der 486 war also eine weitgehend neue Entwicklung.
Computerfachprofi schrieb: >> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen >> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein, >> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC >> alles aufwendig in Software erledigt werden mußte. > > Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah > auch im Sound der Amiga alt aus. Klar konnte man eine Soundkarte einbauen. Aber die konnte dann (wenn überhaupt) auch nur ein einzelnes Sample abspielen. Beim Amiga konnte der Soundchip schon von sich aus vier Samples zusammenmischen. Auf dem PC mußte man auch das umständlich in Software machen, was schon mal einen gewissen Teil des Leistung aufgefressen hat. Die Stärke des Amiga waren die dedizierten Hardware-Einheiten, die den Prozessor entlasteten. > Und was die CPU betrifft war die nicht nur von der Rechenleistung > besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k > Prozessoren bekamen. Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt hätte. Computerfachprofi schrieb: > Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und > vielen Farben in die Tasche. Was gab es denn für 3D-Grafik beim 386? Da lief ja gerade mal DOOM 1 einigermaßen drauf, und das hatte kein echtes 3D. Computerfachprofi schrieb: > Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder > an sich zu reißen, war die Unterstützung dieses erweiterten > Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA > Standard. Da gab es aber auch nur höhere Auflösungen und mehr Farben, aber keine zusätzlichen Funktionen. Computerfachprofi schrieb: > Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an. > Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten. Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war, was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch geführt hat. Ich hatte mir zusammen mit meinem ersten 486er OS/2 2.0 gekauft. Da war DOS und Windows 3.0 gleich mit dabei, so daß man darunter auch DOS- und Windows-Programme laufen lassen konnte. DOS-Programme entweder im Full-Screen oder im Fenster, für Windows gab es sogar einen eigenen kompletten Windows-Desktop, aber man konnte die Programme auch voll in den OS/2-Desktop integriert laufen lassen. Dabei wurde sogar auch schon die Hardware virtualisiert, so daß DOS-Programme meinten, direkt auf die Hardware zuzugreifen. Systemanforderung für OS/2 war 4MB, aber ich mußte feststellen, daß man, wenn man darunter auch ein Programm laufen lassen wollte, mehr benötigte. Deshalb habe ich mir dann eine Woche später DOS und Windows gekauft.
Rolf Magnus schrieb: > Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt > hätte. Beispiele mit DOS-Bezug: EMM386/QEMM für Speichernutzung, VM/386: Hypervisor für mehrere DOS Instanzen gleichzeitig, DESQview: Mehrere DOS Programme parallel. Und natürlich die Unixe. Bis auf EMM386 wurde nichts davon in der grossen Masse eingesetzt, aber es gab schon so allerhand.
A. K. schrieb: > Rolf Magnus schrieb: >> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt >> hätte. > > Beispiele mit DOS-Bezug: > > EMM386/QEMM für Speichernutzung, Das nutzt aber auch nur den Nebeneffekt der 386-MMU, daß man damit die Begrenzung der Adressen auf 16 Bit umgehen kann. Die eigentlichen MMU-Features wie Speicherschutz und Paging verwendet es aber nicht.
Rolf Magnus schrieb: > Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war, > was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch > geführt hat. OS/2 war wesentlich besser als das damals grossflächig eingesetzte Win 3.x, hatte aber eine recht schaurige interne Struktur. WinNT war da als konsequente Neuentwicklung eine echte Erlösung. Der 16-Bit Vorgänger OS/2 V1 war bimodal und wurde mit dynamischer Umschaltung zwischen protected mode und real mode eingesetzt. DOS Programme liefen im real Mode quasi parallel zu protected mode OS/2 Programmen. Intel hatte es aber in voller Absicht vermieden, einen Weg vom protected mode zurück in den real mode zu implementieren. Wer das benötigte, wie eben OS/2 V1, der musste es via Reset durchführen (wortwörtlich, oder mit Hacks wie dem triple fault). Device driver waren folglich ebenfalls bimodal, mussten also in beiden Modi unverändert laufen, was die Programmierung nicht unbedingt erleichterte. OS/2 V2 war intern ein Hybrid aus 16-Bit und (anfangs nur wenig) 32-Bit Komponenten. Die Abbildung der Speicherverwaltungen aufeinander widerspiegelte das aufs Unschönste. Weshalb man Probleme bekam, wenn Speicherblöcke quer über einer 64KB-Grenze lagen. Die 16-Bit Komponenten des Systems konnten die nämlich nicht geschlossen ansprechen. Im weiteren Verlauf litt OS/2 unter einem unpassend implementierten Filesystem. HPFS war zwar strukturell ok, die Implementierung hielt aber mit den wachsenden Speicherkapazitäten nicht mit. Bei HPFS386 legte sich Microsoft quer (das war ja deren Entwicklung) um OS/2 zu bremsen und das alte reine 16-Bit HPFS konnte kaum vernünftig cachen. IBM hatte zwar in AIX ein schönes JFS, konnte den Code aber aufgrund seiner Unix-Historie schon aus rechtlichen Gründen nicht verwenden, technisch wohl auch nicht. IBM entwickelte zwar ein portables JFS2, aber für OS/2 kam das zu spät.
Rolf Magnus schrieb: > Computerfachprofi schrieb: >>> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen >>> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein, >>> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC >>> alles aufwendig in Software erledigt werden mußte. >> >> Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah >> auch im Sound der Amiga alt aus. > > Klar konnte man eine Soundkarte einbauen. Aber die konnte dann (wenn > überhaupt) auch nur ein einzelnes Sample abspielen. Für das Software Mixing hatte man ja die leistungsstarke CPU. Schon bei Spielen wie AFAIK X-Wing konnte ich im Setup selbst einstellen, wieviele Samples meine Soundblaster Pro gleichzeitig ausgeben soll. >> Und was die CPU betrifft war die nicht nur von der Rechenleistung >> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k >> Prozessoren bekamen. > > Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt > hätte. Irrtum! Viele spätere DOS Spiele verwendeten den DOS/4G extender um mehr Speicher verwenden zu können, dieser schaltete dann die CPU in den Protected Mode und wenn das Spiel beendet wurde, wieder zurück in den Real Mode. Letzteres war der Hauptgrund warum für DOS/4G und viele spätere DOS Spiele überhaupt ein 386er notwendig war, denn nur dieser konnte problemlos vom Protected Mode wieder in den Real Mode zurückschalten. Beim 286er war dies nicht wirklich vorgesehen, auch wenn es durch umständliche Tricks ging, war da immer noch das Problem mit der Speichersegmentierung, weswegen man für spätere DOS Spiele mindestens einen 386er voraussetzte. http://en.wikipedia.org/wiki/DOS/4G > > Computerfachprofi schrieb: >> Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und >> vielen Farben in die Tasche. > > Was gab es denn für 3D-Grafik beim 386? Da lief ja gerade mal DOOM 1 > einigermaßen drauf, und das hatte kein echtes 3D. Elite 1 ist ein echtes 3d Spiel und kam schon 1984 auf den Markt. http://de.wikipedia.org/wiki/Elite_%28Computerspiel%29 Das setzte zwar noch keinen 386er vorraus, aber X-Wing tat es auf alle Fälle. Ebenfalls ein echtes 3d Spiel. Und der Nachfolger von Elite, also Elite 2 Frontier lief auf dem Amiga 500 stark ruckelig, während es auf dem PC flüssig lief. > > Computerfachprofi schrieb: >> Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder >> an sich zu reißen, war die Unterstützung dieses erweiterten >> Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA >> Standard. > > Da gab es aber auch nur höhere Auflösungen und mehr Farben, aber keine > zusätzlichen Funktionen. Habe ich auch nicht behauptet. > > Computerfachprofi schrieb: >> Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an. >> Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten. > > Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war, > was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch > geführt hat. Ich hatte mir zusammen mit meinem ersten 486er OS/2 2.0 > gekauft. Da war DOS und Windows 3.0 gleich mit dabei, so daß man > darunter auch DOS- und Windows-Programme laufen lassen konnte. > DOS-Programme entweder im Full-Screen oder im Fenster, für Windows gab > es sogar einen eigenen kompletten Windows-Desktop, aber man konnte die > Programme auch voll in den OS/2-Desktop integriert laufen lassen. Dabei > wurde sogar auch schon die Hardware virtualisiert, so daß DOS-Programme > meinten, direkt auf die Hardware zuzugreifen. > Systemanforderung für OS/2 war 4MB, aber ich mußte feststellen, daß man, > wenn man darunter auch ein Programm laufen lassen wollte, mehr > benötigte. Deshalb habe ich mir dann eine Woche später DOS und Windows > gekauft. Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig waren es die fehlenden Anwendungen. Das Speicherproblem löste sich mit der Zeit ja von allein.
A. K. schrieb: > > Und natürlich die Unixe. Bis auf EMM386 wurde nichts davon in der > grossen Masse eingesetzt, aber es gab schon so allerhand. DOS4/G wurde Massenhaft eingesetzt, schade das das oft vergessen wird.
Rolf Magnus schrieb: > A. K. schrieb: >> Rolf Magnus schrieb: >>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt >>> hätte. >> >> Beispiele mit DOS-Bezug: >> >> EMM386/QEMM für Speichernutzung, > > Das nutzt aber auch nur den Nebeneffekt der 386-MMU, daß man damit die > Begrenzung der Adressen auf 16 Bit umgehen kann. > Die eigentlichen MMU-Features wie Speicherschutz und Paging verwendet es > aber nicht. Doch, Paging wird verwendet, sobald du den Speicher im Protected Mode ansteuerst. Und das war ein eigentliches Feature der MMU. Der Speicherschutz war unter DOS kein Thema, aber wer den haben wollte, der bekam das mit OS/2. Aber ich weiß auch gar nicht, warum du daran herumnörgelst. Die frühen Amigas hatten gar keine MMU und keinen Speicherschutz, also selbst wenn man wollte, ging es nicht. Beim 386er ging es immer mit OS/2 und später Win NT.
Dieser 286 und 386 protected Mode Mischmasch bei OS/2 war übrigens einer der Hauptgründe, warum Microsoft mit IBM die zusammenarbeit abbrach. IBM wollte nämlich unbedingt, dass OS/2 auch auf dem 286er funktioniert, während Microsoft die Nachteile, die durch den Protected Mode des 286er auftraten, nicht akzeptieren wollte. Das Ergebnis war dann am Ende, dass IBM OS/2 weiter entwickelte und Microsoft mit Windows NT ein reines ab 386er Betriebssystem entwickelte.
Heisenberg schrieb im Beitrag #3127206: > DOS hat das meiste aus der Hardware geholt weil es praktisch nichts als > ein Bootloader ist. Es ist auch ein Disk Operating System. Es verwaltet also das Dateisystem und bietet Funktionen für den Schreib und Lesezugriff auf das Dateisystem. > Witzigerweise hat das OS dann später die Hardware vorgegeben. Für > Windows 95 brauchte man x MB RAM. Nur für das Betriebssystem! Vorher war > die Hardware egal solange man genügend Ressourcen für sein Programm > hatte. DOS lief immer, egal ob auf einem 8088 oder einem Pentium. Und es > wurde ja immer schlimmer im Lauf der Zeit. Auch Linux war hier nicht > besser. Ein ressourcenfressendes Betriebssystem ist wie ein Land das zu > 50% aus Beamten besteht ... und hier sind wir wieder bei Griechenland > angelangt. Naja, man kann DOS mit den späteren Betriebssystemen nicht vergleichen. Letztere bieten so viel mehr als DOS. Beispiele: - Speicherverwaltung (also das RAM, nicht nur das Dateisystem) - Journaling Dateisysteme - Treiber und eine standardisierte API für den Zugriff auf unterschiedlichste HW. Bei DOS mußten die Anwendungen alle Treiber noch selber programmieren oder darauf vertrauen, dass es einen einheitlichen Hardwarestandard gab. (z.B. VGA oder VESA). - Multitasking - einheitlichen Zugriff auf das Netzwerk über standardisierte Protokolle Das ist nur eine Auswahl der wichtigsten Features eines modernen OS und das so etwas im Hintergrund natürlich einiges an Speicher benötigt, das ist klar. Ich möchte diese Features übrigens auch nicht mehr missen, es wurde also nicht schlimmer, sondern besser. Windows NT war im Vergleich zu DOS ein Segen. Natürlich braucht es mehr Ressourcen, aber wer damals eine stabile Arbeitsumgebung haben wollte, der hat einfach das Geld in mehr Speicher investiert. Ein Speicherausbau mit bis zu 16 MB war auch damals kein Problem. Es kostete halt mehr Geld, aber wenn man daran denkt, was man für den IBM PC bezahlte, waren die 16 MB RAM für den > 386er geradezu günstig. Und ob sich die Sache dann finanziell rentierte, das hing natürlich ganz vom Job ab. Das ist klar.
Heisenberg schrieb im Beitrag #3127206:
> und die PC Hardware war zu schwach für effektives Multitasking.
Aus heutiger Sicht betrachtet waren damalige Rechner natürlich völlig
unbrauchbar, konnte man doch nicht einmal einen einzigen 3D-Desktop mit
1920x1080 drauf laufen lassen. ;-)
In den 80ern war die Konsole die Norm. Bereits auf einen PDP-11 in der
70ern haben mehrere Leute gleichzeitig gearbeitet, später sassen an
einer VAX-750 mit 4MB RAM schon mal 10 Leute gleichzeitig dran. Und die
war nicht schneller als eine 68000.
Computerfachprofi schrieb: > DOS4/G wurde Massenhaft eingesetzt, schade das das oft vergessen wird. Sorry dass ich das vergass, aber meine Beispiele waren ohnehin nicht als vollständige Auflistung aller Dosenöffner gedacht. Den von Rational kannte ich ausserdem nur als Dreingabe von Zortech.
Computerfachprofi schrieb: >>> Und was die CPU betrifft war die nicht nur von der Rechenleistung >>> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere >>> 68k Prozessoren bekamen. >> >> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt >> hätte. > > Irrtum! > Viele spätere DOS Spiele verwendeten den DOS/4G extender um mehr > Speicher verwenden zu können, dieser schaltete dann die CPU in den > Protected Mode und wenn das Spiel beendet wurde, wieder zurück in den > Real Mode. Um genau zu sein: DOS/4GW, die für Watcom angepaßte und etwas beschnittene Version von DOS/4G. Damit habe ich selbst programmiert. Aber auch hier wurde das nur genutzt, um das beschränkte Speichermodell mit Segmentierung und 16-Bit-Adressregistern und einem Adressraum von insgesamt maximal 1MB zu umgehen - etwas, das beim Amiga gar nicht nötig war. Also kann man gerade bei diesem Einsatzszenario nicht wirklich davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga gebracht hätte. > Elite 1 ist ein echtes 3d Spiel und kam schon 1984 auf den Markt. > http://de.wikipedia.org/wiki/Elite_%28Computerspiel%29 > > Das setzte zwar noch keinen 386er vorraus, aber X-Wing tat es auf alle > Fälle. > Ebenfalls ein echtes 3d Spiel. > > Und der Nachfolger von Elite, also Elite 2 Frontier lief auf dem Amiga > 500 stark ruckelig, während es auf dem PC flüssig lief. Ok, mag sein. Bei 3D war der Amiga natürlich nicht so schnell, da er da dann auch keine Hardware-Einheit dafür hatte und es deshalb wie der PC in Software machen mußte. Dabei zeigt sich dann direkt der Unterschied in der Rechenleistung. Das war allerdings damals auch noch nicht gerade der Haupt-Anwendungsfall. > Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig > waren es die fehlenden Anwendungen. Worauf ich hinaus wollte, war, daß OS/2 anfangs auch DOS und Windows enthalten hat und damit auch ein Großteil der dafür programmierten Anwendungen auch unter OS/2 liefen, zusätzlich zu denen für OS/2 selbst. Computerfachprofi schrieb: > Aber ich weiß auch gar nicht, warum du daran herumnörgelst. Ich "nörgle" nicht, sondern lasse die MMU als großen Vorteil gegenüber anderen Plattformen nur nicht gelten, wenn der einzige Anwendungsfall damals war, das limitierte Speichermodel des x86 im Real-Mode zu umgehen. Vor allem, wenn die Vergleichsplattform für den gleichen Anwendungsfall gar keine MMU braucht, weil ihr Speichermodell schon von vornherein nicht so eingeschränkt ist.
A. K. schrieb: > Heisenberg schrieb im Beitrag #3127206: >> und die PC Hardware war zu schwach für effektives Multitasking. Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives Multitasking auf Home-Computern > Aus heutiger Sicht betrachtet waren damalige Rechner natürlich völlig > unbrauchbar, konnte man doch nicht einmal einen einzigen 3D-Desktop mit > 1920x1080 drauf laufen lassen. ;-) Na, ganz so schlimm war es nicht... Nur nicht weitverbreitet... 1981 als MSDOS rauskam, gab's auch den Xerox Star (GUI, Ethernet, Maus) ;-) RTOS-UH/Pearl wird da auch gerne vergessen (die erste DIN-Norm ist ebenfalls aus dem Jahr 1981...)
Rolf Magnus schrieb: > > Um genau zu sein: DOS/4GW, die für Watcom angepaßte und etwas > beschnittene Version von DOS/4G. Damit habe ich selbst programmiert. > Aber auch hier wurde das nur genutzt, um das beschränkte Speichermodell > mit Segmentierung und 16-Bit-Adressregistern und einem Adressraum von > insgesamt maximal 1MB zu umgehen - etwas, das beim Amiga gar nicht nötig > war. Also kann man gerade bei diesem Einsatzszenario nicht wirklich > davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga > gebracht hätte. Doch, aber um das nachzuvollziehen solltest du dir mal anschauen, wie eine MMU auf dem 386er funktioniert: Ohne MMU kein Paging. Ohne Paging kein RAM > 1 MiB (auf dem 386er). http://de.wikipedia.org/wiki/Virtuelle_Speicherverwaltung#Funktionsweise Die MMU ist also ein essentieller Bestandteil. Speicherschutz zwischen den Prozessen ist nur noch ein weiteres Feature, das mit der MMU möglich wird. > Ok, mag sein. Bei 3D war der Amiga natürlich nicht so schnell, da er da > dann auch keine Hardware-Einheit dafür hatte und es deshalb wie der PC > in Software machen mußte. Dabei zeigt sich dann direkt der Unterschied > in der Rechenleistung. Das war allerdings damals auch noch nicht gerade > der Haupt-Anwendungsfall. Eigentlich schon. Der PC war bei (Spiele) Simulationen und sonstigen 3d Spielen die dominierende Plattform. Falcon 3.0 (die letzte Falcon Version für den Amiga war Falcon 1) Elite 2 Frontier Wing Commander 2 X-Wing Tie-Fighter Gunship 2000 F-19 Stealth Fighter F-15 Strike Eagle 3 Subwar MS Flight Simulator Red Baron Aces over Europe Aces of the Pacific Battle of Britain - Their finest hour Task Force 1942 Secret Weapons of the Luftwaffe M1 Tank Platoon Das ein oder andere Spiel gab es auch für den Amiga, aber der PC war hier immer schneller und besser, denn er bot mehr Rechenleistung und damit war die 3d Grafik wesentlich flüssiger. Wer Simulationen oder 3d Spiele spielen wollte, der hat also, sofern das Geld da war, einen PC gekauft und keine Amiga. Das Genre der Simulationen und sonstigen 3d Spiele hat eindeutig dem PC gehört. Das der Rundenstrategiespiele übrigens auch. Der Amiga begnügte sich daher eher mit Jump & Runs und sonstigen 2d Spielen. Adventures und RPGs gab es auf beiden Plattformen gleichermaßen. Die VGA Grafik dominierte hierbei sehr schnell das Feld bei den PC Simulationsspielen. Lediglich beim Sound mußte man, sofern keine Soundkarte vorhanden war, in der Anfangszeit hier und da gegenüber einer Amiga Version abstriche machen, aber mit Soundkarte war auch dieses Problem behoben. Tank Platoon und Battle of Britain gehören hierbei sicher zu den ältesten in der obigen Liste und Adlib Support konnten die schon alle. > >> Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig >> waren es die fehlenden Anwendungen. > > Worauf ich hinaus wollte, war, daß OS/2 anfangs auch DOS und Windows > enthalten hat und damit auch ein Großteil der dafür programmierten > Anwendungen auch unter OS/2 liefen, zusätzlich zu denen für OS/2 selbst. Hier muss man aufpassen. Es gab verschiedene Varianten. Eine mit dem von MS lizenzierten Windows und eine ohne Windows. DOS war immer in Form von IBM DOS dabei. Daraus folgt, man konnte auch OS/2 ohne Windows 3.x kaufen. Aber für OS/2 und dem Anwendungssupport war das keine Hilfe, sondern sogar im Endeffekt ein Nachteil. Denn die Softwarefirmen entwickelten verstärkt für Windows 3.*, lief ja schließlich auch unter OS/2 in einer Windows 3.* Umgebung. Damit gab es keinen Bedarf, die Anwendungen direkt nativ auf OS/2 zu supporten. Und das ist das problem, native OS/2 Anwendungen gab es nur sehr wenige und das war auch der Grund warum OS/2 im Endeffekt trotz Warp Versionen usw. das Rennen gegen Windows verlor. Der Anwendungssupport von Windows war einfach viel zu groß und das dank Windows 3.x, dem genialen Schachzug von MS, wie bereits oben erwähnt. Darüberhinaus gilt, wer unter OS/2 Windows nutzen können wollte, der mußte den Aufpreis für die OS/2 Variante mit integriertem Windows bezahlen. Es kostete also auch mehr Geld und war damit keine Lösung. Entscheident waren also die nativen Anwendungen. Und im Privatbereich war OS/2 insofern ein Problem, weil IBM einfach vergessen hat, die Spieler mit einer schnellen API zu versorgen, die einen schnellen Zugriff auf die Hardware zuläßt. Microsoft bot so etwas mit der WinG API in Windows 3.1 und später dann mit DirectX in Windows 95. Als OS/2 dann endlich OpenGL konnte, war es zu spät. Die Spielebranche hatte sich bereits auf Windows 95 eingeschossen und kräftig Spiele für Windows 95 ausgeliefert. Und für die Privatpersonen gab es dann natürlich für viele auch keinen Grund daheim OS/2 zu verwenden, weswegen Windows dominierte. Und Firmen bevorzugten Windows NT, weil daheim jeder sich mit zumindest Windows 3.x oder Windows 9x auskannte. Zusammenfassend hat IBM also bei OS/2 folgende Fehler gemacht: 1. Support des 286er 2. Keine grafische Oberfläche für DOS, die die API Funktionen von OS/2 anbot um die Anwendungsentwickler auf die API von OS/2 einzuspielen. Also kein Vendor-Lock-In 3. Keine Unterstützung der Bedürfnisse der Spielehersteller -> kein schneller Zugriff auf die Hardware über API Funktionen Das OS/2, genauso wie Windows NT dann noch einen hohen Speicherbedarf hatte, verschärfte das Problem zusätzlich, war aber jetzt kein Designfehler, da es nicht anders ging und Windows NT das gleiche Problem hatte. > > Computerfachprofi schrieb: >> Aber ich weiß auch gar nicht, warum du daran herumnörgelst. > > Ich "nörgle" nicht, sondern lasse die MMU als großen Vorteil gegenüber > anderen Plattformen nur nicht gelten, wenn der einzige Anwendungsfall > damals war, das limitierte Speichermodel des x86 im Real-Mode zu > umgehen. Vor allem, wenn die Vergleichsplattform für den gleichen > Anwendungsfall gar keine MMU braucht, weil ihr Speichermodell schon von > vornherein nicht so eingeschränkt ist. Wie schon gesagt, es gab Protected Mode Betriebssysteme die den Speicherschutz anboten. Wer wollte, der konnte das nutzen.
Arc Net schrieb: > A. K. schrieb: >> Heisenberg schrieb im Beitrag #3127206: >>> und die PC Hardware war zu schwach für effektives Multitasking. > > Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives > Multitasking auf Home-Computern Aber ohne Speicherschutz. OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und Speicherschutz. Der Amiga 500 erschien im gleichen Jahr.
Computerfachprofi schrieb: >> Also kann man gerade bei diesem Einsatzszenario nicht wirklich >> davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga >> gebracht hätte. > > Doch, aber um das nachzuvollziehen solltest du dir mal anschauen, wie > eine MMU auf dem 386er funktioniert: > > Ohne MMU kein Paging. > Ohne Paging kein RAM > 1 MiB (auf dem 386er). Und wo ist da jetzt der Vorteil gegenüber dem Amiga? Das Paging war nur nötig, um das auch dem real (bzw. virtual x86) mode durch Einblendung von Teilblöcken in die unteren 1MB zugänglich zu machen. Im Protected Mode hat der 386 auch ohne Paging 4GB Adressraum. Aber nochmal: Die MMU wurde bei EMM386 und Konsorten ausschließlich benutzt, um eine Limitierung zu umgehen, die der Amiga gar nicht hatte. Also ist das kein Vorteil gegenüber dem Amiga, sondern höchstens gegenüber dem 286. Ein Vorteil ergibt sich erst, wenn die MMU richtig genutzt wird und nicht nur als Krücke.
Computerfachprofi schrieb: >> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives >> Multitasking auf Home-Computern > > Aber ohne Speicherschutz. > > OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und > Speicherschutz. > Der Amiga 500 erschien im gleichen Jahr. Der 1000er 1985, der QL 1984, zudem war OS-halbe zu der Zeit noch ein 16-Bit OS, und nicht zu vergessen: der 68k kannte keinen Protected-Mode, man hätte allerdings z.B. über die extern signalisierten Function Codes zw. User und Supervisor Modus unterscheiden können und damit was "basteln" können...
Rolf Magnus schrieb: > > Und wo ist da jetzt der Vorteil gegenüber dem Amiga? Das Paging war nur > nötig, um das auch dem real (bzw. virtual x86) mode durch Einblendung > von Teilblöcken in die unteren 1MB zugänglich zu machen. Im Protected > Mode hat der 386 auch ohne Paging 4GB Adressraum. Nein, Paging wird IMMER verwendet. Das macht die MMU Immer. Und mithilfe Paging löst die MMU auch den Speicherschutz. Der Amiga hat das nicht. Ein lineare Adressraum der direkt angesprochen wird, reicht nicht, um Speicherschutz zu realisieren. > Aber nochmal: Die MMU wurde bei EMM386 und Konsorten ausschließlich > benutzt, um eine Limitierung zu umgehen, die der Amiga gar nicht hatte. Nein. > Also ist das kein Vorteil gegenüber dem Amiga, sondern höchstens > gegenüber dem 286. Ein Vorteil ergibt sich erst, wenn die MMU richtig > genutzt wird und nicht nur als Krücke. So ein Quatsch.
Arc Net schrieb: > Computerfachprofi schrieb: >>> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives >>> Multitasking auf Home-Computern >> >> Aber ohne Speicherschutz. >> >> OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und >> Speicherschutz. >> Der Amiga 500 erschien im gleichen Jahr. > > Der 1000er 1985, der QL 1984, zudem war OS-halbe zu der Zeit noch ein > 16-Bit OS, Ja und? Es war ein Protected Mode OS mit Multitasking. Ob 16 Bit oder nicht, ist nebensächlich. > und nicht zu vergessen: der 68k kannte keinen Protected-Mode, > man hätte allerdings z.B. über die extern signalisierten Function Codes > zw. User und Supervisor Modus unterscheiden können und damit was > "basteln" können... Ne Softwarelösung.... Echter Schutz erfolgt durch Hardware.
Computerfachprofi schrieb: > Nein, Paging wird IMMER verwendet. > Das macht die MMU Immer. CR0.PG: http://en.wikipedia.org/wiki/Control_register#CR0 Eine Funktion von EMM386 war, mehr Speicher in den unteren 1MB zur Verfügung zu stellen. Dazu war Paging unvermeidlich, denn es wurden Adressbereiche für RAM genutzt, in denen die Hardware überhaupt kein RAM zur Verfügung stellte. Die Funktion von DOS Extendern z.B. von Phar Lap war es, in DOS auch Programme jenseits von 1MB laufen lassen zu können. Dafür ist Paging nicht prinzipiell erforderlich, zumal es das auch als 16-Bit Version für 286 gab.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.