Forum: PC Hard- und Software wie konnte sich MS-DOS durchsetzen?


von Mark .. (mork)


Lesenswert?

Hallo!

ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil 
wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu 
verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit 
durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte 
bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems, 
also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.

Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu 
werden, obwohl es von der Funktionalität her Unix haushoch unterlegen 
war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen? 
(was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert 
waren...)

: Verschoben durch Admin
von Jürgen W. (lovos)


Lesenswert?

> Unix beim 8086
???

Unix war erst beim 80386 möglich

von Robert L. (lrlr)


Lesenswert?


von J.-u. G. (juwe)


Lesenswert?

Jürgen W. schrieb:
> Unix war erst beim 80386 möglich

Nein. Es gab auch Unixe für 8086 und 8088.

Bitte nicht Unix und Linux verwechseln.

von Jürgen W. (lovos)


Lesenswert?

> http://de.wikipedia.org/wiki/Xenix
> und 256 kByte RAM benötigte, die IBM-PCs aber nur mit 32 bis 64 kByte RAM 
ausgeliefert wurden.

Genau, das hat eben nicht funktioniert ...

von (prx) A. K. (prx)


Lesenswert?

Mark .. schrieb:
> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war?

IBM hatte anfangs kein gesteigertes Interesse, sich das gute Geschäft 
mit den dicken Kisten abzugraben. Dieser Gedanke beeinflusste sowohl das 
Design der Hardware, als auch die anfänglich verfügbare Software. Damals 
wie auch noch später hatte IBM aus diesem Grund beinahe den 
RISC/Unix-Erfolg verpennt.

MSDOS hatte einen populären Vorläufer: CP/M. Dafür gab es allerlei 
Software, die sich relativ leicht auf das davon stark inspirierte MSDOS 
portieren liess.

von Peter D. (peda)


Lesenswert?

Mark .. schrieb:
> Unix war doch schon deutlich früher da und hatte
> bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems,
> also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.

Die ersten PCs hatten noch keine Festplatte und Multitasking auf ner 
4,77MHz CPU willst Du nicht wirklich.

Und die ersten Windows-Versionen hatten Startzeiten, da konnte man ein 
Ei hart kochen.


Peter

von Karl H. (kbuchegg)


Lesenswert?

Mark .. schrieb:

> verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte
> bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems,
> also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.

Und wozu brauchst du das bei einem Rechner mit 64kB Speicher und 1 oder 
2 Diskettenlaufwerken (der Ur-PC hatte überhaupt nur ein 
Kasettenrecorderinterface)? Noch dazu im kommerziellen Umfeld, also 
Banken und Firmen, die ihre Korrespondenz damit erledigen wollen und die 
einen Apple][ als Bastlerlösung ablehnen.

'Schutzmechanismen' für Dateien hieß: Die Diskette kommt in den Tresor.
Multiuser? Was willst du mit Multiuser auf einer derartigen Plattform? 
Wenn das Teil eine Textverarbeitung läuft, dann ist das mehr als genug.
Multitasking? Wozu? Der einzige 'parallele' Task, der damals relevant 
war, war der Druckertask. Nimm einen Drucker, der ein paar KB 
Pufferspeicher hat und du kannst ihm dein Textdokument in den Speicher 
blasen und der Rechner ist nach ein paar Sekunden wieder frei während 
der Drucker druckt. Es war nicht immer so wie heute, dass selbst 
simpelste Sachen mit mindestens 100kB zu Buche schlagen! Eine 
durchschnittlich vollgeschriebene Seite Din A4 in der 
Firmenkorrespondenz hatte nicht selten weniger als 1KB Speicherbedarf.
Das Erstellen und Warten einer Autoexec.bat bzw. einer Config.sys 
stellte sowieso viele Firmen schon vor unüberwindbare Probleme. Unix mit 
seinem minimalistischen Ansatz in den Shells hätten da kein Mensch 
akzeptiert. Wenn die Durchschnittssekretärin einen DIR kannte und wußte, 
wie man die Textverarbeitung startet, dann war das schon sehr viel. Es 
ist mehr als einmal vorgekommen, dass ich von befreundeten 
Firmenbesitzern noch ca. 1990 rum gebeten wurde, mich ihrer Festplatte 
anzunehmen und mit ihnen gemeinsam Dateien zu löschen und aufzuräumen, 
weil sie das alleine nicht hinkriegen.

von Uhu U. (uhu)


Lesenswert?

Mark .. schrieb:
> Wie konnte da MS-DOS es überhaupt schaffen

Als IBM den PC heraus brachte, gab es einen anderen Platzhirsch auf dem 
Microprozessor-OS-Markt Digital Research mit seinem CP/M.

http://de.wikipedia.org/wiki/Digital_Research

DR war wohl etwas zu dämlich, bei IBM einen Fuß auf den Boden zu 
kriegen. Diese Situation nutzte Bill Gates mit Chutzpe "seinem" DOS, das 
keineswegs seine Entwicklung war und noch weit primitiver war, als die 
späteren Versionen, mit IBM ins Geschäft zu kommen.

http://de.wikipedia.org/wiki/MS-DOS

von (prx) A. K. (prx)


Lesenswert?


von Harald W. (wilhelms)


Lesenswert?

Mark .. schrieb:
> Hallo!
>
> ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil
> wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu
> verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!? Unix war doch schon deutlich früher da

Unix benötigte in der Anfangszeit einen wesentlich grösseren Speicher,
sodas Unix-Rechner mindestens doppelt so teuer waren. Ausserdem waren 
Unix-Rechner komplizierter in der Bedienung und deshalb als Bürorechner
kaum geeignet. Ein "Standardbetriebssystem" gabs beim Aufkommen von
MS-DOS sowieso nicht, sondern mindestens fünf Alternativen. Welche
davon sich durchsetzen würde, war damals nicht absehbar.
Gruss
Harald

von Uhu U. (uhu)


Lesenswert?

Harald Wilhelms schrieb:
> Ein "Standardbetriebssystem" gabs beim Aufkommen von
> MS-DOS sowieso nicht, sondern mindestens fünf Alternativen.

So kann man das nicht sagen. In der 8-Bit-Welt war CP/M sehr verbreitet 
und es gab sogar eine Multiuser-Version davon: MP/M

Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu 
vernagelt, sie zu nutzen.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Die Kerle von DR hatten eigentlich die besten Karten, waren aber zu
> vernagelt, sie zu nutzen.

Sie haben im Verhandlungspoker verloren. Wollten pro Exemplar bezahlt 
werden, IBM aber nur einmal blechen. Welche Strategie da sinnvoller ist 
weiss man oft erst hinterher, denn die Gabe der Voraussage ist 
hauptsächlich jenen gegeben, die hinterher genau wissen wie sie früher 
selbst in der gleichen Situation entschieden hätten.

Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt 
geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die 
geleimten gewesen. Microsofts Glück war, dass in kurzer Zeit alle Welt 
den PC nachbaute - erst mit diesen Kunden wurde MS gross.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt
> geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die
> geleimten gewesen.

Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt 
bleiben würde - das wurde auch so kommuniziert, als er heraus kam und 
die Hardware-Dokumentation war hervorragend. Nur hat man das bei DR 
entweder nicht begriffen, oder nicht ernst genommen.

Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der 
hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich 
besser, als das, was Gates damals zu bieten hatte. (Die erste Version 
von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.)

Gates Vorteil war, daß er damals nur zu gewinnen hatte. Ich habe noch 
gut in Erinnerung, wie verblüfft wir damals waren, als wir hörten, daß 
DR nicht zum Zug kam.

> Microsofts Glück war, dass in kurzer Zeit alle Welt den PC nachbaute -
> erst mit diesen Kunden wurde MS gross.

Sagen wir so: MS' Glück war, daß das IBM-PC-Konzept aufging. Wäre es 
nicht so geplant gewesen, dann hätte jeder Nachbauer ganz schnell ein 
Problem mit der IBM-Rechtsabteilung bekommen.

von Karl H. (kbuchegg)


Lesenswert?

Uhu Uhuhu schrieb:
> A. K. schrieb:
>> Wäre der PC ein zwar erfolgreiches aber praktisch reines IBM Produkt
>> geblieben, dann wäre die "Kerle von DR" bei einer Einmalzahlung die
>> geleimten gewesen.
>
> Der PC war von vorn herein so angelegt, daß er kein reines IBM-Produkt
> bleiben würde - das wurde auch so kommuniziert, als er heraus kam und
> die Hardware-Dokumentation war hervorragend.

Nennen wir die Dinge beim Namen.
Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem 
Boden gestampft werden musste, weil es eigentlich keinen bei IBM 
wirklich interessierte, was aus ihm wird. IBM baute und verkaufte 
Großrechner.

von Uhu U. (uhu)


Lesenswert?

Karl Heinz Buchegger schrieb:
> Nennen wir die Dinge beim Namen.
> Der PC war bei IBM ein ungeliebtes Kind, das in kürzester Zeit aus dem
> Boden gestampft werden musste, weil es eigentlich keinen bei IBM
> wirklich interessierte, was aus ihm wird.

Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt 
hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des 
Konzerns nach der ENIAC-Blamage wiederhergestellt haben.

Daß das Ganze die Betriebswirtschftler in der Konzernspitze überfordert 
hat, liegt auf der Hand. Die waren - weder bei DR, noch bei IMB - jemals 
treibende Kraft des technischen Fortschritts, insofern überrascht das 
nicht.

Daß die Rechtsabteilung nicht gegen den Nachbau tat, ist ein weiterer 
Hinweis in diese Richtung. Manchmal sind Juristen eben - wider Willen - 
kreativ...

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt
> hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des
> Konzerns nach der ENIAC-Blamage wiederhergestellt haben.

Die hatten sie schon in der 60ern längst ausgebügelt. Als sie eine 
Typen-Reihe brachten, die anders als bisher üblich ein breites Spektrum 
an Leistungs- und Anwendungsbereichen umfasste und die nicht in jeder 
Generation neu programmiert werden mussten.

Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-). 
Der Apple-II machte vor, wo der Weg lang gehen kann. IBM hatte das 
letztlich nur auf anderer Hardware-Basis etwas professioneller 
gestaltet. Und eine Plattform mit mehr Luft nach oben erwischt, während 
Apple sich danach mir Lisa selbst der Weg zunagelte.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-).
> Der Apple-II zeigte, wo der Weg langgeht. IBM hatte sich da letztlich
> nur rangehängt und das etwas professioneller gestaltet.

Das der PC schon technisch überholt war, als er heraus kam, ist richtig 
und wurde auch damals schon bemängelt. Diese professionellere Gestaltung 
gab aber letztlich den Nachbauern den Mut, sich auf dieser Schiene zu 
betätigen. Es war erkennbar kein Bastler-, oder Freak-Projekt.

Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine 
Sackgasse gerannt, die aller Wahrscheinlichkeit tödlich enden würde.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Hätten sie Apple-II-Clones auf den Markt geworfen, wären sie in eine
> Sackgasse gerannt.

Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive. 
Nur war da wenig Luft nach oben, das gab die 6502 CPU nicht her. Intels 
8088 war zwar nicht grad das Ei des Kolumbus, aber bissel mehr als 6502 
denn schon.

Apples Nachfolger Lisa hatte dann zwar eine brauchbare CPU, aber damit 
erschöpften sich die Vorzüge auch schon. Über den Rest davon hat man 
bald den Mantel des Schweigens geworfen.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive.

Und genau den gab es beim PC nicht - so war es angekündigt worden und 
daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC 
ganz kräftigen Rückenwind bekam.

Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen 
gehabt, in ein ähnliches Desaster, wie Lisa zu rennen.

Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung 
nicht mehr völlig im Nebel lag.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
>> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive.
>
> Und genau den gab es beim PC nicht - so war es angekündigt worden und
> daran hielten sie sich.

Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem 
Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen. 
Das Ergebnis ist bekannt.

Es war allerdings massgeblich auch Apple, die das Rennen dieser offenen 
Systeme verloren haben. Weil sie auf mehreren Wegen genau jene Vorzüge 
aufgaben, die den Apple-II ursprünglich ausmachten. Die Chancen waren 
da, Apple hatte es versiebt, IBM nicht.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Jedenfalls ein paar kurze Jährchen hielten sie sich dran. Mit dem
> Microchannel-Bus wollten sie dann die Kontrolle wieder zurück gewinnen.
> Das Ergebnis ist bekannt.

Und was schließen wir daraus? Wenn die Wi"Wi"s das Ruder übernehmen, 
gehen nur sehr robuste Konzepte nicht über den Jordan ;-)

von (prx) A. K. (prx)


Lesenswert?

Und wenn Techniker das Ruder behalten, dann kommt die nächste Version 
erst raus, wenn sie perfekt ist. Also nie. Gleiches Ergebnis. ;-)

von Uhu U. (uhu)


Lesenswert?

Und ws ist dann das eigentliche Erfolgsgeheimnis des PC? Die innere 
Reibung eines Büromaschinen-Weltkonzerns, die technische Innovation im 
Keim erstickt?

von Karl H. (kbuchegg)


Lesenswert?

Uhu Uhuhu schrieb:
> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC?

So wie ich die Zeit damals erlebt habe:
Das er von IBM war. Das war schon was. IBM war damals nicht einfach 
irgendwer.

von Hans Ulli K. (Gast)


Lesenswert?

Karl Heinz Buchegger schrieb:
> Uhu Uhuhu schrieb:
>> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC?
>
> So wie ich die Zeit damals erlebt habe:
> Das er von IBM war. Das war schon was. IBM war damals nicht einfach
> irgendwer.

das kann ich bestätigen.
Ich hatte mal eine Veranstalltung in Bezug auf Datensicherheit vor ca. 
20 Jahren besucht. Die wurde von einem IBM Mitarbeiter gehalten.

Er sagte dann zu uns, das er öfters ohne jede Identitätsfeststellung bis 
ins Rechenzentrum vorgedrungen ist.
Hat halt nur "Ich komme von IBM" beim Pförtner gesagt und den bekannten 
Anzug getragen.

von Jens M. (Gast)


Lesenswert?

A. K. schrieb:
> Die Visionäre waren eher bei Apple zu finden, so leid es mir tut ;-).

Naja, 2 Typen von denen der eine ne Motorola Standardapplikation um edge 
connectors erweitert hat. Die Dinger hat er auch nicht erfunden sondern 
gekauft. Der andere, ein Unsympath vor dem Herrn hat das ganze dann 
vermarktet.

Das war's auch schon. Später haben Sie dann bei Xerox Maus und Windows 
geklemmt und daraus nen richtigen Flop produziert.

Genial ist das Marketing. Den ganzen Rübennasen zu verklickern das auf 
einmal Intel das Maß aller Prozessordinge ist wenn es denn vom 
Sektenführer persönlich verdongelt wird ist schon eine Meisterleistung. 
Vor allem nachdem 15 Jahre gepredigt wurde (und von man allen Seiten zu 
hören bekam) wie geil doch der PowerPc wäre  während den jeder Profi 
bestenfalls in irgendwelchen Laserdruckern verortete.

Bei MSDOS (ein Zukauf von Gates und Co) das dann als PCDOS in den ersten 
IBM PCs als OS diente gibt es nicht viel zu sagen. Es war allen völlig 
egal.

Nach den absolut inkompatiblen benutzerfeindlichen und ständig sich 
veränderten Maschinchen der vor PC Ära wollten einfach alle einen 
Standard.

Als das Wörtchen IBM auf den ersten Stand hat sich die genervte 
Anwenderschaar sofort darauf gestürzt und das andere gekrampfe in den in 
Orkus gekippt. Eine Art informellen Absprache um einen Standard zu 
geschaffen.

Ähnlich ist das später beim iPhone gelaufen wo endlich mal was aus einem 
Guss den Konsumenten von dem Technikgewürge befreite (vom zwar bei Braun 
und Co.geklauten aber erstklassigen Design mal abgesehen).

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Und seien wir mal ehrlich, gegen CP/M war MS-DOS schon richtig gut, 
command.com hatte 'dir' schon eingebaut :-)
Ausserdem war es schon beim Bau des IBM-PC klar, das Intel an grösseren 
Prozessoren arbeitete, IBM hat zwar nie einen PC mit dem 8086 
rausgebracht, aber der 8088 mit 8-Bit Krüppelbus kam ja nach dem 8086.
Das Steckplatzkonzept des Apple ][ zeigte schon, das sowas eine gute 
Idee war, der IBM-PC hatte ja auch bis auf den Tastaturport keine 
einzige Schnittstelle und auch keine Grafikkarte.
Für den 6502 gab es ja nie einen stärkeren Nachfolger, dieser war auch 
damals schon das Ende dieer CPU Schiene. Motorola hatte damit auch 
nichts zu tun, diese haben zur gleichen Zeit Prozessoren wie den 
6800/6802 gefertigt. Der 6502 hingegen war von MOS und als bessere 
Alternative zum 6800 gedacht:
http://en.wikipedia.org/wiki/MOS_Technology_6502

von Peter D. (peda)


Lesenswert?

Kennt noch jemand die PC-Welt, wo man Assemblerprogramme abtippen konnte 
und dann mit Debug.exe daraus .com Programme gemacht hat.

Peter

von Purzel H. (hacky)


Lesenswert?

Ich war damals auch dabei. IBM hatte den Bedarf von  PCs irgendwann 
vorher auf ein paar Hundert weltweit geschaetzt. Daher lohnte sich eine 
Entwicklung eines Betriebssystems nicht. Sie fanden einen kleinen 
Bastler, der das aus der Garage heraus anbot, und dabei schlau genug 
war, die Rechte daran zu behalten. Seltsamerweise war damals nichts neu. 
Der Trendsetter war und blieb Rank Xerox, die eine Denkfrabik laufen 
liess. Die hatten schon graphische Oberflaechen und Maeuse, bevor Apple 
oder Windows sie hatten. Daher waren weder Apple, noch Microsoft 
innovativ.

Mein erster PC im '83 kostete 4500Fr, hatte eine 10MB Plarre und 640kB 
RAM. Ich hatte schon ein oder zwei Jahre vorher die Vorlaeufer bestaunt. 
Ohne Festplatte, dafuer 4 mal so teuer.

von Uhu U. (uhu)


Lesenswert?

Zwoelf von Siebzehn schrieb:
> IBM hatte den Bedarf von  PCs irgendwann vorher auf ein paar Hundert
> weltweit geschaetzt.

Ich glaube, du verwechselst das mit der "Marktanalyse" i.S. Enigma. Die 
war ihnen Ende der 40er angeboten worden und sie lehnten wegen ähnlich 
kümmerlicher Erwartungen ab.

von Purzel H. (hacky)


Lesenswert?

Etwa '85 kamen dann die '286 raus, ich konnte mir dann aber keinen 
leisten, war mit dem XT noch zufrieden. An einer IT Messe wagte ich mich 
an einen Intel Stand und frage nach dem geplanten '386. Und wurde von 
Intel gefragt was ich denn mit dieser gigantischen Rechenleistung machen 
moechte.

von Michael B. (laberkopp)


Lesenswert?

> wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!?

Die ersten PCs hatten 16kByte Hauptspeicher, da lief kein Unix.

Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches
auf dem 8080/Z80 lief aber für den 8086 noch nicht fertig war,
also nahm man MS-DOS.

Mit MS-DOS 2.0 für Maschinen mit mindestens 64kByte wurden
unix-ähnliche Funktionen hinzugefügt,
danach gab es keinen Bedarf für Unix (Xenix) mehr.

von Uhu U. (uhu)


Lesenswert?

Michael Bertrandt schrieb:
> Das MS-DOS 1.1 war weitestgehend kompatibel mit CP/M, welches
> auf dem 8080/Z80 lief

Das beschränkte sich aber auf die eingebauten Kommandos. Die 
Betriebsystem-schnittstelle war es nicht - wie auch, denn CP/M ist ein 
8-Bit System, während der 8088 ein 8 1/2-Bitter war ;-)

> aber für den 8086 noch nicht fertig war, also nahm man MS-DOS.

So banal wars nicht...

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Das beschränkte sich aber auf die eingebauten Kommandos. Die
> Betriebsystem-schnittstelle war es nicht

Ach?

Dann vergleiche doch mal den BDOS API von CP/M
http://www.seasip.demon.co.uk/Cpm/bdosfunc.html
mit dem MS-DOS Int21
http://www.i8086.de/dos-int-21h/dos-int-21h.html

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Dann vergleiche doch mal den BDOS API von CP/M

Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80 
nicht... Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den 
sehr unterschiedlichen Speichermodellen.

von (prx) A. K. (prx)


Lesenswert?

Uhu Uhuhu schrieb:
> Schon den int21, der der Einsprung in PCDOS ist, gibts auf 8080/Z80
> nicht...

Muss das jetzt wirklich auf derart unterirdischem Niveau landen?

Willst du mir ernsthaft erzählen, dass ein Betriebssystem-API auf 
verschiedenen Plattformen allein schon dadurch ein völlig anderer wird, 
weil er nicht mit exakt dem gleichen Einsprungbefehl aufgerufen wird?

> Ganz zu schweigen vom viel größeren Adreßraum des 8088 und den
> sehr unterschiedlichen Speichermodellen.

Sicher. Aus DE wurde DS:DX oder so. Und?

Es behauptet doch niemand, dass CP/M Programme Bit für Bit und Byte für 
Byte exakt lauffähig waren. Ein 8088 ist halt kein 8080. Aber der MS-DOS 
Int21 ist eindeutig direkt aus dem BDOS-API abgeleitet. Viel Arbeit beim 
Portieren von Programmen machte das nicht - und genau darum ging es 
dabei.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Sicher. Aus DE wurde DS:DX oder so. Und?

Das eine sind 16 Bit, das andere 32, die zu einer 20-Bit-Adresse 
kombiniert werden. Diese Kompatibilität ist reine Augenwischerei, denn 
sehr viele Programme aus der 8-Bit-Welt waren in ASM geschrieben - da 
bedeutet Portierung Neuschreiben.

Das war einfach Anlehnung an das Vorbild CP/M, mangels besserer Ideen.

Ich hatte mal einen Job, bei dem es darum ging, einen Programmteil in 
PL/M zu schreiben. Das war ein Fehlschlag, weil das Compilat viel zu 
riesig und das Zeitverhalten zu behäbig war, als daß man es auf einem 
8080 mit 64 KB RAM einsetzen konnte. Der Compiler war einfach bescheiden 
- und furchtbar langsam.

von Michael_ (Gast)


Lesenswert?

Die Leute von CP/M waren damals im Urlaub. Da haben sie eben DOS 
genommen.

von Frank (Gast)


Lesenswert?

Um das ganze Thema auch ein wenig medial zu untermauern, empfehle ich 
eine Doku und einen Speilfilm:

1. "Eine kurze Geschichte des PC", z.B. hier: 
http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-Geschichte-des-PC

2. "Die Silicon Valley Story", z.B. hier: 
http://www.new-video.de/film-die-silicon-valley-story/

Den Spielfilm leider nicht hier öffentlich als Link, gibts aber, wenn 
man ein wenig sucht ... ;-)

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Matthias Sch. schrieb:
> IBM hat zwar nie einen PC mit dem 8086
> rausgebracht

Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die 
Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab.

Den '30 gab es ein Jahr später als ernstgemeintes System 30/286, das 
ein mit 10 MHz getakter AT war, einer der netteren IBM-Rechner, und ohne 
diesen MCA-Kram.

von (prx) A. K. (prx)


Lesenswert?

Matthias Sch. schrieb:
> Für den 6502 gab es ja nie einen stärkeren Nachfolger,

Doch. Eine 16-Bit Version: http://en.wikipedia.org/wiki/WDC_65816/65802
Aber das war ein Design zum Abgewöhnen.

von Hans Franz (Gast)


Lesenswert?

Zu dem Erfolg von IBM-PC, MS-DOS und x86 hat nicht zuletzt INTEL selbst 
durch Wahrung der strikten Rückwärtskompatibilität bei der 
Weiterentwicklung seiner Prozessoren (insb. ab 386) beigetragen.
Die Altleichen (z.B. A20-Gate) führten bzw. führen immer wieder zu 
Problemen und unschönen workarounds, aber bewährt hat sichs dennnoch.

Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer 
MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch 
jedenfalls) ;-)

von (prx) A. K. (prx)


Lesenswert?

Hans Franz schrieb:
> Noch heute kann ich auf einem aktuellen Core I-irgenwas von einer
> MS-DOS-Startdiskette booten und Commander Keen spielen (theoretisch
> jedenfalls) ;-)

Lang lebe MS-DOS ;-). Versuch aber nicht, auf einen aktuellen Server ein 
Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den 
üblichen Inst-Medien.

von Hans Franz (Gast)


Lesenswert?

A. K. schrieb:
> Versuch aber nicht, auf einen aktuellen Server ein
> Win2003 drauf zu kriegen. Das geht nicht mehr, jedenfalls nicht mit den
> üblichen Inst-Medien.

Das hat aber andere Gründe ;-)

von MCUA (Gast)


Lesenswert?

>1. "Eine kurze Geschichte des PC", z.B. hier:
>http://de.sevenload.com/videos/5pMjAyu-Eine-kurze-...
Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!, 
das waren eigentlich die ersten PCs. Auch gab es neben dem Altair (der 
ein ganz schön komisches Bussystem hatte) weitere ähnliche Bauten mit 
Intel-Chips. Auch Bill Gates hatte sich an der Hardware versucht.

von Guido Körber (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> Das ändert nichts daran, daß die Leute, die das PC-Konzept ausgeheckt
> hatten, echte Visionäre waren und im Nachhinein betrachtet die Ehre des
> Konzerns nach der ENIAC-Blamage wiederhergestellt haben.

Wie schnell doch Geschichte umgeschrieben wird...

Das waren keine Visionäre, sondern Bastler. Es wurde ein Prototyp für 
ein neues Terminal kurzerhand zu einem PC ungefriemelt und das mit 
technischen Rückschritten gegenüber dem was zu dem Zeitpunkt bereits auf 
dem Markt war.

Statt eines ordentliches Busses wurde der CPU Bus auf Stecker 
verlängert, damit war die DIP-Schalter-Arie erfunden. 
Interruptpriorisierung? Wozu das denn, einfach druff, die Software wird 
schon irgendwie rausfinden welche Karte sich da melden wollte.

Tatsache ist, dass IBM keine neue Rechnerklasse wollte, sondern eine 
möglichst miese Kiste, die dazu dienen sollte die Kunden so schnell wie 
möglich davon zu überzeugen, dass diese Microcomputer Spielzeug sind und 
man doch besser die "professionellen" Computer kaufe sollte.

Dank der damals üblichen detaillierten Hardwaredokumentation und dem 
Einsatz ausschließlich von Standardteilen war es jeglichem Mitbewerber 
möglich die Dinger sofort zu kopieren, das "Betriebssystem" war ja 
ohnehin bei Microsoft käuflich.

Unfall im Marktgeschehen nennt man so was, nicht geplanter Erfolg. Und 
schon gar nicht "das Bessere wird sich durchsetzen", tatsächlich hat 
sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem 
betrifft, als auch was den Treppenwitz von einem Prozessor angeht. 
Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende 
Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie 
abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit 
Blattfedern fahren.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> Der Film erwähnt die Minicomputer (u.a. Digital mit PDP8) nichteinmal!,
> das waren eigentlich die ersten PCs.

Nicht wirklich. PC heisst persönlicher Computer und persönliche 
zugeordnete Rechner waren die Minicomputer dann doch nicht. Sie hatten 
zwar keinen RZ-Betrieb, aber es waren eher Arbeitsgruppenrechner oder 
projektbezogen. Sowas ähnliches gabs in den 50ern auf Röhrenbasis, als 
IBM 650.

von (prx) A. K. (prx)


Lesenswert?

Guido Körber schrieb:
> Statt eines ordentliches Busses wurde der CPU Bus auf Stecker
> verlängert, damit war die DIP-Schalter-Arie erfunden.

Das war auch nicht als Design für Jahrzehnte gedacht, sondern für 
einfach und billig. Intels x86-Architektur ebensowenig, auch Intel hat 
mehrfach bewiesen, dass sie nicht weiter als bis zum nächsten 
Laternenpfahl denken konnten oder wollten.

Interessant wurde es anno AT, also dem 16-Bit ISA-Bus. Weil da ein 
Timing eingeführt wurde, das streng genommen nicht funktionieren kann. 
Weil ein aus Adressleitungen abgeleitetes Signal eigentlich bereits 
vorhanden sein muss, noch bevor die Adressleitungen offiziell gültig 
sind.

> Interruptpriorisierung?

Also sachte, die gab es von Anfang an! Blöd war nur, dass Intel sich 
dabei für positiv flankengetriggerte statt negativ pegelgetriggerte 
Interrupts entschieden hatte.

von (prx) A. K. (prx)


Lesenswert?

Guido Körber schrieb:
> Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende
> Architektur auf dem Desktop.

Das wär was für "Wetten Dass" auf Nerdisch: Jemand, der behauptet, 
sämtliche historischen und aktuellen x86-Befehle am Opcode zu erkennen, 
und welcher Prozessor welche implementiert. ;-)

von B e r n d W. (smiley46)


Lesenswert?

> Dank der damals üblichen detaillierten Hardwaredokumentation

Der PC hat sich durch das offene System durchgesetzt. Deckel auf, andere 
Karte rein, Deckel zu. Am Anfang gab es noch kein Plug and Play, es war 
trotzdem das flexibelste bezahlbare System auf dem Markt. Das 
Betriebssystem hieß am Anfang PC-Dos und wurde von Microsoft für IBM 
programmiert. Den halbfertigen Quellcode hatten sie von einer anderen 
Firma übernommen. Dann hat Microsoft es geschafft, sich das Recht am 
Quellcode durch winklige Schachzüge unter den Nagel reissen. Schon seit 
dieser Zeit beschäftigen die mehr Anwälte als Programmierer.

> Und die ersten Windows-Versionen hatten Startzeiten,
> da konnte man ein Ei hart kochen.

Ein Windows 2.0 hat auf einem 386er 12 Sekunden zum hochgefahren 
gebraucht. Heute werden zwar viel mehr Prozesse gestartet, aber die 
Rechner sind auch 1000 mal schneller.

Aber sind sie das wirklich? Durch das aktuelle Betriebssystem und neuere 
Software wird der Rechner regelmäßig bis zur Schmerzgrenze 
runtergebremst
(Meine subjektives Empfinden). Das Antivirus will vor dem Start schon 
updaten, und bis dann alle Anderen nach Hause telefoniert haben könnte 
man ein Ei hartkochen.

von (prx) A. K. (prx)


Lesenswert?

B e r n d W. schrieb:
> Aber sind sie das wirklich?

Nur die virtuellen, die sind so schnell aus dem BIOS/UEFI raus, dass man 
ernste Probleme dabei hat, überhaupt in die BIOS-Config reinzukommen.

Wenn du aber einem ordentlichen Server aus Blech mal beim Booten 
zusiehst, dann ist das Ei schon geniessbar, noch bevor das Betriebsystem 
überhaupt zum Zuge kam.

von MCUA (Gast)


Lesenswert?

Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für 
Grossrechner zahlen.
Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten,
die für einzelne Personals (mehr oder weniger) erschwinglich waren.

>Statt eines ordentliches Busses wurde der CPU Bus auf Stecker
>verlängert,
Und beim Altair (wollte halt eher mal schnell was verkaufen, nicht lange 
entwickeln) verliefen manche Busleitungen quasi Leere.


>tatsächlich hat
>sich das Schlechtere durchgesetzt, sowohl was das Betriebssystem
>betrifft, als auch was den Treppenwitz von einem Prozessor angeht.
>Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende
>Architektur auf dem Desktop.
Ja, nur wegen Rückw-Kompatibilität.

von christian b. (Firma: bieber24) (phetine)


Lesenswert?

DOS wurde anfangs gratis den Rechnern beigelegt als eine reine OEM 
Systemvariante.

von Uhu U. (uhu)


Lesenswert?

MCUA schrieb:
> Also für eine PDP (insbes PDP8) musste man keine Unsummen wie für
> Grossrechner zahlen.
> Somit waren diese (Mini)Computer (erstmals v DEC 1968) die ersten,
> die für einzelne Personals (mehr oder weniger) erschwinglich waren.

Du weißt, was das für Brocken waren?

von Reinhard Kern (Gast)


Lesenswert?

Hallo,

eine der wesentlichen Ursachen für den Erfolg von DOS war die bessere 
Kundenorientierung bzw. deren völliges Fehlen bei den Unix-Anbietern. 
Wir wollten z.B. unsere Kunden namens Müller auch so anschreiben, nicht 
als Mueller, und das auch auf den SUN-Computern für die Technik, nicht 
nur auf dem PC. Darauf erhielten wir nur die extrem unverschämte Antwort 
"wer nicht Englisch kann, ist für den Umgang mit unseren Unixcomputern 
nicht qualifiziert", eine deutsche Tastatur gab es nicht. Die 
Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung 
gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die 
Anpassung an Länderspezifika von vornherein selbstverständlich - ein 
Quantensprung in der IT-Entwicklung!

Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit 
7bit-ASCII-Code schreiben.

Mit freundlichen Gruessen Reinhard

PS ich würde heute noch so entscheiden: lieber ein ab und zu 
abstürzendes System, das Deutsch kann, als ein stabiles, mit dem man nur 
englische Texte schreiben kann.

von Reinhard Kern (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> Du weißt, was das für Brocken waren?

Die ersten eigenständigen CAD-Systeme von Racal-Redac basierten auf DEC 
VAX. Meiner Erinnerung nach, ich habe mal solche Systeme besichtigt, die 
uns gebraucht angeboten wurden, waren die Preise ca. 700000 DM für die 
VAX und 280000 DM für den Farbbildschirm. Plus Software natürlich.

Unsumme ist halt ein relativer Begriff.

Gruss Reinhard

von Lukas K. (carrotindustries)


Lesenswert?

Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber 
rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's 
gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch 
sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch 
wen Windows intern anscheinend UTF-16 verwendet???), während der Rest 
der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

von Roman (Gast)


Lesenswert?

Hallo Reinhard,

CAD, CNC, DNC und so weiter hatten wir schon auf dem Vorläufer der VAX 
einer PDP-11 betrieben, mit Präprozessor und Grafikausgabe. War ein 
Schweizer Produkt, saugut aber auch sauteuer.

Gruss

Roman

P.S: Der seine erste Datenverwaltung in Fortan auf PDP-11 schrieb.

von Peter II (Gast)


Lesenswert?

Lukas K. schrieb:
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

das ist ja wohl ein witzt, texte tauschen kann jeder. Lokalsierung ist 
ein wenig mehr (links rechts ausrichtung, andere einheiten, 
Satzstellung,  usw.).

Und dann wird es noch so weit getrieben das sogar der compiler die 
Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber 
Hauptsache Lokalisiert.

von Lukas K. (carrotindustries)


Lesenswert?

Peter II schrieb:
> links rechts ausrichtung, andere einheiten,
> Satzstellung,  usw.
Ausrichtung: Dafür gibt's Unicode, hebräische Schrift ist automatisch 
rechtsbündig.
Satzstellung: was meinst du damit? Gettext hat damit kein Problem, der 
Übersetzer muss nur die Platzhalter richtig verteilen. Und auch 
Pluralbildung geht mit gettext. Kein Krampf wie '1 Objekt(e) ausgewählt' 
mehr. Wenn ich mich recht erinnere hat microsoft das mittlerweile aber 
auch in den Griff bekommen (hab' grad nur Windows 2000 zur Hand).

Peter II schrieb:
> Und dann wird es noch so weit getrieben das sogar der compiler die
> Meldungen übersetzt und keiner mehr versteht was das bedeuten soll. Aber
> Hauptsache Lokalisiert.

Macht microsoft genauso schlimm. Dagegen kann ich auf Unix einfach 
LANG=C make aufrufen und hab die Compiler-Ausgaben in nicht 
lokalisierter Form.

von Reinhard Kern (Gast)


Lesenswert?

Lukas K. schrieb:
> bei den Zeilenumbrüchen sieht es ähnlich aus.

Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix. 
Und rasch ist auch ein sehr relativer Begriff. Die traditionellen 
Anbieter wie HP und Sun haben das Eingehen auf Kundenanforderungen 
einfach für unter ihrer Würde gehalten (dass es technisch gegangen wäre, 
ist ja zutreffend, aber man wollte einfach nicht). Die Folge war, dass 
neben jeder Workstation jahrelang ein PC stand, um die "trivialen" 
Aufgaben der Verwaltung zu erledigen. Dumm nur für Unix, dass die PCs 
sehr schnell immer leistungsfähiger wurden und nach und nach die 
Workstations weitgehend ersetzt haben. Ein normaler PC leistet heute 
auch als CAD-System weit mehr als eine millionenteure Anlage aus dem 
Unix-Zeitalter, mit der man nicht mal eine Rechnung schreiben konnte. 
Man hätte also nicht müssen, aber man hats versaut.

Gruss Reinhard

von Lukas K. (carrotindustries)


Lesenswert?

Reinhard Kern schrieb:
> Heute ist aber CR-LF praktisch der Standard, nicht das LF-only von Unix.

Ich hab mal diverse populäre Webseiten untersucht, nur microsoft.com 
verwendet CRLF, der Rest sendet nur ein LF. Das Verwundert auch nicht 
weiter, denn außerhalb von Microsoft ist ja praktisch alles 
UNIX-ähnlich: Linux, Mac OS, Android, iOS, etc..

von Arc N. (arc)


Lesenswert?

Lukas K. schrieb:
> Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber
> rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber 
stricken.

> Auch sonst Microsoft hält immer noch an Windows-1252 als Encoding fest
> (auch wen Windows intern anscheinend UTF-16 verwendet???), während der Rest
> der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

Weil es UTF-8 noch nicht gab als MS mit der NT Entwicklung begonnen 
hatte. Bei den ersten Versionen war es noch UCS-2, erst ab afair W2k war 
es UTF-16.
Zeilenumbrüche macht eigentlich nur Windows/DOS richtig. Line Feed 
alleine bringt nichts, wenn der Druckkopf noch an der falschen Stelle 
steht scnr.

Wenn heute immer noch CR,CR+LF,LF genutzt wird, könnte man auch fragen 
warum niemand den Standard nutzt: U+2028 (Line separator) 
http://www.unicode.org/charts/PDF/U2000.pdf

von Jens G. (jensig)


Lesenswert?

@Lukas K. (Firma: carrotIndustries) (carrotindustries)

>Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber
>rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's

Was ist da hardcoded?

>gettext zur Lokalisierung während der Laufzeit schon seit '95. Auch
>sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch

Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw. 
Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also 
nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten 
noch nie).

>wen Windows intern anscheinend UTF-16 verwendet???), während der Rest
>der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine 
andere Codpage benutzen, wenn Du die vorher aktiviert hast. In dem einen 
Notepad schreibst du in russisch, im anderen Notepad in deutsch. Und 
wenn du willst, auch beide Zeichensätze in einem Notepad.
Windows benutzt UCS-2 (UTF-16 bei den neueren Versionen möglicherweise, 
was aber bei den üblichen Sprahcen keinen Unterschied macht).

Daß Systemmeldungen weiterhin in der voreingestellten Sprache ausgegeben 
werden, ist eine andere Sache.

von Lukas K. (carrotindustries)


Lesenswert?

Jens G. schrieb:
> Was ist da hardcoded?

Die Lokalisierung steht in der Binärdatei mit drin. Ist jedenfalls bei 
Windows 2000 so, bei XP afaik auch noch, mit Vista wurd's dann besser.

Jens G. schrieb:
> Wie kommst Du darauf? 1252 wird nur in Mittel/Westeuropa benutzt, bzw.
> Ländern mit ähnlichem Zeichensatz. Die Russen, Griechen, ... müssen also
> nicht unbedingt eine angeblich hart reincodierte 1252 nehmen (mussten
> noch nie).

Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte 
Problemlos einen Text mit griechischen, kyrillschen und Lateinischen 
Zeichen schreiben.

Jens G. schrieb:
> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine
> andere Codpage benutzen,

Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode.

Arc Net schrieb:
> Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber
> stricken.
Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht. 
Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller 
Programme zu ändern.

Was die Zeilenumbrüche anbetrifft. Microsoft könnte sich jedenfalls mal 
die Mühe geben, wenigstens Unix-Zeilenunbrüche zu unterstützen, sprich 
als solche darzustellen.

von MaWin (Gast)


Lesenswert?

> während Windows bis XP Hardcoded-Lokalisiert war, gibt's
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

Man muß arg verbrettert sein, um darin die Wahrheit zu sehen.

> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine
> andere Codpage benutzen

Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980,
in MS-DOS, und natürlich in jedem Windows und OS/2.

Seit WindowsNT ist das jedoch Geschichte, seit WindowsNT basieren
alle Microsoft-Systeme auf Unicode.

Unter Linux kommt erst neuerdings UTF8 als Basiszeichensatz z.B.
für Dateinamen, also bereits in der Installation, auf:
http://nebelwelt.net/studies/visionen-articles/utf-8-unter-linux/
RedHat 2003, Suse 2004, also 10 Jahre nach Microsoft.

Modernste Betriebssysteme, wie iOS, können es immer noch nicht,
dort ist z.B. setlocale von C nur für "C" und "POSIX" möglich.

von Jens G. (jensig)


Lesenswert?

>Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte
>Problemlos einen Text mit griechischen, kyrillschen und Lateinischen
>Zeichen schreiben.

Win benutzt intern auch nur ein Encoding, schon länger, als das bei 
Linux üblich war? (oder was meinst Du sonst mit EIN Encoding?)

>Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode.

Was glaubst Du, was 1252 ist - ein Codeset, welches letztendlich als 
Codepage in einem Computer verwendet wird. So ist es auch in Unicode, 
welches z.B. als UTF-x verwendet wird.
Letztendlich meinte ich aber, daß Win grundsätzlich mit jedem Zeichen 
klarkommt (weil intern Unicode verwendet wird). Nur die Interaktion mit 
dem User muß zumindest  bei der Eingabe auf z.B. ein Codeset 
eingeschränkt werden, weil so große Tastaturen für alle Zeichen hat man 
ja nicht.
Und die Programme müssen natürlich Unicodefähig sein, was je nach 
Programm nicht unbedingt der Fall sein muß.

von Jens G. (jensig)


Lesenswert?

@MaWin (Gast)

>> Du kannst schon seit mindestens WinXP in jedem einzelnen Programm eine
>> andere Codpage benutzen

>Das konnte Microsoft seit der EGA-Graphikkarte, also seit 1980,
>in MS-DOS, und natürlich in jedem Windows und OS/2.

Ich meinte gleichzeitig in mehreren Programmen zur selben Laufzeit ....

von Lukas K. (carrotindustries)


Lesenswert?

Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich.

Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber 
nicht ohne Abstraktion an die Anwendungen weiterreichen sondern 
Regionsspezifische Encodings verwenden???

von (prx) A. K. (prx)


Lesenswert?

Lukas K. schrieb:
> Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber
> nicht ohne Abstraktion an die Anwendungen weiterreichen sondern
> Regionsspezifische Encodings verwenden???

Es gibt schlicht beides. Der Windows-API stammt aus Zeiten vor Unicode, 
folglich müssen Programme mit den alten 8-Bit Zeichensätzen unterstützt 
werden. Wem das zu blöd ist, der verwendet die API-Funktionen in ihrer 
Unicode-Variante direkt, völlig ohne Codepage. Das geht nämlich sehr 
wohl.

Linux und Unix haben andererseits das Problem, dass es keinen 
festgelegten Charset für Filesysteme gibt. Wenn eine Anwendung aus 
historischen Gründen die Filenamen mit ISO-Charset schreibt und darauf 
aber auch ein Samba mit UTF-8 stitzt, dann gibts Chaos. Ähnlich Probleme 
gibts bei Backup-Software. Windows speichert in definiertem Charset und 
konvertiert je nach Art des API.

von Jens G. (jensig)


Lesenswert?

@Lukas K. (Firma: carrotIndustries) (carrotindustries)

>Was die Codepages anbetrifft: Das Umschalten jener ist altertümlich.

>Dass Windows intern UTF-16 verwendet ist schön und gut, weshalb das aber
>nicht ohne Abstraktion an die Anwendungen weiterreichen sondern
>Regionsspezifische Encodings verwenden???

Ich sagte doch:
>Und die Programme müssen natürlich Unicodefähig sein, was je nach
>Programm nicht unbedingt der Fall sein muß.

Wenn die Programme nur für 8bit-Zeichensätze ausgelegt sind, dann nützt 
denen natürlich auch kein Unicode. Und wenn Win aktuelle auf 1252 
eingestellt ist, und man jubelt einen ollen Programm Zeichen unter, die 
eigentlich als 1253 zu interpretieren währen, dann kommt nur npoch 
Datenmüll heraus, weil diese dann als 1252 interpretiert werden (wen man 
Glück hat, enthalten die Daten nur den Basiszeichen satz (die ersten 
127Byte), dann wird sogar noch was draus).
Sieht man sehr schön mit der Kommandozeile, die man mit chcp auf 437 
oder 1252 einstellen kann. Bei 437 kommt Datenmüll heraus, wenn man eine 
1252-codierte Textdatei mit type anschauen will

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Lukas K. schrieb:
> Codepage?? Wir leben im 21. Jahrhundert, es gibt Unicode.

Wird von ernstgemeinten Windows-Versionen seit 1993 genutzt.

von Arc N. (arc)


Lesenswert?

Lukas K. schrieb:
> Klar, aber bei Linux/UNIX hab ich EIN Encoding für alles. Ich könnte
> Problemlos einen Text mit griechischen, kyrillschen und Lateinischen
> Zeichen schreiben.

Jein...
http://lfsbook.linuxfromscratch.org/blfs/view/svn/introduction/locale-issues.html
usw. usf.

> Arc Net schrieb:
>> Das konnte man sich auch schon weit vorher mit minimalem Aufwand selber
>> stricken.
> Klar, dass führt dann aber dazu, dass jeder sein eigenes Süppchen kocht.
> Dank gettext reicht eine Umgebungsvariable um die Lokalisierung aller
> Programme zu ändern.

Genau das wollen ich und einige andere (Kunden) nicht. Bspw. nutzte 
ich zwar meist das OS in Deutsch, die IDEs aber grundsätzlich in 
Englisch (früher auch mit englischer Tastaturbelegung). Einige Kunden 
wollen grundsätzlich eine xyz-sprachige Oberfläche, egal was das OS sagt 
(inkl. Zahlen/Datumsformat/Einheiten etc.)

von Bernd (Gast)


Lesenswert?

Reinhard Kern schrieb:
> Die
> Unixfraktion hat sich noch jahrelang erbittert gegen die Lokalisierung
> gewehrt, bei dem angeblichen Schrottsystem MSDOS war dagegen die
> Anpassung an Länderspezifika von vornherein selbstverständlich - ein
> Quantensprung in der IT-Entwicklung!

meinst du
"Einfach gesagt, ist ein Quantensprung eine Zustandsänderung in einem 
sehr kleinen System, also eine sehr kleine Änderung der Wirklichkeit."
(http://de.wikipedia.org/wiki/Quantensprung)

von Helmut S. (helmuts)


Lesenswert?

Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war 
ausschließlich auf sündhaft teuren Workstations im Einsatz. Damit konnte 
das schon mal kein Massenbestriebssystem werden. Im Gegnsatz dazu war 
MS-DOS und später Windows von Anfang an für jedermann ausgelegt. 
Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die 
besseren Prozessoren hatten. Das gab dann den Unix-Workstations den 
Rest. Damit hat MS-Windows dann auch noch den Workstation Markt 
abgeräumt.

von (prx) A. K. (prx)


Lesenswert?

Helmut S. schrieb:
> Unix war zwischen 1985 bis 2000 ein ziemlich elitäres System. Es war
> ausschließlich auf sündhaft teuren Workstations im Einsatz.

Für normale PCs gab es auch einige Unixe. Sogar schon für 286.
Ab Mitte der 90er gab es dann die freien BSD-Derivate.

> Außerdem hat Intel dann dafür gesorgt, dass sie ab 2002 auch noch die
> besseren Prozessoren hatten.

Der Schlüssel war bereits 1995 der Pentium Pro, der zu den RISCs 
aufschliessen konnte. Im weiteren Verlauf entschied dann der bei 
vergleichbarer Leistung günstigere Preis der x86-Massenware.

von Helmut S. (helmuts)


Lesenswert?

Klar gab es auch ein bisschen Unix auf PCs, aber das waren Exoten. Die 
haben keinen nennnenswerten Marktanteil errungen. Ich sag nur SCO.

> Im weiteren Verlauf entschied dann der bei vergleichbarer Leistung günstigere 
Preis der x86-Massenware.

Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations 
konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht 
mehr das Wasser reichen.

von (prx) A. K. (prx)


Lesenswert?

Helmut S. schrieb:
> Leider ware es viel schlimmer für die Unix-Fraktion. Deren workstations
> konnten leistungsmäßig den Intel-Rechnern(Windows PCs) ab 2002 nicht
> mehr das Wasser reichen.

Das hing aber direkt mit der Preis-Situation zusammen. Entwicklung 
solcher Highend-Prozessoren ist von Generation zu Generation immer teuer 
- und zwar vorfinanziert. Da die x86 Entwicklung auf viel mehr Exemplare 
umgelegt werden konnte, waren die Resourcen einfach nicht gegeben, eine 
adäquate Entwicklung weiter zu führen. Die Alpha-Architektur wurde dann 
ausserdem von Intel mit dem Ziel aufgekauft, diese unliebsame Konkurrenz 
einzustampfen.

Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und 
die Systeme dazu rangieren unverändert ganz vorne. Nur sind die schlicht 
zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz 
unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits 
die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren 
lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs.

von Zottel (Gast)


Lesenswert?

Ja. Es gab das SCO. Das war aber extrem teuer, und bei weitem nicht so 
komfortabel wie die heutigen Linuxe. Alleine die Administration war ein 
Alptraum.

von (prx) A. K. (prx)


Lesenswert?

Es gab auch Microport Unix, das war keineswegs extrem teuer.

Klar, konsequent durch Tools wie smit (AIX) oder yast (Suse) gestützte 
Administration war damals in Unix/Linux nicht sonderlich verbreitet. Das 
ist bis heute nicht durchgängig der Fall (z.B. BSD, debian).

Für Windows-Jünger ist die Administration von Unix-Systemen auch heute 
noch ein Alptraum (und umgekehrt - in welcher von zig Dialogboxen war 
die verdammte Einstellung noch mal und wo finde ich die?). Das hat aber 
auch Vorteile: Wer es kann wird besser bezahlt. ;-)

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Rufus Τ. Firefly schrieb:
> Matthias Sch. schrieb:
>> IBM hat zwar nie einen PC mit dem 8086
>> rausgebracht
>
> Das ist nicht richtig; PS/2 Model 25 und 30 nutzten den 8086. Und die
> Dinger kamen erst 1987 auf den Markt, als es bereits den AT mit 286 gab.

Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir 
Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400. 
Mann, die hatten doch sogar so ein merkwürdiges Bussystem, auf dessen 
Name ich jetzt nicht komme. Dadrin war eine gefrickelte Karte mit 
komischen IBM Chips(2*2cm grosse Metallrechtecke), die über ein 
Multicore mit der AS400 verbunden war. Neben einem Z80 Computer mit 
Oasis Betriebssystem und einer 10MByte HDD (8-Zoll!) war das eine der 
merkwürdigsten Arrangements meiner Computerlaufbahn.

von MaWin (Gast)


Lesenswert?

> weshalb das aber nicht ohne Abstraktion an die Anwendungen weiterreichen

Tut Windows, alle Funktionen gibt es als W (widechar=unicode),
nur gibt es auch Programmierer die so wie du nicht wissen was
Unicode ist und das nicht verwenden, für diese Uninformieretn
gibt es alle Funktionen noch mal als A-Funktionen im lokalen
Zeichensatz, eigentlich gedacht als Rückwärtskompatible.

Es gibt unter Windows auch sehr schöne header-Dateien mit denen
man das automatisch machen kann, unter Linux muss man sich die
selber schreiben.

Lukas, du bist so uninformiert, du solltest lieber die Füsse
still halten. Linuxs hat erst 10 Jahre später Unicode umgesetzt
(und es funktioniert dort immer noch nicht überall).

Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
sind die bessere Implementation als 16 bit wie es Windows tut.

von Jens G. (jensig)


Lesenswert?

@Matthias Sch. (Firma: Matzetronics) (mschoeldgen)

>Haha, ja richtig, die Dinger habe ich völlig verdrängt. Dabei hatten wir
>Ende der 80'er sogar ein Modell 25 als Startrechner für eine IBM AS400.

Was - brauchte die AS400 einen Anlasser?

von Jens G. (jensig)


Lesenswert?

@MaWin (Gast)

>Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
>sind die bessere Implementation als 16 bit wie es Windows tut.

UTF8 ist universeller ausgelegt, und kommt verglichen mit UTF16/UCS2 mit 
vergleichsweise weniger Speicherplatz aus, sofern man mal bei 
lateinischen Zeichen bleibt.
Allerdings hat das auch den Nachteil, daß UTF8-Strings keine 
vorhersagbare Bytelänge haben - will man also eine Stringvariable haben, 
die sämtliche UTF8-Zeichen aufnehmen können muß, dann muß man notfalls 
4Byte/Zeichen vorsehen (gilt auch für UTF16, nicht aber UCS2).
Auch der generelle Prozessing-Overhead ist höher, weil man einfach 
1/2/3/4-Byte-Zeichen unterscheiden muß (bei UCS2 generell kein Problem, 
bei UTF8 erst ab 3Byte-Zeichen)

Das ursprüngliche UCS2 und jetzige UTF16 betrachte ich also nicht so 
sehr als unglücklich.

von (prx) A. K. (prx)


Lesenswert?

Jens G. schrieb:
> Was - brauchte die AS400 einen Anlasser?

Alte IBM-Tradition: Servicerechner steuert Hauptrechner. Mindestens bei 
den früheren Maschinen war es auch hardwareseitig sparsamer, die 
diversen Kompenten des Hauptrechners durch Software auf dem 
Servicerechner zu initialisieren, als dazu eigens Hardware einzubauen.

NB: Intels aktuelle Prozessoren haben einen Microcontroller an Bord, der 
beispielsweise die thermische Situation kontrolliert (PCU = power 
control unit). Kann schon sein, dass der noch mehr macht als nur das.

von Lukas K. (carrotindustries)


Lesenswert?

MaWin schrieb:
> (und es funktioniert dort immer noch nicht überall).

Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie 
Probleme mit mangelnder UTF-8 Unterstützung.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Jens G. schrieb:
> Was - brauchte die AS400 einen Anlasser?

Ja. Die AS400 hatte eigentlich nur die Twinax Netzwerkanschlüsse (bei 
uns warens 2 für 2 Segmente) und einen Steckplatz für die 
Multicore-Verbindungskarte zum Modell 25. Auf dem Model 25 wurde nach 
dem Booten von MS-DOS ein Progamm zum Starten und Verwalten der AS400 
gestartet.

Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau 
von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog 
sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen 
entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1 
Megabyte RAM!".

von W.S. (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> Und ws ist dann das eigentliche Erfolgsgeheimnis des PC?

Die Offenheit. Jeder konnte sich selbst eine Zusatzkarte bauen und 
reinstecken, der recht simple 8088-Bus war einfach zu handhaben und die 
Anwendungsprogramme konnten direkt in die Hardware greifen. Keine 
virtuelle Adressierung und trotzdem dank Segmentregistern auf 
verschiedene Adressen ladbare Programme, von denen auch mehrere 
gleichzeitig geladen sein konnten ("TSR")
Kurzum, mit dem IBM-PC....XT....AT konnte man viel mehr machen als mit 
allen in sich geschlossenen Systemen.


Mark .. schrieb:
> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war?

Ach Mark, du redest seltsam daher.
MSDOS war von Anfang an ein PC-Betriebssystem - ganz im Gegensatz zu 
Unix, was übrigens damals m.W. stinketeuer war.

Unix ist im Sinne der Rechenzentren der späten 60er Jahre konzipiert: es 
gibt eine strikte Trennung von Usern und Administratoren, keinerlei 
Hardwarezugriff durch User, Volumina müssen vom Admi aufgelegt und dem 
betreffenden User in seinen Homebereich gemountet werden - und später 
wieder unmounted werden. Systempflege aller Art durch User war 
ausgeschlossen und das direkte Steuern von irgendwelcher Hardware 
außerhalb des Mainframes war nicht vorgesehen. Die Benutzung durch die 
User war im wesentlichen auf Rechen- und Organisations-Aufgaben 
beschränkt, falls die überhaupt direkten Kontakt zum Rechner hatten. 
Viel üblicher war der Job-Betrieb. Da gab man einen Blechkasten mit 
wohlsortierten Lochkarten an einer Luke des Rechenzentrums ab und kam am 
nächsten Tag vorbei, um die Ergebnisse abzuholen und den Job zu 
bezahlen.

Glaubst du, ein Betriebsystem, das für solch ein Environment konzipiert 
ist, wäre auch nur ansatzweise geeignet gewesen für einen PC, also einen 
Persönlichen Rechner? Hier muß der Besitzer alles selbst machen, er saß 
(wie heute auch) höchstpersönlich vor dem Ding um es zu benutzen und so 
einzurichten, wie er es braucht. Und nochwas: RAM war damals sauteuer! 
Und ne grandiose Festplatte mit 8 MB (später 20 MB) war ebenfalls 
sauteuer - man könnte auch sagen "unbezahlbar". Und hier referiert ein 
ahnungsloser Frischling von "haushoch unterlegen" daher...

Nee, Unix war und ist auch heute noch an die Bedürfnisse in den Gefilden 
der persönlichen Rechenkisten nicht wirklich angepaßt - und genau 
darum geht es.

Alle typischen Männer-Diskussionen, wer am größten oder dicksten oder 
stärksten ist, sind Mumpitz. Sinnvolle Angepaßheit von Lösungen ist das 
eigentliche Thema.

MSDOS war an die Verhältnisse am IBM-PC gut angepaßt, CP/M-86 war es 
nicht. Ich hatte beide wahlweise auf der Kiste, die damals ja noch von 
Floppy gebootet wurde. Zuerst satte 360 K Byte, später dann auch 720 K. 
Da hat MSDOS draufgepaßt, jaja. (waren das wirklich 360 K? ist schon zu 
lange her...)

W.S.

von nennonnem (Gast)


Lesenswert?

Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt 
und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in 
der Firma) wissen von Dos noch viele was aber Unix ist eher weg .

Irgend was war einprägsamer für den User was auch immer.

von B e r n d W. (smiley46)


Lesenswert?

> waren das wirklich 360 K?
Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5" 
Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein 
Loch reingestanzt werden.

Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded 
Projekt entwickelt. Dazu hab ich drei Disketten benötigt. Quellcode, 
Editor, Compiler, Linker und Eprom-Programmierer haben auf zwei Floppys 
leider nicht draufgepasst. Später gabs dann einen AT mit 20MByte 
Festplatte.

von Jens G. (jensig)


Lesenswert?

@Lukas K. (Firma: carrotIndustries) (carrotindustries)
>MaWin schrieb:
>> (und es funktioniert dort immer noch nicht überall).

>Also ich hatte in meinem Linux-Leben (mittlerweile 7 Jahre) nie
>Probleme mit mangelnder UTF-8 Unterstützung.

sagt ja auch keiner, daß es allgemein nicht funktioniert.
Aber soweit ich weis, ist das Linux-Filesystem z.B. nicht explizit auf 
Unicode ausgelegt, der Kernel auch nicht. Die Dateinamen werden einfach 
in der Codepage gespeichert, in der diese übergeben werden.
In Win ist das Filesystem schon entsprechend ausgelegt. Man kann in Win 
keine Dateinnamen in irgendeiner ASCII-Codepage anlegen, nur weil ein 
olles 1252-Programm (wie die Cmd line) das so will, sondern es wird fein 
säuberlich in Unicode abgelegt (wird also vorher in Unicode 
umgewandelt).
In Linux wird das meines Wissens so abgelegt, wie das Programm das 
übergeben hat - da kann man also Zeichencodierungen in allen Codepages 
wiederfinden, incl. Unicode natürlich, wenn man mit entsprechenden 
Umgebungen drauf zugreift. Hat man da was kyrilisch (8bit Codepage) 
abgespeichertes abgelegt, muß man wissen, daß es kyrillisch sein soll, 
sonst sieht man nur Müll. Da nützt mir auch eine sonst unicodefähige 
Umgebung nix, denn die zeigt auch nur Müll an. Man braucht also etwas, 
was die Zeichen als kyrilisch interpretiert.
Solange irgendwelche Programme diese Dateinamen uninterpretiert 
verarbeiten, ist das kein Problem.
Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert.

von Jens M. (Gast)


Lesenswert?

B e r n d W. schrieb:
> Auf einem XP mit zwei dieser Laufwerke hab ich mein erstes Embedded
> Projekt entwickelt.

Ich auf einem XT, mit 320k Ram und 2x 5 1/4 Floppy. Auch 3 Disketten.

Dann kam Autocad mit 14 Floppys, ging aber auch, irgendwie wenn auch 
langsam. Den Plotter haben wir von ner HP Anlage geliehen 5 stellige 
Summe und das LPT - HP-IB Interface das mit den 3 embedded Floppys 
entwickelt wurde ging auch, irgendwie.

Hat sich aber gelohnt, irgendwie, so über die Jahre ;-).

von Jens G. (jensig)


Lesenswert?

@ Matthias Sch. (Firma: Matzetronics) (mschoeldgen)

>Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau
>von 512 kByte auf 1 MByte auf der AS400. Der IBM-Mann kam vorbei, zog
>sie Handschuhe an und öffnete das AS400 Gehäuse. Nach kurzem Suchen
>entfernte er einen Jumper und strahlte uns an:"So, jetzt haben sie 1
>Megabyte RAM!".

Das waren die wohl unserer Zeit weit voraus ;-) Denn heute ist doch 
sowas gang und gäbe:
- Autos/Motorräder (deren Motoren) werden künstlich gedrosselt, um 
unterschiedliche PS-Zahlen anbieten zu können (bei gleichem Motor)
- in irgendwelchen Geräten oder SW lassen sich zusätzliche Features 
freischalten - man muß nur wissen, wie
- die ganze Druckertechnik wird künstlich gegängelt
- naja - usw ...

IBM hat also damals schon gezeigt, wie man das macht ;-)

von Jens G. (jensig)


Lesenswert?

@ nennonnem (Gast)

>Also wenn in der Firma mal frage wer sich noch mit DOS Befehlen auskennt
>und wer noch mit Unix (war zu gleichen Zeit im Einsatz zumindest hier in
>der Firma) wissen von Dos noch viele was aber Unix ist eher weg .

>Irgend was war einprägsamer für den User was auch immer.

Naja - DOS war einfach einfacher, nicht so verwirrend in den Kommandos, 
übersichtlicher - das läßt sich einfacher merken.

von (prx) A. K. (prx)


Lesenswert?

Matthias Sch. schrieb:
> Das frechste, was sich IBM damals geleistet hat, war der Speicherausbau
> von 512 kByte auf 1 MByte auf der AS400.

Da wird noch heute ein Prinzip draus. Ein paar der grösseren Rechner von 
dem Verein werden mit "performance on demand" verkauft, sicherlich auch 
bei den Nachfolgern der AS/400. Da deren zu Grunde liegende Technik 
ohnehin etliche Prozessoren auf einem Modul hat, kannst du einen Teil 
davon kaufen und die anderen bleiben abgeschaltet. Leg Geld nach und du 
kriegst sie freigeschaltet.

Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die 
verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier 
endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips 
ist nicht drin.

von Steffen W. (derwarze)


Lesenswert?

B e r n d W. schrieb:
> Ja, die 5" Floppys hatten 360k. Die haben später immer noch in die 3,5"
>
> Laufwerke gepasst (zusammengefaltet ;). Für den Commodore 64 musste ein
>
> Loch reingestanzt werden.

Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen 
natürlich in keiner Weise in ein 3,5" Laufwerk.
Die 5 1/4" ergingen aber in das gleichgroße Foppylaufwerk des C64. nur 
das konnte die Dinger nur einseitig nutzen. Der berühte Locher war dazu 
da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man 
die Diskette wenden und auch die andere Seite nutzen.
Später gab es dann auch ein 3,5" Laufwerk für den C64 das ganz normal 
beide Seiten beschreiben konnte.
Habe noch einige der alten 5 1/4" C64 Disketten (den C64 natürlich auch, 
erstaunlich was man damals mit nur 64k Speicher alles gemacht hatte, 
ähnliches auf dem PC heute kommt nicht unter 5MB daher) und oh Wunder 
die sind sogar noch lesbar. Gleiches kann man von den 3,5" Disketten 
leider nicht sagen.

von B e r n d W. (smiley46)


Lesenswert?

>> Ja, die 5" Floppys hatten 360k. Die haben später immer noch in
>> die 3,5" Laufwerke gepasst (zusammengefaltet ;)

> Da hast Du was durcheinandergebracht. Die 5 1/4" Floppys passen
> natürlich in keiner Weise in ein 3,5" Laufwerk.

Doooch, lies den Satz bitte nochmal ganz genau!
Außerdem haben die später auf die selbe Weise auch noch ins CD-ROM 
gepasst.

von alter ITler (Gast)


Lesenswert?

Steffen Warzecha schrieb:
> Der berühte Locher war dazu
> da eine Kerbe für die Schreibschutzabfrage zu Stanzen. Dann konnte man
> die Diskette wenden und auch die andere Seite nutzen.

Umdrehen?

Bei den 3,5er gab es einen Locher, damit die 720er als 1,44Mer liefen.
Sonst: 
http://de.wikipedia.org/wiki/Floppy#Tabellen.C3.BCbersicht_der_Diskettenformate

von MN (Gast)


Lesenswert?

alter ITler schrieb:
> Bei den 3,5er gab es einen Locher,

Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten.

von Sven P. (Gast)


Lesenswert?

Jens G. schrieb:
> Bei Linux ist also das Unicode nur augepfropft, aber nicht integriert.
Das ist aber auch nur die halbe Wahrheit.

Selbst FAT32 speichert in erster Linie Dateinamen in 8.3 (ja, wirklich). 
Erst mit der VFAT-Tabelle können bis zu 255 16-Bit-Zeichen hinterlegt 
werden. Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur 
aufgepfropft. Erst NTFS speichert Dateinamen immer mit 16-Bit breiten 
Zeichen. Das muss allerdings kein Unicode sein, bietet sich aber 
natürlich für UTF16 an. Das aber geht also in jedem Fall in die Hose, 
denn Unicode-Zeichen können auch doppelt so breit sein.

Die ext-Dateisysteme von Linux/Unix speichern Dateinamen neutral in 255 
Bytes. Deren Interpretation ist, wie du ja schon bemerkt hast, dem 
Betriebssystem bzw. dem Anwender überlassen. Das ist prinzipiell auch 
die sinnvollere Methode, finde ich.

Spätestens mit POSIX geht der UTF16-Schwachsinn wieder schief, denn 
fopen() und Konsorten erwarten Dateinamen aus 'char', also Bytes. Das 
geht mit UTF16 nicht, es geht aber wunderbar mit UTF8. Darum gibts im 
Windows-API dann wieder solche Krücken wie 'wfopen' und die proprietären 
'CreateFileW'.

UTF16 ist in meinen Augen und aus heutiger Sicht eine Sackgasse und 
Speicherverschwendung.

von Sven P. (Gast)


Lesenswert?

Nachtrag:
Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv 
arbeiten konnte. Das Mistding konnte ja effektiv garnix. Ewige Zeiten 
konnte man ja nichtmal einen eingegebenen Befehl korrigieren oder 
wiederholen. Nur von hinten zurück löschen oder neu eingeben.

von (prx) A. K. (prx)


Lesenswert?

Sven P. schrieb:
> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
> arbeiten konnte. Das Mistding konnte ja effektiv garnix.

Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den 
damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen.

> konnte man ja nichtmal einen eingegebenen Befehl korrigieren

Man konnte aber Tools einsetzen, die das taten.

Mit der Bourne-Shell von Unix ging das übrigens auch nicht. Die C-Shell 
konnte es zwar, das Verfahren war aber für Fernschreiber optimiert und 
auf Terminals sehr gewöhnungsbedürftig.

Zur Erinnerung: Man konnte früher sogar mit Lochkarten erfolgreich 
programmieren (ich hatte noch kurz das Vergnügen). Das war garantiert 
deutlich bequemer, als auf dem ENIAC Kabel zu stecken.

von Helmut S. (helmuts)


Lesenswert?

> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
arbeiten konnte.

99% der großen erfolgreichen Firmen haben MS-DOS und später WIN benutzt. 
WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS. 
Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX 
wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern, 
teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch 
gezogen.

von Sven P. (Gast)


Lesenswert?

A. K. schrieb:
> Vergleich das nicht mit heute, sonder mit damals. Und zwar nicht mit den
> damaligen dicken Kisten, sondern den anderen Mikroprozessor-Lösungen.
> [...]
Naja, schon klar.

Aber der DOS-PS sollte doch attraktiv für den ARBEITSPLATZ sein. Das war 
ja der Witz, dass man nicht mehr am Fernschreiber klemmte, sondern eine 
Kiste unterm Schreibtisch stehen hatte.
Da wärs ja nochmal umso interessanter gewesen, den Komfort zu bieten.

Und selbst wenn man das mit knapper Rechenleistung und so weiter 
rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den 
gesamten Lebenszyklus eher lächerlich, oder?

Da wäre effektiv mehr drin gewesen. Machbar wars ja, die ganzen 
TSR-Helferlein, die da aufkamen... ordentliche Befehlszeile, 
Bildschirmseiten scrollen, rudimentäres Netzwerk, später mal Copy&Pasta 
mit der Maus auf dem Textbildschirm und so weiter. Fast nichts davon hat 
irgendwie zeitnah Einzug in MS-DOS gehalten...

von (prx) A. K. (prx)


Lesenswert?

Sven P. schrieb:
> Fast nichts davon hat
> irgendwie zeitnah Einzug in MS-DOS gehalten...

Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig 
entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie 
schneller und hat den Markt schon längst in der Tasche.

von Sven P. (Gast)


Lesenswert?

A. K. schrieb:
> Sven P. schrieb:
>> Fast nichts davon hat
>> irgendwie zeitnah Einzug in MS-DOS gehalten...
>
> Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig
> entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie
> schneller und hat den Markt schon längst in der Tasche.
Und das istn Grund, dass fast geschlagene ZEHN JAHRE gedauert hat, bis 
man es mit Doskey serienmäßig einigermaßen bedienbar gemacht hat?

von Christian B. (casandro)


Lesenswert?

A. K. schrieb:
> Wenn man Systeme erst dann rausbringt, wenn sie perfekt fertig
> entwickelt sind, dann war die pfiffigere Konkurrenz unter Garantie
> schneller und hat den Markt schon längst in der Tasche.

Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen 
beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das 
A20-Gate eingebaut wurde behoben.

Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt 
durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel 
Geld gekostet hat. Die wieder freien Unixe, die wir heute kennen, gab es 
erst ab den 1990gern. Die ganzen modernen BSD Varianten mussten 
beispielsweise große Teile des Codes neu entwickeln.
Dazu kam auch, dass die Rechner nicht genügend Arbeitsspeicher und nur 
selten Festplatten hatten.

Die Leute, die sich es leisten konnten, haben schon immer unixoide 
Rechner benutzt. Das war früher halt teuer, hat sich aber im technischen 
Bereich sicherlich rentiert. Die Mehrkosten spielt man da locker in 
höherer Produktivität wieder rein. (Das merke ich immer dann, wenn ich 
einen Kollegen an seinem Tabellenkalkulationsprogramm verzweifeln sehe, 
und er dann nach stundenlanger Arbeit ein Bild hervorbringt, das unnötig 
schwer zu interpretieren ist und nichts Relevantes zeigt)

Hier ein Artikel aus dem Jahre 1990:
http://www.websalon.de/chalisti_ausgaben/chalisti_06/007_FRC6.html
"Um es vorweg zu nehmen, ein richtiges Unix System fuer unter
15.000 DM zu bekoemmen wird auf legalem Wege ohne Ausnutzung
von (sehr selten gewaehrten Studenten/Universitaeten/oder sonst
welchen Rabatten) nahezu ein Ding der Unmoeglichkeit sein.
Aber mit dieser Praemisse sind wir bzw. bin ich an den Start
gegangen um die Messe abzusuchen."

Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der 
DEC Seite, deren Betriebssysteme schon vor Unix für das Internet 
verwendet wurden. Deshalb benutzen die meisten Protokolle im Internet 
CR/LF als Zeilenendzeichen. Unix im Internet gab es erst grob ab den 
frühen 1980ger Jahren.

von Der Rächer der Transistormorde (Gast)


Lesenswert?

Sven P. schrieb:
> Und selbst wenn man das mit knapper Rechenleistung und so weiter
> rechtfertigen würde. Der technische Fortschritt von MS-DOS war über den
> gesamten Lebenszyklus eher lächerlich, oder?

Es hat niemanden Interessiert, zumindest keinen der für das ganze 
bezahlt hat ;-).

Selbst wenn DOS nicht mehr als einen start batch  (autoexec.bat) geboten 
hätte.

Entscheidend war das es Anwendungen gab. Da hat Microsoft und der ganze 
Rest der Branche sich drauf gestürzt. Mit Word und Excel wurden zwei 
"Programme" (knallhart dahingestrikte Betaversionen um den Markt zu 
besetzen) geliefert.

Nicht der Unox Nerd der mit seinem OS rumspielt sondern die Bürohengste 
und -stuten entscheiden. Da spielte die Musik.

Von denen hat hat jeder die Kommandozeile gemieden wie die Pest. Es war 
besser da nichts drüber zu wissen. Eine klare WinWin ;-) Situation für 
Admin und Anwender.

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Naja, aber neue Versionen sollten immerhin ein wenig neue Funktionen
> beinhalten. Bei MS-DOS wurde ja noch nicht mal der Bug für den das
> A20-Gate eingebaut wurde behoben.

It's not a bug, it's a feature. ;-)

> Ich denke der Hauptgrund warum sich Unix da nicht auf dem Billigmarkt
> durchgesetzt hat war, dass damals Unix ziemlich kommerziell war und viel
> Geld gekostet hat.

Microport Unix kam 1985 für anfangs $99 raus. Aber eben erst 1985. 
Ausserdem war mit den ersten PCs an Unix nicht zu denken. Mit 8088, 
Floppydisk und 64KB war da kein Blumentopf zu gewinnen.

von Christian B. (casandro)


Lesenswert?

Ach ja noch was. In den 1990ger Jahren wurde auch der 386ger von den 
Unix-Leuten unterschätzt. Mit dem war es endlich möglich ein "modernes" 
Unix (mit Speicherschutz) laufen zu lassen. Eigentlich hätte Sun, damals 
(einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt 
herausbringen müssen, und Cross-Compiler dafür anbieten müssen. Damit 
hätte man einen billigeren Markt bedienen können.

Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark 
zerstritten. Es gab also dutzende von teilweise inkompatiblen Versionen. 
Gleichzeitig haben damals die Softwarefirmen den Quellcode nicht an den 
Kunden weitergegeben und Compiler waren teuer.

Hier übrigens mal eine Fernsehsendung zum Thema Unix aus dem Jahre 1985. 
Toll ist auch die aus heutige Sicht totale Fehleinschätzung des 
Softwaretesters, dass Unix auf dem Arbeitsplatz nichts verloren hat.
http://www.youtube.com/watch?v=g7P16mYDIJw

Gegen 4:00 auch ein Satz den man sich einrahmen müsste,

     "A lot of people don't really understand UNIX".

 Wobei der Typ der danach spricht, übrigens Garry Kindall, der Chef von 
Digital Research, offensichtlich auch Unix nicht verstanden hat.

von MaWin (Gast)


Lesenswert?

> Bei FAT32 sind also sogar lange Dateinamen (länger als 8.3) nur
> aufgepfropft.

Natürlich.

FAT32 war ja auch vorher da, bevor es überhaupt Unicode gab,
und die rückwärtskompatble Erweiterung war so genial,
daß es darauf sogar eine Patenterteilung gab.

Du hast ein Henne/Ei Problem.

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Eigentlich hätte Sun, damals
> (einer?) der Marktführer gleich ein auf dem 386ger basiertes Produkt
> herausbringen müssen,

Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er 
eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren 
erreichen würden. Das aber war erst bedingt beim Pentium und wirklich 
beim Pentium Pro der Fall. Davor war der Unterschied der RISCs zu x86 
eklatant. Und genau die Fliesskommaleistung war der Markt der 
Workstations.

> Ach ja, der kommerzielle Unixmarkt war natürlich auch noch stark
> zerstritten.

Das allerdings war ein grosses Problem. Und wurde eigentlich erst 
dadurch einigermassen gelöst, dass das erfolgreiche Linux den Weg vorgab 
und die verbliebenen Unixe sich dem anpassten.

> Toll ist auch die aus heutige Sicht totale Fehleinschätzung des

Dieser Eindruck kommt fast immer auf, wenn man sich Vorhersagen in der 
Rückschau betrachtet. Völlig egal um was es dabei geht.

Vielen Menschen gelingt noch nicht einmal eine annähernd korrekte 
Einschätzung der Vergangenheit, geschweige der Gegenwart. Weshalb sollte 
das dann bei der Zukunft besser sein? Auch professionelle Wahrsager 
irgendwelcher Institute sind dabei nicht viel besser.

von Christian B. (casandro)


Lesenswert?

A. K. schrieb:
> Dazu hätte Sun allerdings korrekt vorhersagen müssen, dass die x86er
> eines Tages die Fliesskomma-Leistung der damaligen Highend-Prozessoren
> erreichen würden.

Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen 
wichtig sind, ein Unix ist aber auch ohne schon sinnvoll. Ja Unix 
Workstations waren schnelle Kisten, aber auch langsame Unix Rechner 
konnte man vernünftig nutzen. Zur Not hat man halt die Datenverarbeitung 
im Hintergrund gemacht.

In dem Video kommt noch mal ein Softwartest von Paul Schindler (gegen 
25:00) für ein Programm, das unter Unix trivial durch eine Liste mit 
Wörtern und grep ersetzt werden kann. Unter MS-DOS gab es damals kein 
grep.

von ??????? (Gast)


Lesenswert?

grep ist doch nicht Betriebssystemabhängig. C-Compiler gab es auch 
damals schon für MS-DOS

von MaWin (Gast)


Lesenswert?

> Unter MS-DOS gab es damals kein grep.

Natürlich doch.
FINDSTR.
Du kennst dich mit MS-DOS nicht so ganz aus, gelle ?

http://www.it.murdoch.edu.au/units/ICT306/dosfilters.html

von Christian B. (casandro)


Lesenswert?

Ja anonymer Autor. Man konnte auch für MS-DOS ein grep bekommen. Nur 
woher? Mitgeliefert wurde es nicht. Das Internet gab es damals auch für 
MS-DOS Nutzer in aller Regel nicht. Und einen C-Compiler musst man sich 
für MS-DOS auch erst mal dazu kaufen. Das waren früher viele hundert DM. 
Und selbst dann war es schwierig beispielsweise mehr als 64 Kilobyte an 
RAM am Stück zu nutzen, was Werkzeuge wie sort oder Texteditoren recht 
aufwändig macht.

Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die 
Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten 
Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools 
wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da 
sind. So wie manche Windows Fanbois solche Sachen mit Excel Macros 
machen, weil Excel einfach da ist.

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Nö, sicherlich gibt es einige Anwendungen, für die Fließkommazahlen
> wichtig sind, ein Unix ist aber auch ohne schon sinnvoll.

Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht 
das, wozu man sie einsetzen kann.

> Unter MS-DOS gab es damals kein grep.

Bei mir schon. ;-)

von Sven P. (Gast)


Lesenswert?

Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit 
Zusatzprogrammen und Shareware war dem schon abzuhelfen. Mit der 
Shareware-Szene kamen dann aber auch schon bessere Shells, als die 
primitive von MS.

Ein 'nacktes' DOS konnte man einschalten und wieder ausschalten. Das 
wars im Wesentlichen auch schon ;-)

Das war aber im Nachinein auch zwangsläufig so; der Vergleich mit dem 
grep ist unsinnig. Von Unix/Linux alleine hat der Anwender auch nicht 
sonderlich viel. Interessant wirds ja erst mit dem ganzen Userland 
(GNU-Werkzeuge, heute auch die Desktops mit Anhang -> KDE, Gnome, ...). 
Das Userland von DOS war aber 'das DOS', also die Shell mit eingebauten 
Befehlen und dazu noch eine Reihe von eigenständigen Befehlen. Und das 
war eben ziemlich bescheiden.

Ohne dieses bisschen Userland bleibt von DOS nicht mehr allzu viel 
übrig, das war der Unterschied. Die unixoiden arbeiteten theoretisch(!) 
ohne Userland. Das Userland war halt für den Bediener gedacht und hinten 
herum konnten Daemonen weiterarbeiten. Dazu war DOS aber nie gemacht, 
DOS ist Userland.

von Christian B. (casandro)


Lesenswert?

A. K. schrieb:
> Das was ich beschrieb war der Hauptmarkt der Unix-Workstations. Nicht
> das, wozu man sie einsetzen kann.

Ja, das ist ein interessantes Phänomen. Unterschiedliche Märkte belegen 
unterschiedliche Systeme, unabhängig davon wie geeignet das ist. Um mein 
CAD-Programm zu starten brauche ich kein Unix, trotzdem wurde das früher 
häufig gemacht. Dahingegen ist Unix ideal für Textverarbeitung und 
Bürokommunikation... was aber leider selten gemacht wird. Solche Leute 
verbringen dann Monate damit Excel-Sheets umzuformatieren.

von Christian B. (casandro)


Lesenswert?

Sven P. schrieb:
> Von Unix/Linux alleine hat der Anwender auch nicht
> sonderlich viel.

Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und 
das ganze System eigentlich GNU/Linux heißt war Unix schon immer das 
komplette System, sprich Kernel und Userland. Von der Philosphie her 
sogar eher Userland als Kernel. Deshalb kannst du mit Cygwin auch in 
Windows-System fast zu was brauchbaren aufrüsten. ;) (Ja ich bin gemein)

In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools 
drin.

von skorpionx (Gast)


Lesenswert?

„expanded memory“, „extended memory“,“upper memory“.
Adresse = Segment*16 + Offset.

Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger 
und neunziger Jahren.
Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele 
Jahren hat die Entwicklung durch diesen Bremsen verloren...

von (prx) A. K. (prx)


Lesenswert?

Christian Berger schrieb:
> Dahingegen ist Unix ideal für Textverarbeitung und
> Bürokommunikation... was aber leider selten gemacht wird.

Ich hatte damals sogar von der Stückzahl her eher mit denen zu tun als 
mit CAD-Systemen. Beispielsweise ca. 20 Schmalspur-RISCs (IBM 220, nicht 
besser als damalige PCs) an 2 Servern, für grafische Einsatzplanung.

Aber das war, weil es diese Software damals so gab, nicht weil das 
billiger gewesen wäre. Und weil X11 als Basis damals mehr hergab und 
mehr Geschichte hatte als die sehr frischen und bei Vernetzung und 
Client/Server noch durchwachsenen Win3 oder OS/2. Das änderte sich 
markant mit NT.

von Sven P. (Gast)


Lesenswert?

Christian Berger schrieb:
> Sven P. schrieb:
>> Von Unix/Linux alleine hat der Anwender auch nicht
>> sonderlich viel.
>
> Ahh, da sieht man den Fehler. Auch wenn Linux nur ein Kernel ist, und
> das ganze System eigentlich GNU/Linux heißt war Unix schon immer das
> komplette System, sprich Kernel und Userland. Von der Philosphie her
> sogar eher Userland als Kernel.
Ja dann, dann zieht der Vergleich ja doch viel eher, als ich eigentlich 
gedacht hatte. Die Verkaufsstrategie hinter den Unix damals kann ich 
nicht beurteilen - das war vor meiner Zeit.

von ach (Gast)


Lesenswert?

Christian Berger schrieb:
> Eine der wichtigsten Einflüsse bei der Anwendung eines Systems ist die
> Faulheit. Die Nutzer/Entwickler gehen immer den Weg des geringsten
> Wiederstandes. Der geht unter Unix in der Regel durch viele kleine Tools
> wie grep, awk, sed, usw. Ganz einfach weil die in aller Regel einfach da
> sind.

Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können.

von STK500-Besitzer (Gast)


Lesenswert?

Schuld ist doch nur der Installer.
Wenn ich mir die Geschichte mit YAST von Suse angucke:
Bei den ersten Linuxen musste man ganz schön tief in die Materie 
eindringen und bei der Installation eine Menge FachTLAs wissen oder 
nachschlagen ==> Viele Aufwand.

Bei DOS und später bei Windows konnte man einfach eine Diskette ins 
Laufwerk stecken und fertig.
Die Disketten konnte man auch wunderbar kopieren, womit der Privat-Markt 
gesättig wurde, was dazu führte, dass Firmen die Lizenzen kaufen 
musste... (aber das ist eine andere Geschichte...)

von (prx) A. K. (prx)


Lesenswert?

ach schrieb:
> Ach. Nach dieser Theorie hätte sich DOS nie durchsetzen können.

Hat es ja auch nicht. Oder wo siehst du heute PCs mit MS-DOS? ;-)

von ach (Gast)


Lesenswert?

STK500-Besitzer schrieb:
> Schuld ist doch nur der Installer.
> Wenn ich mir die Geschichte mit YAST von Suse angucke:
> Bei den ersten Linuxen musste man ganz schön tief in die Materie
> eindringen und bei der Installation eine Menge FachTLAs wissen oder
> nachschlagen ==> Viele Aufwand.

Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den 
Abhängigkeiten in autoexec.bat und config.sys haben. Eine 
Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und 
die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows 
auch nutzbar.

von (prx) A. K. (prx)


Lesenswert?

An jene, die den längeren Teil der Karriere noch vor sich haben:

(1) Im Raum sitzt ein externer Supporter, der 2 Tage lang fast 
unterbechungsfrei im vi unlesbaren Konfigurationskram eintippt. Ohne 
Doku zu bemühen.

(2) Anderer Supporter, andere Software: Der Installateur sitzt eine 
Woche vor allerlei GUI-Fenstern und klickt die Maus kaputt.

Preisfrage: Wer von den beiden wird besser bezahlt? Wer erntet vom Chef 
ein "Wow!" und wer ein "Hmm, das sieht ja aus wie bei mir zu Hause, kann 
doch jeder!"?

von MaWin (Gast)


Lesenswert?

> Wer von den beiden wird besser bezahlt?

Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten 
arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind.

Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige 
nutzlose Konfigurationsarbeit die nur durch unzureichende Software 
verursacht wird.

Wenn überhaupt was eingestellt werden soll weil der Zustand nach der 
Installation nicht passend war (was eiegntlich nicht vorkommen darf), 
dann bitte vom Endanweder in einem übersichtlichen Dialog.

von Lukas K. (carrotindustries)


Lesenswert?

MaWin schrieb:
> Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige
> nutzlose Konfigurationsarbeit die nur durch unzureichende Software
> verursacht wird.

Es gibt eben nicht nur auspacken-installieren-benutzen Software.
Praktisch jede Serversoftware bedarf händischer Konfiguration, oder 
erwartest du von einem DHCP-Server gleich zu wissen, welche IPs er 
verteilen soll?

von Sven P. (Gast)


Lesenswert?

MaWin schrieb:
> Keiner von denen darf bezahlt werden, denn es ist sinnlose überflüssige
> nutzlose Konfigurationsarbeit die nur durch unzureichende Software
> verursacht wird.
>
> Wenn überhaupt was eingestellt werden soll weil der Zustand nach der
> Installation nicht passend war (was eiegntlich nicht vorkommen darf),
> dann bitte vom Endanweder in einem übersichtlichen Dialog.
Aha. Zum Glück kann man ja mit einer Universalinstallation alle 
Anwendungsfälle abdecken...

Apple kann das ganz gut. Was halt nicht da ist, braucht der Anwender 
nicht. Per Definition.

von (prx) A. K. (prx)


Lesenswert?

MaWin schrieb:
> Ach du Scheisse, ABM Arbeitsbeschaffungsmaßnahmen von ansonsten
> arbeitslosen Dumpfbacken die für richtige Arbeit zu bld sind.

Es gibt neben MS-Office auf Windows auch Software, die in jeder 
einzelnen Installation hochgradig kundenspezifisch eingerichtet wird. 
Weils jeder Kunde anders haben will. Die wird natürlich nicht 
millionenfach verkauft, aber davon gibts andererseits recht viel. Kann 
freilich sein, dass dir sowas nicht über den Weg läuft. Mir schon.

Szenario (1) hatte ich vor gut 12 Jahren so erlebt. Sowohl die Software 
als auch die Server-Hardware von damals sind noch im Einsatz und werden 
es wohl noch ein paar Jahre sein. Kann man nicht meckern.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

ach schrieb:
> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch

Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde 
auch auf der 386er Platform entwickelt. Und viel Ahnung war da nicht 
nötig. Ohne CD ROM gabs eigentlich nur die Umstellung auf die deutsche 
Tastatur - das wars.
Entscheidend für den Anwender war ja nicht, wie toll sich ein Programm 
installieren lässt (das war bei MS-DOS ohne HDD auch gar nicht nötig), 
sondern wie benutzbar ein Programm war. Ich kannte Firmen, die sich 
komplett mit Lotus-123 und Sidekick durch die Daten gewurschtelt haben 
und nie etwas anderes benötigt haben. Du konntest mit 2 
Diskettenlaufwerken arbeiten, ohne dauernd Schwabbelscheiben zu wechseln 
und hattest eine enorme Erleichterung gegenüber der Fakturierung mit 
Schreibmaschine und Kohlepapier. Das war der entscheidende Vorteil.
Zusätzlich gab es tonnenweise Klone des XT (und auch des AT) die billig 
waren und gegen die sich IBM nie wirklich gewehrt hat. Mein erstes 
medizinisches Plotprogramm hab ich damals mit Turbopascal auf einem 
2-Disketten Zenith Klon geschrieben. Eine selbstgebaute 4-Kanal A/D 
Karte mit ISA und eigenem 8048 Subprozessor hat da die Daten gesammelt 
und an die langsame Zenith Schüssel weitergereicht.

von Christian B. (casandro)


Lesenswert?

Naja, als die 486ger populär waren, war Windows noch nicht so viel 
benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten 
Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf 
Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem 
Desktop. Das müsste so um 1993 gewesen sein.

von Karl (Gast)


Lesenswert?

Sven P. schrieb:
> Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit
> Zusatzprogrammen und Shareware war dem schon abzuhelfen.

Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware 
ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor 
an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf.

von Wolfgang R. (portside)


Lesenswert?

Christian Berger schrieb:

>
> In einem "nackten" Unix-System hast Du halt schon die wichtigsten Tools
> drin.

Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei. 
Alles was man heute an Unix Tools auf dem Markt findet ist reverse 
engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code 
anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt 
noch auf meiner archivierten Platte.

Mit verbockt hat Novell die ganze Unix Sache. Als auf der Intel 
Plattform mit Unixware eine relative preiswerte Lizenz vorhanden war 
gibt das unfähige Management Marketing an SCO ab und diese schränken die 
unbegrenzte Anzahl Arbeistplätze wieder ein und kassieren bei SCO-Unix 
ab. SCO Unix ist eben Schrott. Unixware war 200% stabiler.
Nun ja Novell hat es später nochmals mit Suse Linux versucht und 
ebenfalls Schiffbruch erlitten.
Auch die Motorala 68000 Welt war anfangs nicht einfach. Für Unix hat SUN 
damals zuerst eine Hardware Memory-Management-Unit um den 68000 herum 
entwickelt und damit Unix lauffähig gemacht - lineare Addressierung ist 
eben nicht alles.

Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei 
Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche 
drauf und durchgestartet.

Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes 
Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran.
Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als 
recht mobil telefonieren können.
Optik ist alles, Bedienung andere Baustelle.
Viel Spass mit Touchscreen und Win8 auf dem Desktop.

Mast- und Schootbruch alte Seefahrer

von MCUA (Gast)


Lesenswert?

> Es hat sich mir aber trotzdem nie erschlossen, wie man mit DOS produktiv
> arbeiten konnte. Das Mistding konnte ja effektiv garnix.
Man konnte immerhin grundlegende  OS- u. Datei-Operationen damit machen, 
und viel Zusatzsoftware gab es auch. Und oft geht Commandline schneller 
als Mausgeklickse.

>Übrigens das mit dem CR/LF ist ein anderer Brauch. Der stammt von der
>DEC Seite...
Und das kommt ursprüngl. von Schreibmaschinen und Fernschreiber. Es muss 
halt CR und LF sein, damit der Text nicht in gleicher Zeile 
überschrieben wird.
Und der Asci-Code 127 mit deshalb mit DEL belegt, weil mit den ganzen 
1-en (nein, mit den Löchern) man beim Lochstreifen nachträglich das 
(falsche) Zeichen ungültig machen konnte. ..ist also eine Festlegung die 
schon uralt ist.

von W7 (Gast)


Lesenswert?

Christian Berger (casandro) schrieb:

> Naja, als die 486ger populär waren, war Windows noch nicht so viel
> benutzt und Linux war schon ganz brauchbar. Ich hab irgendwo einen alten
> Zeitschriftenartikel (ich glaube aus der MC) in dem über die MS-DOS auf
> Linux Umstellung einer Universität berichtet wurde. Wohlgemerkt auf dem
> Desktop. Das müsste so um 1993 gewesen sein.

Das ist wirklich Geschichtsfälschung in Reinform. Du bist genau so ein 
Jungspund wie Sven P. (haku) der selber gerade mal Baujahr 1989 ist aber 
hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden 
selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals 
sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich 
Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation. 
Mein erster Rechner war ein 80386SX mit 16 MHz und 4MByte RAM, den ich 
mir zur Studienzeit damals gerade so leisten konnte (40MHz DX Rechner 
kosteten damals ein gefühltes Vermögen von um die 3500 DM). Darauf lief 
zunächst ein Windows 3.0, dann 3.1 dann WFW 3.11 und das war in etwa die 
von dir beschriebene Zeit. Im Rechnerraum der FH lief kein Unix und 
schon gar kein Linux, sondern Novell NetWare und das stabil über Jahre. 
Auf den Clients durfte man Borland Turbopascal starten, Turbo C++ und 
anderes Zeugs. Einen Unix Großrechner gab es dennoch zu Übungszwecken. 
War eine alte ausrangierte Gurke mit der damals dennoch beachtlicher 
Rechenleistung von 4 Prozessoren und viel, viel RAM (heute lächerlich). 
Die Studies hatten nach und nach alle einen PC mit Windows, darauf wurde 
programmiert und das Schriftgut in WYSIWYG abgewickelt und auf dem 
damals gängigen HP 500 Deskjet ausgedruckt. CAD Programme waren ACAD für 
die Zeichenübungen und ORCAD 386 für Schaltungsdesign. Das waren DOS 
Programme mit eigenen Grafiktreibern und den damals üblichen 
Bildschirmauflösungen von meist 800x600 Pixel oder bei den 5000 DM 20 
Zöllern auch mehr. Wie gesagt, wir reden hier die ganze Zeit noch über 
DOS und dann Windows 3.x, noch nicht mal über das damals sehr 
erfolgreiche (weil erstmals echte 32-bit Windows 95). Keiner der mit Win 
3.x begann hätte damals die Umstallung auf Windows 95 ausgeschlagen, um 
zu Linux zu wechseln. Dessen Zeit lief da langsam erst an. Die SuSE GmbH 
hatte sich 1992 gegründet, aber erst im Mai 1996 also nach Windows 95' 
ihre erste Distribution herausgebracht. Vorher war da nur Slackware. Die 
hatte ich auch, als ich mein erstes Doublespeed Mitsumi CD-ROM gekauft 
hatte (nein der 386SX hatte noch kein CD-ROM eingebaut ;)) für damals 
rund 300 DM und Treiber für DOS. War eine nette Spielerei, aber nicht 
mal ansatzweise das was man heute unter "Linux" subsummiert.

Also bitte keine Geschichtsfälschung betreiben. Wie Helmut S. (helmuts) 
schon schrieb,

"99% der großen erfolgreichen Firmen haben MS-DOS und später WIN 
benutzt.
WIN benutzen sie auch heute noch. Die waren alle glücklich mit MS-DOS.
Endlich hatte man Rechner und OS für wenig Geld. Anwender von UNIX
wurden hemmungslos von den UNX-Anbietern mit teueren Rechnern,
teuren-Unix-Lizenzen und teuren Anwendungsprogrammen über den Tisch
gezogen."

PCs waren inzwischen gegenüber Unixrechnern (in meinem Firmenumfeld VAX 
und VAX Clones) verdammt billig und bei ESCOM als Massenware zu haben. 
Unixrechner wurden 1995 nicht mehr neu angeschafft, statt dessen kamen 
mehr und mehr PCs mit den neusten Intel Prozessoren. Der Pentium 60 
hielt Einzug und das war damals gegenüber den alten Unixrechnern bereits 
eine verdammt schnelle Kiste. Der Trend war klar erkennbar.

Aus heutiger Sicht mag Win95 in der ersten Release elend erscheinen. 
Aber gegenüber Win311 war es bereits ein Quantensprung und in der 
inoffiziellen OSR 2.0 dann auch ganz brauchbar. ;)

Das war übrigens alles noch die Zeit ohne DSL. Das muss man dabei immer 
im Hinterkopf behalten und den Begriff "Flatrate" kannte keiner. 14,4 
kbsp Modem war angesagt, später dann 56 kbps und sauteure Onlinekosten.

von W7 (Gast)


Lesenswert?

Was mir damals an Intel ziemlich auf den Geist gegangen ist und bis 
heute tief in mir verwurzelt ist, ist der Versuch von Intel damals die 
aufkommende Konkurrenz AMD im 386er Prozessorenbereich zu verhindern. 
Intel Prozessoren waren einzeln nur sauteuer (für viele praktisch 
unbezahlbar) zu erhalten und sie haben damals alle Hebel in Bewegung 
gesetzt, um die Billigkonkurrenz AMD zu verhindern. Damit hat Intel 
damals aktiv den Markt behindert (die Schw..e). Es gelang aber nicht und 
AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst 
direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann 
auch einen DX Rechner leisten, durch einfachen Austausch der 
Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und 
konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz. 
hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix.

von (prx) A. K. (prx)


Lesenswert?

Wobei diese Nummer noch nicht durch ist. Auch Intels zweiten Versuch, 
das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu 
zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt. Es 
war ja nicht Intels Idee, die x86er zu 64 Bits auszubauen. Dazu wurde 
Intel durch AMDs Schachzug regelrecht gezwungen.

Aber da AMD technisch mit Intel nicht mehr so recht mithalten kann, sind 
wir grad wieder in einer Situation, in der Intel die Chance hat, ein 
Monopol der Highend-x86er zu errichten. AMD liegt pro Core weit hinter 
Intel, sowohl in blanker Rechenleistung als auch in Rechenleistung pro 
Watt. Jedenfalls wenn man das ATI-Erbe der integrierten Grafik aussen 
vor lässt.

Einzig die nicht zuletzt dank Tablets gewonnene Erkenntnis, dass man für 
einen Internet-Browser nicht zwingend einen 100W Desktop-Prozessor oder 
ein mit einem völlig überteuerten Prozessor ausgestattetes Ultrabook 
benötigt, erspart uns vorerst den Durchmarsch Intels, insgesamt gesehen. 
In diesem Sinne gehört ausgerechnets Apples Hardwareschmiede zu den 
grösseren Hindernissen für Intel - Apples selbst designte ARM-Cores sind 
nämlich recht beachtlich.

von Sven P. (Gast)


Lesenswert?

W7 schrieb:
> Sven P. (haku) der selber gerade mal Baujahr 1989
Woher hast du denn das Datum?

> ist aber
> hier sich groß über die MS-DOS Zeit äußert, die keiner von euch beiden
> selbst erlebte. Nur mal zu deiner Information, schon MS-DOS war damals
> sehr erfolgreich, weil es z.B. ein gutes Schreibprogramm sprich
> Textverarbeitung wie Word Perfect gab und gute eine Tabellenkalkulation.
Also anders formuliert, die Anwenderprogramme waren erfolgreich und 
MS-DOS war eben grad da...

Ich bin mir der Problematik dieser Zeit schon bewusst. Und natürlich 
erlebe ich vieles davon nur als Retrospektive, obwohl ich mich 
tatsächlich über diverse DOS-Versionen und -Klone, Win3.1 und 3.11 bis 
zu Win95 durchgehangelt habe, da ich fast immer nur anderweitig 
ausrangierte Hardware hatte.
Aber weil auf praktisch jeder kleinen Maschine MS-DOS lief, muss das ja 
nicht automatisch auch bedeutet, dass MS-DOS so unheimlich gut war. Es 
boten sich ja auch nicht viele Alternativen dazu. Ich schrieb ja auch 
'es erschließt sich mir nicht'. Da können ja durchaus noch Aspekte sein, 
die ich nicht berücksichtige, mit denen es sich mir aber vielleicht 
erklären wird.

Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft. 
Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach 
Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die 
ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell 
erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal 
oder QuickBasic zusammengehauen.

Solche Dinge und noch viele andere hätte man doch wirklich in den über 
zehn Jahren des MS-DOS-Lebens mal verbessern können.

von Christian B. (casandro)


Lesenswert?

W7 schrieb:
> "99% der großen erfolgreichen Firmen haben MS-DOS und später WIN
> benutzt.

Wir reden aneinander vorbei. Ich rede nicht davon was "99% der 
erfolgreichen Firmen" gemacht haben. Das ist mir genau so egal wie die 
angeblichen >50% Marktanteil die Windows heute auf dem Desktop haben 
soll. Das betrifft mich nicht.
Es ging mir darum, was man damals machen hat können, was es damals schon 
gab, und was die Leute die wirklich ein gutes System haben wollten auch 
schon langsam gemacht haben.

Das die Masse schon immer nach dem Grundsatz "Was der Bauer nicht kennt, 
frisst er nicht" handelt ist normal. Schau in ein übliches schlechtes 
Systemhaus und Du wirst richtige "Linuxphobiker" finden, die ernsthaft 
Angst vor Linux haben und glauben sie wüssten irgendwas von Windows, 
dann aber an simplen Aufgaben unter Windows scheitern.
Das ist nicht der Standard nach dem ich handeln will. Ich will für jede 
Aufgabe das richtige Werkzeug benutzen, egal ob das jetzt ein Xubuntu 
Linux, OS/2, Windows oder CP/M ist.

von MCUA (Gast)


Lesenswert?

>Damit hat Intel damals aktiv den Markt behindert ....
Das ist fast immer so, wenn es nur noch weniger Mitspieler gibt

>Da können ja durchaus noch Aspekte sein, die ich nicht berücksichtige,
Schonmal dran gedacht, dass Grafik- und Miltimediakrams sehr Speicher- 
und rechenintensiv sind? (jedenfalls damals)
Deshalb sind viele Anwendungen (blitzschnell) im Textmodus gelaufen (und 
in manchen Fällen konnte man in den Grafikmodus umschalten).
Heute "muss" für jeden Kickifacks gleich ne umfangr. Grafik her, obwohl 
noch vieles im Textmodus möglich wäre. Aber (fast) Alle denken, wenn man 
kein KlickiBunti sieht, muss es alt sein.


Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit 
Erweiterung gemacht, weil 'normal' Evolution und kompatibel,
und nach AMD gibts ja auch noch VIA.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit
> Erweiterung gemacht, weil 'normal' Evolution und kompatibel,

Soweit mir bekannt ist hatte Intel das nicht vor. Sondern wollte für den 
Desktop/Mobilmarkt solange weiter 32-Bit x86 anbieten, bis die 
Kundschaft freiwillig auf bis zum Anschlag zupatentierten IA64er 
wechselt.

Mindestens die erste Itanium/IA64-Generation hatte einen 
x86-Kompatibilitätsmodus an Bord, einen eher traurigen allerdings. Im 
weiteren Verlauf wäre es wohl eher auf dynamic code translation 
rausgelaufen, wie HP es für Programme der alten PA-Maschinen 
implementierte.

Nur kam dann AMD64 und Intel merkte, dass sie mit ihrer Strategie in die 
Falle laufen. Und machte eine Kehrtwendung mit der exakten Übernahme 
dieser Architektur. Eine eigene x86-64er Variante durften sie nicht 
bringen, dagegen legte Microsoft sein Veto ein. Nun steht dafür HP etwas 
im Regen, weil Itanium langsam absäuft.

> und nach AMD gibts ja auch noch VIA.

Naja. VIA taugt doch nicht einmal als Feigenblatt zur Abwehr von 
Monopolvorwürfen.

von MCUA (Gast)


Lesenswert?

> bis die Kundschaft freiwillig..
Aber was die Kundschaft mal gewöhnt ist (X86(!)bei PCs), will sie auch 
behalten.
Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum 
68k. Das weiss Intel doch.

>wäre es wohl eher auf dynamic code translation...
das ist schon mal gescheitert

>Naja. VIA taugt doch nicht einmal...
VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe 
Leistung gefordert. Viele Dinge gehen damit.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> Deshalb gingen die damals auch nicht zur anderen Intel-Archit oder zum
> 68k. Das weiss Intel doch.

AMD hatte damals nicht nur AMD64 parat, sondern zudem auch noch 
gleichzeitig die klar bessere Hardware. Die Opterons waren den damaligen 
Intels schlicht deutlich voraus, sowohl bei der Performance als auch 
beim Systemdesign. Intel hatte sich gleichzeitig nicht nur bei der 
Befehlssatz-Architektur verspekuliert, sondern auch bei der 
Netburst-Architektur des Pentium 4. Die sah auf dem Papier brilliant 
aus. In der Praxis fing das Papier leider zu schnell Feuer und 
verbrannte.

Wäre AMD ungefähr im heutigen Ausmass hintendran gewesen (GPU 
ausgenommen), dann hätte Intels Strategie möglicherweise funktioniert.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
> VIA wird für viele Embedd-PCs benutzt, und nicht immer ist sehr hohe
> Leistung gefordert. Viele Dinge gehen damit.

Schon, aber das ist in der Entscheidung von Highend-Architekturen völlig 
irrelevant. VIA konkurriert nicht mit Intel oder AMD, sondern letztlich 
mit ARM.

von (prx) A. K. (prx)


Lesenswert?

MCUA schrieb:
>>wäre es wohl eher auf dynamic code translation...
> das ist schon mal gescheitert

Einmal ja, bei Transmeta. Ansonsten siehst du sie an allen Ecken im 
Einsatz. So ist mit Androids Dalvik-VM der Smartphone-Markt von dieser 
Technik geprägt.

Die ursprüngliche Virtualisierungstechnik von VMware ist ebenfalls eng 
damit verwandt. x86 ist ja eigentlich nicht virtualisierbar, weshalb man 
böse Tricks anwenden musste, um es trotzdem möglich zu machen.

von W.S. (Gast)


Lesenswert?

Sven P. schrieb:
> Ich bin mir der Problematik dieser Zeit schon bewusst.

So? Meinst du?
Ich nicht. Ich zitiere dich mal:
"Auch wenn Linux nur ein Kernel ist, und das ganze System eigentlich 
GNU/Linux heißt war Unix schon immer das komplette System, sprich Kernel 
und Userland."

Siehst du es jetzt?

Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es 
richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den 
auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von 
Tausenden von SW-Schreibern, kommerziellen wie privaten). Also 
"komplettes" System gegen komplettes System.

Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell 
(aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit 
dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine 
360K Diskette paßt.

Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer 
geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen 
hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so 
weitergeht. Gesellschaftlicher Alzheimer?

W.S.

von troll (Gast)


Lesenswert?

Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man 
jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere 
Hardware im  Vergleich zum IBM-AT. Und sich dann doch nicht durchsetzten 
weil für DOS/Win bekanntere Anwendungen verbreitet waren. Der 
Markterfolg eines Betriebssystems wird von der Werbung und von der 
passenden Anwendungssoftware bestimmt - und nicht von Leistungsfähigkeit 
und Flexibilität des Betriebssystems selber.

von Sven P. (Gast)


Lesenswert?

W.S. schrieb:
> Siehst du es jetzt?
Nein, aber du siehst es ja ebensowenig.

Eingangs hatte ich MSDOS mit den nackten UNIX-Kern verglichen, genau wie 
du es nun vorschlägst. Man hat mich dann darauf aufmerksam gemacht, dass 
das Userland damals integraler Bestandteil eines 'UNIX' war.

> Also, wenn hier Unix mit MSDOS verglichen wird, dann sollte man es
> richtig tun: Unix ("das komplette System") vergleichen mit MSDOS und den
> auf MSDOS laufenden Apps (die zu 99% nicht von IBM kamen, sondern von
> Tausenden von SW-Schreibern, kommerziellen wie privaten). Also
> "komplettes" System gegen komplettes System.
Nein, offenbar ist das ja nicht so. Ein frisch gekauftes UNIX 
beinhaltete bereits viele Werkzeuge. Ein frisch gekauftes MSDOS 
beinhaltete praktisch nichts. Beide Systeme dabei unmittelbar ab Werk 
vom Hersteller.

Es erscheint mir ab diesem Punkt aber nur logisch, dass sich um MSDOS 
eine größere Entwicklerkultur gebildet hat, weil ja jeder an das System 
heran kam. Das ist dann wohl auch  der Trend, der heute Linux so 
vorantreibt. Da erübrigt sich ja beinahe schon der Vergleich...

> Oder wenn man es spartanisch will, den Unix-Kernel nebst einer Shell
> (aber OHNE jegliche Tools - bash ohne ls usw... ;-) ) vergleichen mit
> dem nackten MSDOS - und dann mal nachfragen, welches von beiden auf eine
> 360K Diskette paßt.
Es gibt nach wie vor Linux-Distributionen, die auf einer Floppy (ok, 
1,5MB) Platz finden. Inklusive Werkzeug und Netzwerk.

> Aber so langsam ermüdet einen dieser trostlose Thread, der auf einer
> geradezu frappierenden Unkenntnis jeglicher jüngerer Geschichte begonnen
> hat. Ich frag mich loß, wie das mal in Zukunft werden soll, wenn das so
> weitergeht. Gesellschaftlicher Alzheimer?
Dafür sorgen andere Institutionen ja schon recht erfolgreich...

Ich bemühe mich ja wenigstens, solche Zusammenhänge zu verstehen. Ich 
habe noch mit DOS gearbeitet (arbeiten müssen). Das DOS- und 
Windows-Lager betreibt aber mindestens genauso eifrig 
Geschichtsverzerrung, wie alle anderen Gruppen und Randgruppen auch. 
Insofern fällt es zumindest mir zugegebenermaßen nicht leicht, den 
Dünnpfiff daraus auszusortieren.

von Michael_ (Gast)


Lesenswert?

Ich verstehe nicht, warum man den Vergleich von DOS mit UNIX-Rechnern 
herstellen will.
Dieser Vergleich geht doch genauso schief, wie wenn man einen heutigen 
PC mit einem heutigen UNIX-System vergleichen will.
Nehmen wir mal das Jahr 1985. Da ist eher der Vergleich mit Commodore 
und Apple angebracht. Und dann waren da ja noch die in Massen vertretene 
CP/M-Rechner. Die Konzeption unterschied sich nur unwesentlich.
Die Begriffe auf der Befehlszeile waren auch ähnlich.
Wer CP/M bedienen kann, der kann auch DOS bedienen.
Meist wurden ja auf beiden vor allem Programme für das Büro verwendet.
Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte 
dabei den Apple und Commodore so 5 Jahre hinterher.
Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben 
alles genauso auf Basis von CP/M und ZILOG, oder AMIGA?
Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder 
Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern.
Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.

von W7 (Gast)


Lesenswert?

Sven P. (haku) schrieb:

W7 schrieb:
>> Sven P. (haku) der selber gerade mal Baujahr 1989
> Woher hast du denn das Datum?

hehe, das Internet ist eine Verräterplattform. :)

Quelle:
Beitrag "Re: Balla Balla, na super, der Topic wird abgewiesen"

oder haste geschummelt?

von Reinhard Kern (Gast)


Lesenswert?

A. K. schrieb:
> Auch Intels zweiten Versuch,
> das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu
> zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt.

Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde 
dazu empfehlen:

Rechne einfach mal die Gewinne der Firmen Intel und AMD der letzten 15 
oder 20 Jahre zusammen und vergleiche die beiden. Mir ist das im Moment 
zuviel Mühe, aber dabei ist wohl eher die Frage, ob AMD summa summarum 
überhaupt Geld verdient hat, während es sich bei Intel um zig Milliarden 
handelt. Erfolgreich für AMD würde ich das nicht nennen, "tapfer" würde 
besser passen. Erinnert mich irgendwie an Asterix und Konsorten.

Für den Thread ist das allerdings nicht weiter relevant, denn ohne AMD 
wäre x86 vielleicht schon teurer geblieben, aber doch eine 
Grössenordnung billiger als Unix-Hardware.

Gruss Reinhard

von Arc N. (arc)


Lesenswert?

Michael_ schrieb:
> Meist wurden ja auf beiden vor allem Programme für das Büro verwendet.
> Musikwiedergabe wurde auf dem PC etwa erst 1992 populär, und hinkte
> dabei den Apple und Commodore so 5 Jahre hinterher.

1992
Amiga 1200 und 4000, 8-Bit Sound, Stereo
Macintosh, 8-Bit Sound (afair einige nur Mono)

Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie 
die NeXTstation/cube afair 1990?)

> Ich denke, es ist ein Zufall der Geschichte. Sonst hätten wir heute eben
> alles genauso auf Basis von CP/M und ZILOG, oder AMIGA?

Der legendäre Z80000 oder das noch legendärere Missmanagement bei 
Commodore und Atari ;-)

> Und eigentlich ist es doch wurscht, welcher Konzern die Soft- oder
> Hardware bereitstellt. Wir werden uns noch über Gooooogle wundern.
> Obwohl ich zu der Zeit ein Fan von DR-DOS und OS/2 war.

von (prx) A. K. (prx)


Lesenswert?

Reinhard Kern schrieb:
>> Auch Intels zweiten Versuch,
>> das Architektur- und somit Preismonopol via 64-Bit IA64 wieder fest zu
>> zurren, hatte AMD mit der AMD64 Architektur erfolgreich abgebügelt.
>
> Ich weiss ja nicht an was du "erfolgreich" fest machst, aber ich würde
> dazu empfehlen:

Ich bin jetzt etwas irritiert, denn das klingt für mich wie gezielt 
missverstanden durch Ausnutzung sprachlicher Doppeldeutigkeit.

Nenn es einen Phyrrussieg, wenn du willst, denn um AMD ist es 
wirtschaftlich nicht gut gestellt. Aber ein Architekturmonopol hat AMD 
erfolgreich verhindert. Auf der finanziellen Seite waren sie im Volumen 
und über die Gesamtzeit gesehen erfolglos.

Aber das sind zwei verschiedene Aussagen. Weil du auch als armer Mann 
erfolgreich eine Strasse überqueren kannst - das besagt nämlich nur, 
dass du drüben lebend ankommst, nicht dass du drüben reich ankommst.

> Für den Thread ist das allerdings nicht weiter relevant,

Klar, denn im Thread geht es eigentlich um MS-DOS. In der Zeit, auf die 
sich keine Aussage bezieht, war MS-DOS längst Schnee von gestern. 
Insofern war das ein wenig offtopic.

> wäre x86 vielleicht schon teurer geblieben, aber doch eine
> Grössenordnung billiger als Unix-Hardware.

Weshalb? Zumal das auch nicht immer zutraf. Jedenfalls nicht, was die 
Grundkosten der Hardware angeht. Und die Kosten eventuell mitverkaufter 
Software sind ein anderes Thema.

Dass eine Unix-Workstation mit einem PowerPC 604 Prozessor dennoch 
deutlich teurer verkauft wurde, als ein Aldi-PC mit einem Pentium drin, 
lag weder an der verbauten Technik noch am Marktpreis des Prozessors. 
Beim Hersteller besagter Unix-Workstation waren auch die PCs deutlich 
teurer als bei Aldi.

Allerdings war das schon in einer Ära, in der es nicht mehr um MS-DOS 
ging. Seitens der Ansprüche an die Hardware-Ressourcen unterschied sich 
Windows NT nicht mehr von Unix.

von Carsten S. (dg3ycs)


Lesenswert?

Hi,

ach schrieb:
> STK500-Besitzer schrieb:
>> Schuld ist doch nur der Installer.
>> Wenn ich mir die Geschichte mit YAST von Suse angucke:
>> Bei den ersten Linuxen musste man ganz schön tief in die Materie
>> eindringen und bei der Installation eine Menge FachTLAs wissen oder
>> nachschlagen ==> Viele Aufwand.
>
> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch und
> die Standardḱonfiguration war im Gegensatz zu der von DOS oder Windows
> auch nutzbar.

BITTE???
Das ist aber wohl ein absolutes Gerücht!
Ok, meine Erfahrungen reichen nicht so weit zurück wie die einiger 
wirklich alten Hasen in diesem Forum, ich selbst habe im Februar 1993 
meinen ersten PC bekommen der zugleich vielleicht der vierte oder fünfte 
PC war der überhaupt in meiner Klassenstufe (immerhin vier Klassen) 
zuhause stand und m.w. der erste der einem Schüler selbst gehörte.
Das war ein 486SX25 mit 4MB RAM und 120MB Festplatte für 1400 DM. damit 
war ich über ein Jahr der mit dem schnellsten Privatrechner in meinem 
gesamten bekannten Umfeld überhaupt! (heute -egal wieviel man ausgibt- 
ja undenkbar über so einen langen zeitraum-) Wobei ich da -wie viele 
andere auch- von einer Fehlkalkulation von "Quelle" enorm profitiert 
habe. Dieser REchner stand für den PReis im Katalog und Tagespreise 
haben die damals noch nicht gehabt. Kurz nach Drucklegung des KAtaloges 
sind aber wohl die PReise für Speichermodule und ähnliches rasant 
angezogen. Selbst bei Escom und Vobis war zu dem Zeitpunkt das 
vergleichbare Gerät rund 400 DM teurer. Von den lokalen Händlern ganz zu 
schweigen. Es warn aber auch 5 Wochen Lieferzeit...

Aber BTT: ICh war zu dem Zeitpunk 13 Jahre alt, bin im März 14 geworden 
-wobei mir meine Eltern und Verwandschaft im Februar dann schon einen 
Vorschuss gewährt haben - Ursprünglich war aber auch von 8 Wochen 
Lieferzeit die Rede!
Wie es da als 13Jähriger so ist probiert man ein wenig rum usw. löscht 
auch mal etwas und dann ist mir versehentlich das "Del *.*" im 
Verzeichniss C:\ statt im beabsichtigten Unterverzeichniss 
rausgerutscht.

 Erst große Panik weil nichts mehr lief - und niemand da der sich 
auskannte
Dann über den IT-Verantwortlichen in der Fa. wo mein Vater damals 
arbeitete zumindest die Infos bekommen das wohl die Autoexec.Bat und 
besonders die Config.sys jetzt fehlen und wo ich im HAndbuch für MSDOS 
5.0 -das damals ja noch als PApierausgabe dabeilag- die Infos zur 
Neuerstellung mit erklärung der Parameter finde.
Ca. drei Stunden hat gedauert bis ich als absoluter PC Anfänger dann 
wieder eine vernünftige Einstellung gezaubert hatte auf der auch 
speicherhungrige Dinge liefen - also auch mit Loadhigh usw... und nicht 
nur alles in die unteren 640kB geladen... Und das noch ganz ohne 
Memmaker u.ä.
Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe 
das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit 
EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das 
auch lief -ohne spezielle Startdiskette.
(Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil 
das ja EMM386 immer geladen hat.)

Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam 
und meine Versuche damit machte, da dauerte es erst einmal Tage bis 
überhaupt die Hardware im PC richtig erkannt und initialisiert wurde. 
Vom Beherschen des Systems ganz zu schweigen!!! Und das trotz inzwischen 
Mehrjähriger PC Erfahrung und Programmierkenntnissen - sowie der 
Vorgeschichte mit Computer (C64) im Haus seit meinem 7.en LEbensjahr und 
Programmierkenntnissen auf C64 und CPC464 lange vor meiner PC Zeit 
(dieses Wissen war ja der Grund für das starke Sponsoring des PC Kaufes 
durch die Verwandschaft den ich mir als 13.Jähriger sonst nie hätte 
leisten können)

ICh denke manche sehen das ganze einfach zu sehr durch die NERD 
Brille...
JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom 
technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der 
Zeit. Und es mag auch sein das dadurch vielleicht sogar resourcen 
verschwendet wurden. (Wobei mich die Hintergründe des Betriebssystem nie 
interessiert haben und es auch heute nicht tun! - kann es also gar nicht 
sicher beurteilen)
Aber bei der Verbreiteten PC Nutzung ging es eben darum das der PC genau 
wie es der Name schon sagt ein "Persöhnlicher" Computer war und der 
absolute Großteil dieser Rechner wohl auch nur als bessere 
Schreibmaschine von Sekräterinnen usw. bedient wurden, oder halt für 
andere Anwendungsprogramme wie CAD oder sonstige Zeichenprogramme. Die 
vielen Speziellen Buchhaltungs- und LAgerbestandsapplikationen nicht zu 
vergessen.
Das Betriebssystem war für diese RIESEN Gruppe einfach nur ein Mittel 
zum Zweck um möglichst schnell das gewünschte Programm aufzurufen. Und 
das sollte so einfach wie möglich sein... Hier hatte DOS einfach die 
Nase vorne. Die ganzen Features die Unix/Linux mehr bot waren für die 
meisten Anwender ja absolut unnötig, ja sogar kontraproduktiv da 
verkomplizierend.
Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen 
-besonders den kleineren- alles andere als Selbstverständlich war und 
von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann 
hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren 
die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde 
gewesen wären!)
Und als persöhnlicher alleinstehender Rechner war damals eine trennung 
von User und Admin wie in großen Netzen absolut Sinnvoll einfach 
unnötig!

Die bessere Verfügbarkeit von Software tat dann ihr Übriges. Wie in 
vielen anderen Fällen auch schon. (Ich denke das ist beispielsweise ein 
Grund warum sich z.B. der C64 so enorm durchgesetzt hat während der im 
grunde für Büroanwendungen Leistungsfähigere Amstrad CPC64 in der 
Versenkung verschwand)

Sven P. schrieb:
> Ich empfand die Bedienung einer DOS-Maschine jedenfalls als schmerzhaft.
> Eine längere Befehlszeile getippt -- wie hieß der Dateiname noch? Ach
> Mist. Befehlszeile löschen und 'dir' rufen. Ach ja, so hieß er. Also die
> ganze lange Befehlszeile nochmal eintippen. Programmieren mit der Shell
> erübrigte sich, meistens hatte ich schneller ein Programm mit Pascal
> oder QuickBasic zusammengehauen.

Programmieren in der Befehlszeile von DOS?
Das ist aber auch etwas was nie jemand vorgesehen hat. Womöglich noch in 
ASM und dann mit dem Systemtool (war das nicht die Debug.EXE?) 
übersetzt?
Genau dafür gab es doch die Hochsprachenumgebungen. QuickBasic gehörte 
ja zu DOS dazu. C oder PAscal leider nicht.
Und längere Komandozeilen waren in DOS auch eher eine seltenheit. Gerade 
das war ja der Vorteil von dos. Simpel, die wichtigsten Grundfunktionen 
konnte man auch der Sekräterin in einigen Minuten erklären.

MN schrieb:
> alter ITler schrieb:
>> Bei den 3,5er gab es einen Locher,
>
> Den Locher gab es nicht für die 3,5" sondern für die 5,25"-Disketten.
Es gab BEIDES:
Wie schon geschrieben den Locher für die zweite Schreibschutzkerbe auf 
der gegenüberliegenden Seite wenn man beim C64 die 5 1/2 Disketten 
doppelseitig nutzen wollte. Denn das Diskettenlaufwerk schrieb und laß 
bei diesem nur einseitig. (Schere und ruhige hand funktionierten aber 
auch)

UND es gab zu späteren Zeiten der 3,5" Disketten spezielle Locher um aus 
720KB Disketten  1,44MB Disketten zu machen. (Ein Bohrer tats aber auch)
Allerdings war das immer noch mit einem kleinen Restrisiko behaftet. Für 
die 720er Disketten war ja eine geringe Qualität der Magnetschicht 
ausreichend - zu Anfang waren diese auchs dem Grund zusammen mit den 
technischen Gegebenheiten bei der Produktion der Schreib-Lese Köpfe ja 
auch der Standard.
Erst mit immer weiter vortschreiten der Produktionstechnik war es dann 
möglich ohne irgendwelche Merhkosten die für 1,44MB notwendige Qualität 
zu produzieren. Da es natürlich billiger war nur eine Sorte von 
Innenleben herzustellen haben viele HErsteller dann von diesem Zeitpunkt 
an für ihre HD und DD Disketten dasselbe Innenleben verwendet. Da war 
ein nachlochen problemlos möglich.
Aber es bestand immer das Risiko das man eine DD Diskette erwischte 
deren Innenleben tatsächlich nur für DD geeignet war was dann bei HD 
Nutzung zu Datenverlust führen konnte. Besonders bei Alten Disketten 
oder NoName Produkten unbekannter oder gar wechselnder Hersteller war 
also immer etwas vorsicht ratsam. Zumal die Einsparmöglichkeiten 
insbesondere zu späteren Zeiten ja auch mächtig nachließen.

Gruß
Carsten

von asmhobbyist (Gast)


Lesenswert?

Das wurde alles weiter oben schon geschrieben,

Hauptsächlich
(Rückwärts-)Kompatibilität (schade, denn die 68000er waren (und sind) 
nicht schlecht
Einfachheit
IBM und Datenbanksoftware
Kundenfreundlich (abschalten)

Coole Programme (Quake Multiuser-Geballere ;), Basic, Pascal, Debug, 
Softice.
Quake (u.a.) mussten Windows verlassen um performant (ohne Directx) zu 
laufen)
Sonderzeichen (Linuxe legen englisches Tastaturlayout nahe)
Diskettenfreundlich (Os Diskette raus, Programmdiskette rein, Programm 
diskette raus, Datendiskette rein, Format A: eingeben zum Formatieren)
Viele Unixprogramme gibts auch für Dos (und umgekehrt)
Vergleichsweise günstig (+viele alte Programme; teure Apple Computer mit 
wenig Programmen)
Vorteil vom PC u.a. auch: wird schnell leistungsstärker + viele nutzbare 
Anwendungen im Rucksack.

Und eigentlich hat sich (neben der Intel Hardware) auch nicht Dos 
durchgesetzt, sondern die gereiftere Form von Windows mit 
Dos-Kompatibilität (d.h. Viele Spiele, Viele Anwendungspramme, 
Mischlösungen, günstige und leistungsstarke Mainboards usw.)

von Unixer (Gast)


Lesenswert?

Guido Körber schrieb:
> als auch was den Treppenwitz von einem Prozessor angeht.
> Aufgebohrter 8008 und das Schrottteil ist heute die beherrschende
> Architektur auf dem Desktop. Etwa so, als wenn das Ford Modell T nie
> abgelöst, sondern nur aufgemotzt worden wäre, alle würden heute noch mit
> Blattfedern fahren.

Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus 
meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und
einen neuen Proz. mit vernünftiger Architektur entwickeln sollen.
Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren
entwickelt. Teilweise auch die Hardware. Das waren (leider waren) 
Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten
wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen
könnte man würde in C programmieren. Entsprechend optimal war auch der
C-Compiler.
Unser Unix-Maschine die wir 1986 auf den Markt gebracht haben, lief mit 
einem 10 MHz NS32016, 2 MB Ram und einer 20 MB Festplatte. Die bediente 
problemlos vier VT100 Terminals mit 38400 Baud. Und war damals mit einem 
VK von 9000,- DM ein Schnäppchen.

Aber zurück zur Frage, warum DOS alles in den Schatten stellte:

Da schon viele Antworten gegeben worden sind, nur ein Zusatz:
Die Unix-Lizenzen waren damals sehr teuer, DOS bekam man im Vergleich 
nachgeschmissen oder beim Taiwan-Nachbau kostenlos dazu.
DOS ist nach Wordstar, die am meisten illegal kopierte Software der
Welt. Stand mal so im PC-Magazine.

Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss 
ich feststellen, dass die für den Anwender komplizierter und 
unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw. 
Ubuntu).

von (prx) A. K. (prx)


Lesenswert?

Unixer schrieb:
> Intel hätte ab dem 8086 diese begraben sollen und
> einen neuen Proz. mit vernünftiger Architektur entwickeln sollen.

Haben sie ja auch. Versucht. Vernünftig geriet iAPX432 freilich nicht, 
also musste x86 weiterleben.

Der nächste Versuch einer eigenständigen 32-Bit Architektur geriet mit 
i860 auch nicht wirklich grandios. Intel hatte einfach kein Händchen 
dafür. Intels einzige brauchbare 32-Bit Architektur war i960, und die 
haben sie (deshalb? ;-) wieder eingestampft.

> Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren
> entwickelt. Teilweise auch die Hardware.

Ebendiese Architektur hätte dank ihrer extrem inkrementellen 
Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen. 
Die war in der Hinsicht weit schlimmer als x86.

von Michael_ (Gast)


Lesenswert?

Arc Net schrieb:
> 1992
> Amiga 1200 und 4000, 8-Bit Sound, Stereo
> Macintosh, 8-Bit Sound (afair einige nur Mono)
>
> Atari Falcon, 68030 CPU, 56001 DSP, 16-Bit, 50 kHz, Stereo (ähnlich wie
> die NeXTstation/cube afair 1990?)

Zu dieser Zeit habe ich meinem AT286 Musik beigebracht. Mit einem 
Soundblaster mono für stolze 99DM.
Es war eine wilde Zeit so 1990 - 1995.
Es gab da auch noch einen engl. RISC-Home-Computer. Ich hätte ihn bald 
gekauft.
Es war wohl der A5000 Archimedes von ACORN.

von Winfried J. (Firma: Nisch-Aufzüge) (winne) Benutzerseite


Lesenswert?

und du vergisst den Atari8bit der bereits über 4 Audiokanäle verfügte 
welche aber Dummerweise zu einem Monokanal onboard zusammengemischt 
wurden
tststs

von Andreas B. (andreas_b77)


Lesenswert?

Wolfgang R. schrieb:
> Dies war aber auch im Preis mit drin. Und, der Quellcode war nicht frei.
> Alles was man heute an Unix Tools auf dem Markt findet ist reverse
> engeneering. Wenn Mann als Rentner dann mal Zeit hat mal den Code
> anschauen und vergleichen. Original PDP-11 Unix Quellcode von 1980 liegt
> noch auf meiner archivierten Platte.

Welches genau? Vielleicht gar etwas, das nicht im Unix Tree 
http://minnie.tuhs.org/cgi-bin/utree.pl nachzulesen ist?

Tiefer eingelesen habe ich mich nur in die Sixth Edition mit dem Lion's 
Commentary. Steinzeit-C ist schon echt harter Stoff.

> Steve Jobs ist wohl einer der wenigen die erkannt haben was läuft. Bei
> Apple zurückgekommen auf Berkley Unix umgestiegen - eigene Oberfläche
> drauf und durchgestartet.

Da stimmt die Reihenfolge aber nicht ganz, das war ja keine 
Neuentwicklung. Apple hat das von Steve Jobs gegründete NeXT aufgekauft, 
um deren Betriebssystem NeXTstep als Nachfolger von MacOS zu verwenden. 
Jobs wurde erst ein halbes Jahr nach dem Kauf Interims-CEO von Apple.

von Heinz History (Gast)


Lesenswert?

Mark .. schrieb:
> ich lese nun schon seit einiger Zeit Artikel über Betriebssysteme, weil
> wir das auch an der Uni durchnehmen, und habe Schwierigkeiten zu
> verstehen, wie sich DOS gegenüber Unix beim 8086 in der der Anfangszeit
> durchsetzen konnte?!? Unix war doch schon deutlich früher da und hatte
> bereits von Anfang an alle Merkmale eines ordentlichen Betriebssystems,
> also Multitaskting, Multiuser und Schutzmechanismen für Datenzugriff.
>
> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen?
> (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert
> waren...)

Personal Computer waren, wie der name schon sagt persönlich also für 
einen einzelnen Nutzer gedacht. Für einen solchen rechner 
(Schreibmaschine) braucht es kein mutliuser und netzwerk, das 
überfordert nur den Anwender. Auch gab es für Unix kaum Büroanwendungen 
und keine Videospiele, eben das was man von einem personal computer 
erwartet. Unix ist was für Server und netzwanwendungen und damit kam die 
breite Masse erst Mitte der Neunziger zurecht.

MfG,

von Rolf Magnus (Gast)


Lesenswert?

Matthias Sch. schrieb:
> ach schrieb:
>> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
>> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
>> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch
>
> Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde
> auch auf der 386er Platform entwickelt.

DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder 
weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra 
einen neuen Betriebsmodus eingeführt, damit Multitasking mit 
Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086 
genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter 
verbessertem Multitasking, und es wurde extra noch die Möglichkeit in 
die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren 
zu können, damit auch alte Programme darin weiter benutzt werden können. 
Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den 
neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die 
Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble 
Krücken.
Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das 
Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie 
Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese 
Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo 
sie eigentlich nicht hingehört. Und Jahre später steckte dann das 
Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und 
das eigentliche Betriebssystem war zum Bootloader verkommen.

von Icke ®. (49636b65)


Lesenswert?

Rolf Magnus schrieb:
> Und Jahre später steckte dann das
> Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und
> das eigentliche Betriebssystem war zum Bootloader verkommen.

Das trifft nur auf die 9x-Versionen zu. Das schon vor Win95 existente NT 
war bereits ein echtes 32-Bit Multitasking-System, auf dem alle 
folgenden Versionen ab W2K basieren.
Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man 
konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.

von (prx) A. K. (prx)


Lesenswert?

Icke ®. schrieb:
> Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man
> konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.

Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen 
für normales DOS, mit denen mehrere parallele virtualisierte 
DOS-Sessions möglich wurden.

von Unixer (Gast)


Lesenswert?

A. K. schrieb:
> Ebendiese Architektur hätte dank ihrer extrem inkrementellen
> Befehlscodierung arge Probleme mit superskalarer Dekodierung bekommen.
> Die war in der Hinsicht weit schlimmer als x86.

Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen, 
bevor Du solche Aussagen in den Raum stellst.
National hatte einfach den Zug verschlafen und das Marketing 
vernachlässigt.
NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und 
damals Intel um Jahre voraus.

Wenn ich nur an den Krampf mit A20 denke....

Nur Dank Mickysoft konnte sich die x86 Archtitekur so gewaltig 
durchsetzen.


http://de.wikipedia.org/wiki/NS320xx
bzw.
http://stuff.mit.edu/afs/sipb/contrib/doc/specs/ic/cpu/ns32532.pdf

von W7 (Gast)


Lesenswert?

A. K. (prx) schrieb:

Icke ®. schrieb:
>> Novell DOS 7 (ehemals DR-DOS) war übrigens auch multitaskingfähig. Man
>> konnte ähnlich wie bei Unix zwischen den Konsolen umschalten.

> Es gab lange vor NT auch ein paar heute längst vergessene Erweiterungen
> für normales DOS, mit denen mehrere parallele virtualisierte
> DOS-Sessions möglich wurden.

Nur wollte DR-DOS damals kaum einer ernsthaft auf seinem Rechner haben. 
Das hatte nämlich ein paar Kompatibilitätshänger gegenüber MS-DOS. Noch 
dazu gabs die Disketten zunächst auch nicht umsonst, sondern lediglich 
günstiger als das damalige MS-DOS.

Also aufpassen, dass hier keine Mythen gestrickt werden.

;)

von MaWin (Gast)


Lesenswert?

> DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder
> weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra
> einen neuen Betriebsmodus eingeführt, damit Multitasking mit
> Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086
> genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter
> verbessertem Multitasking, und es wurde extra noch die Möglichkeit in
> die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren
> zu können, damit auch alte Programme darin weiter benutzt werden können.
> Und DOS hat ihn als schnelleren 8086 genutzt.


Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine 
neue Plattform umzuschreiben.

Das können sich manche Hardwaredeppen, die ständig inkompatibles Zeug 
konstruieren, offenbar gar nicht denken.

von Np R. (samweis)


Lesenswert?

Ein Argument für MS-DOS ist hier noch gar nicht genannt worden:

Vitamin B

"Bill Gates Mutter Mary hatte über die Wohltätigkeitsorganisation 
„United Way“, in welchem sie im Vorstand war, Kontakte zu John Opel, dem 
Präsidenten von IBM. Über diese Verbindung bereitete sie für ihren Sohn 
den Weg zu „Big Blue“."
Quelle: http://de.wikipedia.org/wiki/Microsoft

von MaWin (Gast)


Lesenswert?

> Die ganze 80x86 Architektur ist aus meiner Sicht Müll.

Aus deiner Sicht.
Was mehr über deine Blindheit aussagen, als über den 80x86, der sich 
nämlich gegen all die "angeblich besseren" 68k, 32k, etc. durchgesetzt 
hat.

Es war nämlich verdammt schlau, schon 1976, als noch gar nicht genügend 
grosse Chips möglich waren sondern nur von Gordon Moore postuliert 
wurden, eine Architektur eines Grossrechners (Burroughs 5500) der damals 
als fortschrittlich und gut galt, so zusammenzustreichen, daß er als 16 
bit Prozessor implementierbar war, das ging eben in dem man die ganze 
Speicherverwaltung auf simple Addition zusammenstrich.
Die Leute bei Intel waren nämlich im Gegensatz zu dir nicht uninformiert 
und doof, sondern ihrer Zeit voraus.
Der 286 ist dann die Realisierung dieser Burroughs als single chip mit 
Segmenten und Speicherschutz und allem pi pa po. Leider hat man das 
dirty bit vergessen.
Daß dann Windows NT wieder den Rückschritt machte, war der DEC Alpha zu 
verdanken, die war nämlich zu blöd für Segmente, und seit dem haben wir 
den Salat, wo eine DLL mehrfach in den Speicher muß weil reloziert 
werden muß, also der Code im Speicher auch nicht dem Code auf der Platte 
entspricht, sondern je nach Prozess anders sein muß. Der Idiot hiess 
David N. Cutler.

von Joe (Gast)


Lesenswert?

Ihr seid alle viel zu jung.

MS-Dos ist keine eigene Entwicklung und erst recht keine Erfindung von 
Bill Gates.
Große Betriebssysteme gab es schon vor 1970. Für die kleinen CPUs 8004, 
8008 und 6800 begann die Entwicklung Angang der 70er.
Um ca. 1976 habe ich schon mit dem Betriebssystem FLEX auf einer 
6800-CPU mit 1 MHz gearbeitet. FLEX konnte zu Beginn über ein 
Controller-IC zwei Diskettenlaufwerke mit je 128kB bedienen. Meine 
Platinen und die Pläne waren selbstgemacht. Im Betriebssystem FLEX hat 
man I/O-Adressen an die eigene Hardware angepasst und dann lief das 
System. Assemblerlistings waren frei verfügbar und somit konnte FLEX 
sehr gut angepasst werden.

Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die 
80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben.

Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer 
graphischen Benutzeroberfläche und Mausbedienung. Auch hier hat Bill 
Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und 
nichts Neues vorgestellt.

Joe

von (prx) A. K. (prx)


Lesenswert?

Unixer schrieb:
> Du solltest Dir die NS32xxx Prozessoren erst einmal genau anschauen,
> bevor Du solche Aussagen in den Raum stellst.

Ich habe diese Architektur einstmals recht genau angesehen - und eben 
darauf gründet meine Aussage.

Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt, 
erfordert einen beachtlich hohen Aufwand. Der Aufbau eines Befehls ist 
extrem variabel und die Länge von maximal 4 möglichen Displacements im 
jedem einzelnen Displacement selbst zu codieren bedeutet, dass Länge des 
Befehls und Position der sehr vielen Komponenten des Befehls nur 
aufwendig zu ermitteln sind.

Speicherindirekte Adressierungen jedes der beiden möglichen Operanden 
führt zu eine hohen internen Komplexität bei der Umsetzung von Befehlen, 
wenn sie erheblich schneller sein sollen als das sequentielle 
Ausführungsprinzip der ersten Generation.

> National hatte einfach den Zug verschlafen und das Marketing
> vernachlässigt.

Und hatte soweit ich mich erinnere erkleckliche Probleme, die erste 
Generation dieser Prozessoren überhaupt leidlich fehlerarm zu 
implementieren. Was bei 2-Adress-Architekturen damals nicht so ganz 
einfach war. Motorola hatte den langsamen Weg des Microcode-Interrupts 
eingeschlagen, um sich das eine oder andere Problem vom Hals zu halten. 
NS setzte auf Retry, was schneller und eleganter war, aber ohne 
OOO-Ausführung bei mehreren Speicheroperanden nicht wirklich einfach 
ist.

Die Architektur erinnert nicht zufällig an die VAX und die Probleme 
waren ähnlich. DEC musste in deren Weiterentwicklung derart viel 
Resourcen reinstecken, dass sie danach den Notausgang wählten und mit 
Alpha eine neue wesentlich einfacher implementierbare Architektur 
brachten. Der unproduktive Overhead einer Architektur wie VAX oder NS32K 
liess sich in einfacher verarbeitbaren Architeturen produktiv umsetzen.

> NS32xxx und die Motorola CPUs waren einfach die besseren Prozessoren und
> damals Intel um Jahre voraus.

Das waren sie, als sie neu waren und die meisten Leute Rechner wie 
besagte VAX im Kopf hatten. Ein paar Leuten war freilich schon damals 
klar, dass dieser Weg problematisch ist. Einer sass bei IBM und sein 
Ergebnis wurde totgeschwiegen, weil es den Erfolg der Mainframes 
gefährdet hätte.

Aber die Architekturen entstanden in einer Zeit, in der kaum jemand an 
einen realisierbaren Durchsatz von einem Befehl pro Takt dachte, 
geschweige denn von mehreren. Und genau da haben diese Architekturen 
gewaltige Probleme bekommen. Weshalb 68K und NS32K letztlich eingestellt 
wurden. Intel x86 lebte weiter, weil Intel aufgrund des Finanzvolumens 
der PC-Prozessoren die Resourcen hatte, mit dem Pentium Pro den 
gordischen Knoten zu durchschlagen. Der freilich etwas einfacher zu 
implementieren war als ein äquivalenter NS32K Prozessor.

Mit der heute möglichen Komplexität der Implementierung wäre eine NS32K 
wieder machbar. Aber nicht lohnend.

> Wenn ich nur an den Krampf mit A20 denke....

Das hat nicht Intel verbockt. Versteh mich nicht falsch: x86 ist 
grausig. Aber ich betrachte das hier aus Sicht einer Implementierung der 
Hardware, nicht aus logischer Sicht eines Programmierers.

von (prx) A. K. (prx)


Lesenswert?

Joe schrieb:
> Ihr seid alle viel zu jung.

;-)

> Im Betriebssystem FLEX hat
> man I/O-Adressen an die eigene Hardware angepasst und dann lief das
> System.

Ich habe in Erinnerung, dass das Filesystem von FLEX die Files 
sektorweise verkettete. Viel Vergnügen bei random access, also 
beispielsweise jedweder Form von Datenbank. Da ist sogar FAT besser, 
weil zwar auch verkettet, aber viel dichter zusammen und daher 
pufferbar.

von (prx) A. K. (prx)


Lesenswert?

A. K. schrieb:
> Eine superskalare Befehlscodierung davon, also mehrere Befehle pro Takt,

Gemeint war Befehlsdecodierung.

von Jens G. (jensig)


Lesenswert?

@Joe (Gast)

>Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die
>80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben.

Ja - und Unix hat von DOS abgeschrieben - die haben nämlich auch einen 
echo-Befehl ... ;-)

Ich dachte eher, Gates hatte CP/M als Grundlage genommen, denn da sind 
die meisten Gemeinsamkeiten deswegen zu finden.

von heinz (Gast)


Lesenswert?

es gibt doch DOS Emulatoren für Windows oder?

dann muss es doch auch Windows Emulatoren für DOS geben!

von Reinhard Kern (Gast)


Lesenswert?

heinz schrieb:
> dann muss es doch auch Windows Emulatoren für DOS geben!

Klar, nennt sich Windows 3. Einfach WIN und return tippen. Oder dachtest 
du an eine Art Windows 7, das unter DOS läuft? Am besten im Real Mode 
mit 640 kB Speicher?

Gruss Reinhard

von Michael_ (Gast)


Lesenswert?

Bis Windows ME gab es das. Nannte sich glaube ich DOS-7.

von Uhu U. (uhu)


Lesenswert?

A. K. schrieb:
> Komischerweise ist Intel noch nicht auf diese Idee gekommen. Die
> verkaufen zwar auch Chips mit abgeschalteten Funktionen, in schier
> endlos vielen Permutationen, aber Nachlizenzieren des bestehenden Chips
> ist nicht drin.

Das hat schätzungsweise einen ganz simplen Grund: Die Intel-Prozessoren 
sind Massenware und da ist die Wahrscheinlichkeit, daß irgend welche 
Hacker den Freischaltmechanismus knacken, eher groß. Wenn so ein Hack 
das Licht der Öffentlichkeit erblickt, hätte das zur Folge, daß Intel 
das Geschäft unter dem Hintern wegbricht.

von W.S. (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das
> Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie
> Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese
> Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo
> sie eigentlich nicht hingehört. Und Jahre später steckte dann das
> Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und
> das eigentliche Betriebssystem war zum Bootloader verkommen.

Tja, mein Lieber, da liegst du eben ganz falsch. Aber mach dir nix 
draus, hunderte von Linuxern denken genauso falsch wie du, weil sie die 
Funktionalität hinter einer grafischen Oberfläche nicht begreifen 
wollen/können und deshalb allzeit predigen, daß man den 
Betriebssystemkern nebst seinen Peripheriefunktionen möglichst 
säuberlich von der grafischen Oberfläche getrennt halten müsse.

Diese Knaller müssen noch viel dazulernen, bis sie endlich begreifen, 
daß die grafische Oberfläche eben nicht aus ein paar Rändern, Flächen, 
Bildchen und etwas Text besteht, sondern aus hunderten von Programmen, 
die alle von einem möglichst schnell reagierenden Multitasking-Kernel 
bedient sein wollen - und dazu braucht man den Scheduler eben mitten 
drin in der grafischen Oberfläche.

Ein davon separater "Betriebssystem"-Kernel ist hingegen völlig 
überflüssig. Die paar Dienste, die abseits der Oberfläche im PC so 
herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten.

Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem 
Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw. 
zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung 
auf eigene Beine zu stellen und anschließend den Rest (sprich Linux) 
einfach in die Tonne zu treten. Solche Systeme wie Android oder Bada 
haben ja schon mal einen ersten Eindruck geliefert: Bei beiden dient das 
darunterliegende Linux nur noch als eine Art Fußabtreter. Bei Bada sogar 
offiziell, denen ist es relativ wurscht, was sie für ein System 
unterhalb von Bada nehmen, um Dateien lesen und schreiben zu können.

DOS war zu keiner Zeit als Multitasking-BS gedacht, sondern als 
Dienstleister, der es gestattet, Applikationen (z.B. Word oder Excel) zu 
starten und der anschließend nur noch zum Dateiverkehr benötigt wurde.

W.S.

von Arc N. (arc)


Lesenswert?

Joe schrieb:
> Viele Befehle fand ich später in MS-DOS wieder, wobei MS-DOS für die
> 80xx-CPUs geschrieben wurde. Bill Gates hat bei FLEX abgeschrieben.

Definitiv nicht...
MS hat, nach dem sie den Deal mit IBM hatten, QDOS inkl. Entwickler 
eingekauft und dann das System umgestrickt, da QDOS mehr oder weniger 
ein CP/M-Clone war. Daher wohl auch die angebliche Zahlung von IBM an 
DR, obwohl dem Gericht damals die Unterschiede groß genug waren und DR 
den Prozess verloren hat.

 > Bevor Windows auf den Markt kam, gab es den Atari-ST mit einer
> graphischen Benutzeroberfläche und Mausbedienung.

Windows gibt's auch seit 1985, ebenso wie den Amiga

> Auch hier hat Bill
> Gates mit seinen Leuten nur eine Übertragung für 80xx-CPUs gemacht und
> nichts Neues vorgestellt.

TOS = GEM+DOS 1)
Bei den GUIs haben ALLE bekannten Hersteller (Apple, DR (für Atari), MS, 
Amiga/später Commodore) bei Xerox abgekupfert.
Erster Rechner mit GUI: Xerox Alto von 1973 auf dem es dann auch die 
ersten Smalltalk-Versionen liefen.

1) Deshalb war bei den meisten Programmen
http://www.drdos.net/documentation/sysprog/chap4.htm
http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT
Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen...


> Weshalb 68K und NS32K letztlich eingestellt wurden.
Na, ganz so schlimm ist es dem 68k nicht ergangen... Freescale listet 
die immer noch, auch 040 und 060 (MC68060RC60 für schlappe 458.61 USD 
bei 10k...) und in den ColdFire-Varianten steckt auch noch viel 68k.

von Reinhard Kern (Gast)


Lesenswert?

Jens G. schrieb:
> Ja - und Unix hat von DOS abgeschrieben

Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl 
nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie 
teilweise anders heissen wie ls bei Unix oder DPV bei Siemens ändert 
daran garnichts). Ich habe schon lange vor CP/M ein 
Floppy-Betriebssystem geschrieben für einen heute nicht mehr bekannten 
Prozessor (F8), und ganz ohne was abschreiben zu können hatte das System 
annähernd die gleichen Befehle. Jeder Programmierer der seine Tassen 
halbwegs im Schrank hatte, wäre etwa auf das Gleiche gekommen.

Gruss Reinhard

von Michael_ (Gast)


Lesenswert?

Reinhard Kern schrieb:
> Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl

Die Befehle waren damals (TM) Allgemeingut. Egal in welchem 
Betriebssystem, Programmiersprache oder Prozessor wurden die verwendet.
Aus dem Monitor und dem BASIC meines Z-1013 Bausatzes von 1986 waren die 
üblich.

von Jens G. (jensig)


Lesenswert?

@Reinhard Kern (Firma: RK elektronik GmbH) (rk-elektronik)

>Jens G. schrieb:
>> Ja - und Unix hat von DOS abgeschrieben

>Dass es in jedem BS Befehle gibt wie Dir, Copy, Del usw. liegt ja wohl
>nicht (nur) daran, dass alle vorneinander abgeschrieben haben (dass sie

Ich wollte damit nur die Absurdität von Joe's FLEX als Basis der 
DOS-Befehle unterstreichen ... Das mußt Du also Joe sagen, nicht mir.

von Andreas D. (rackandboneman)


Lesenswert?

http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass 
der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht 
gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert.

von Sven P. (Gast)


Lesenswert?

W.S. schrieb:
> Die paar Dienste, die abseits der Oberfläche im PC so
> herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten.
Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut 
in Embedded-Systeme integrieren lässt...

> Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem
> Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw.
> zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung
> auf eigene Beine zu stellen und anschließend den Rest (sprich Linux)
> einfach in die Tonne zu treten.
Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und 
warum man das nicht in die GUI integriert? Und dass Windows 
ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst, 
dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt 
ist?

von Lukas K. (carrotindustries)


Lesenswert?

Sven P. schrieb:
> W.S. schrieb:
>> Die paar Dienste, die abseits der Oberfläche im PC so
>> herumlungern, kann der Scheduler der Oberfläche nebenher mitverwalten.
> Das ist dann auch der Grund, weshalb sich Windows so bahn-brechend gut
> in Embedded-Systeme integrieren lässt...
>
>> Mir kommt bei dieser Gelegenheit mal so die Idee, sowas auch mal dem
>> Linux angedeihen zu lassen, also die Dateiarbeit in KDE oder Gnome usw.
>> zu verlagern, dazu dort das Messagesystem und die Oberflächenverwaltung
>> auf eigene Beine zu stellen und anschließend den Rest (sprich Linux)
>> einfach in die Tonne zu treten.
> Ist dir überhaupt ansatzweise bewusst, was der Kernel leistet? Und
> warum man das nicht in die GUI integriert? Und dass Windows
> ebenfalls einen dedizierten Kernel besitzt? Und ist dir auch bewusst,
> dass die Benutzeroberfläche in Windows ebenfalls vom Kernel getrennt
> ist?

So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer 
würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern?
Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen 
Talk.

von Mario K. (Gast)


Lesenswert?

Schönes Thread schön zu lesen! Könnte auch ein Buch werden.

von Sven P. (Gast)


Lesenswert?

Lukas K. schrieb:
> So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer
> würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern?
> Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen
> Talk.
Ja und nein.
Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt 
und der Graphikmist saß im Usermode. Dann hat man das wohl für zu 
ineffizient befunden und in den Kern verschoben. Das war dann die totale 
Neuerung und sollte die graphische Oberfläche um Welten flotter machen 
und so weiter.

Allerdings wird ein verkorkstes Framework halt nicht besser, wenn man 
Hardware und Rechenleistung draufschmeißt. Heute noch ruckelt und 
zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen 
Binaries extrahiert wurden und so weiter. Ehrlich, eine schneller 
reagierende Benutzeroberfläche hatte man selbst mit X11 über Netzwerk 
schon...

Die Folgen davon, alles in einen 'Kern' zu packen, sind dann zum 
Beispiel, dass irgendein total nebensächlicher Prozess abstirbt und 
plötzlich das ganze System verstopft. Ich sag nur Windows und 
Druckerspooler stöhn

von MaWin (Gast)


Lesenswert?

> 1) Deshalb war bei den meisten Programmen
> http://www.drdos.net/documentation/sysprog/chap4.htm
> http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT
> Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen...

Scherzkeks, welch Wunder daß die Nummern übereinstimmen,
DR DOS war von Digital Research,
und GEM war von Digital Research,
und das DOS unter dem GEM war ein ? DR-DOS, was sonst.

Herr wirf Hirn oder erkläre den Kindern mal die Geschichte.

von Arc N. (arc)


Lesenswert?

MaWin schrieb:
>> http://www.drdos.net/documentation/sysprog/chap4.htm
>> http://mikro.naprvyraz.sk/docs/GEM/GEMDOS.TXT
>> Mal ab "GEMDOS FUNCTIONS BY NUMBER" vergleichen...
>
> Scherzkeks, welch Wunder daß die Nummern übereinstimmen,
> DR DOS war von Digital Research,
> und GEM war von Digital Research,
> und das DOS unter dem GEM war ein ? DR-DOS, was sonst.
>
> Herr wirf Hirn oder erkläre den Kindern mal die Geschichte.

Ach, um was ging's in der Diskussion nochmal?
DR DOS ist von 1988 und ist definitiv nicht GEMDOS.
GEM wurde von Atari Leuten die zu DR geschickt wurden portiert, das 
GEMDOS "darunter" wurde deshalb genommen, da CP/M-68k immer noch kein 
hierarchisches Dateisystem hatte und dazu grottenlahm war und - GEMDOS 
wurde in Anlehnung an (eher Clone von) MS-DOS entwickelt, nicht 
andersrum.

von MaWin (Gast)


Lesenswert?


von Arc N. (arc)


Lesenswert?

MaWin schrieb:
> http://de.wikipedia.org/wiki/TOS_(Betriebssystem)

http://en.wikipedia.org/wiki/DR-DOS
1984 Concurrent DOS, dann die abgespeckte DOS Plus-Variante, "It did not 
perform well, and Digital Research made another attempt, this time a 
native DOS system. This new disk operating system was launched in 1988 
as DR DOS."

> Du meinst wohl Mint
>
> http://de.wikipedia.org/wiki/MiNT

Nein, das kam mehr oder weniger raus als das letzte Gerät (Falcon) nach 
kurzem Marktauftritt abgekündigt wurde.

Hier gibt's die Geschichte etwas ausführlicher
http://www.atarimagazines.com/startv3n1/threeyearsofst.html ab "HARD 
CHOICES, HARD TIMES"
und um den Satz von oben zu ende zu führen: "Deshalb war bei den meisten 
Programmen" die ich für den ST geschrieben habe die erste Aktion, das OS 
auszuschalten. Auch bei den Programmen, die GEM genutzt haben, war es 
üblich alles von Hand zu zeichnen oder die Line-A-Routinen zu nehmen 
(auch wenn das hieß erst mal für alle Auflösungen/Farbtiefen optimierte 
Algorithmen zu schreiben, ST, TT, Falcon).

von Andreas S. (andreas) (Admin) Benutzerseite


Lesenswert?

Sven P. schrieb:
> Heute noch ruckelt und
> zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen
> Binaries extrahiert wurden und so weiter.

Das liegt nur an der Implementierung des Windows Explorer, und der läuft 
im user mode.

> Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst mit X11
> über Netzwerk schon...

X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen 
katastrophal langsam. Und das betrifft nicht nur neue Frameworks.

von hach (Gast)


Lesenswert?

>> Heute noch ruckelt und
>> zuckelt das ganze Startmenü in WinXP, bis alle Icons aus irgendwelchen
>> Binaries extrahiert wurden und so weiter.

Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und 
irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste 
CPU und Platte zu kaufen.

von ja (Gast)


Lesenswert?

hach schrieb:
> Du sollst mit Windows eben immer das Flagschiff von Intel einsetzen und
> irgendwie muss es doch eine Notwendigkeit geben, immer die schnellste
> CPU und Platte zu kaufen.

Ganz meiner Meinung. Ein Pentium III 650 MHz sollte es schon für Win XP 
sein...

von Rolf M. (rmagnus)


Lesenswert?

MaWin schrieb:
> Du siehst also, daß es gar nicht so einfach ist, eine Software auf eine
> neue Plattform umzuschreiben.

Nein, ich sehe nur, daß Microsoft das am falschen Ende getan hat.

Andy D. schrieb:
> http://en.wikipedia.org/wiki/Worse_is_better irgendwann kapiert man dass
> der Ansatz seinen Wert hat - und dass der Markt ihm immer wieder Recht
> gibt. Sowohl bei DOS als auch bei UNIX hat es funktioniert.

Das schöne am klassischen Unix-Ansatz ist, daß jedes Tool nur genau eine 
Aufgabe löst, diese aber möglichst gut und daß sich diese Tools auf 
einfache Weise kombinieren lassen, um komplexere Aufgaben zu lösen.
Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht 
gesehen.

Andreas Schwarz schrieb:
>> Ehrlich, eine schneller reagierende Benutzeroberfläche hatte man selbst
>> mit X11 über Netzwerk schon...
>
> X11 über Netzwerk ist schon ab einem Ping von 10ms bei vielen Programmen
> katastrophal langsam. Und das betrifft nicht nur neue Frameworks.

10 ms sind aber für ein LAN auch schon sehr viel.
Ich habe auch schon OpenGL-Anwendungen (natürlich keine Spiele) und 
Videoplayer über Remote-X flüssig laufen lassen, und das war bei einem 
100-MBit-Netz.

von W.S. (Gast)


Lesenswert?

Rolf Magnus schrieb:
(wegen Tool-Konzept)
> Ein vergleichbares Konzept habe ich im GUI-Bereich bisher noch nicht
> gesehen.

Das gibt es dort auch nicht - und zwar aus prinzipiellen Gründen.

Ein grafisches User-Interface ist nämlich nicht ein Bildchen und wie es 
aussieht, sondern ein möglichst echtzeitfähiges 
Multiprogram/Multithread-System und das hat mit einem Tool-Konzept rein 
garnix gemeinsam. Das GUI ist die Funktionalität hinter der sichtbaren 
Oberfläche.

W.S.

von Computerfachprofi (Gast)


Lesenswert?

Mark .. schrieb:

> Wie konnte da MS-DOS es überhaupt schaffen, auch nur 1 mal verkauft zu
> werden, obwohl es von der Funktionalität her Unix haushoch unterlegen
> war? War es der Preis? Marketing von MS? Oder einfacher zu bedienen?
> (was ich mir schlecht vorstellen kann, weil ja beide OS konsolenbasiert
> waren...)

Das hatte folgende Gründe:

1. Unix war teuer
2. Unix benötigte viele Resourcen, sowohl vom RAM Speicherbedarf als 
auch von der sonstigen CPU Leistung. Mehrbenutzerfähigkeit frißt nunmal 
auch RAM und Leistung.
3. Die Schutzfunktionen die ein Unix bot, gab es auf der x86 Architektur 
erst mit der Einfürhung des Protected Modes, also dem 80286er.
Unix hätte auf einem 8080 also gar nicht so funktioniert, wie man es von 
den Großrechnern kannte. -> Keine Abschottung der Prozesse 
untereinander.

Nun zu DOS:

4. Quick'n Dirty OS (also MS-DOS) war günstig
5. Der Resourcenverbrauch (RAM & CPU Leistung) war relativ niedrig.
6. Der 8080 Prozessor hatte eh keine Schutzfunktionen, DOS war also das 
ideale OS.
7. Aufgrund von 6 war auch an einen sicheren Mehrbenutzerbetrieb nicht 
zu denken, weswegen man das gleich sein lies. Für einen Personal 
Computer, also ein Computer der nur für eine Person gedacht war, war DOS 
also ideal. So dachte man damals jedenfalls.


Als das erste Unix für den PC umsetzbar war, es also Protected Mode 
fähige 80286er gab, war DOS schon so stark verbreitet und dieses Unix 
immer noch so sau teuer, dass es sich praktisch nicht auf dem Markt 
durchsetzen konnte.

Und der 80286 brachte da noch so seine Probleme mit sich, die auch 
Software Entwickler feststellen mußten, die versuchten aus DOS ein DOS 
zu machen, dass im Protected Mode läuft und zu alten DOS Programmen 
abwärtskompatibel ist.
Da brauchte es 3 Steppings des 80286er Prozessors, damit das wie 
gewünscht funktionieren konnte.


Der 80286er war letzten endes aufgrund seiner Segmentierung doch nicht 
so gut für ein Mehrbenutzerbetriebsystem geeignet unter dem Prozesse 
untereinander gut abgeschottet werden konnten, denn die Programmierung 
war aufwendig, was dazu führte, dass die eigentlich erst so richtig 
dafür geeignete CPU erst der 80386er war.
Der bot nämlich Pageing anstatt Segmentierung, hatte eine MMU und 
erlaubte auch einen Virtuellen RealMode.
Anmerkung: Dies ist übrigens einer der Hauptgründe, warum der Linux 
Kernel hauptsächlich nur für den 386er entwickelt wurde, obwohl es in 
der Anfangsphase versuche gab, eine 286er Version zu entwickeln.

Als dieser 386er aber dann endlich auf dem Markt war, da waren dann 
schon längst grafische Oberflächen wie man sie vom Apple oder Amiga 
kannte, der gute Ton.
Weswegen die Entwicklung gleich in OS/2 und Windows ging.

Kein Mensch wollte da ein überlicherweise Kommandozeilenbasiertes Unix 
haben und der X Server frisst nochmal extra viel RAM, was man auf einem 
typischen PC kaum vorfand.
Vor 1990 dürften die meisten nicht mehr als höchstens 2 MB RAM gehabt 
haben.
Durchschnittliche Rechner mit 8 MB fand man erst ab ca. 1993 in 
ausreichender Menge und für ein Unix mit X Window Manager sollte man 
besser 12 oder 16 MB einplanen und das gab's dann erst ca. 1996-1997 
standardmäßig im Rechner.
Zu dem Zeitpunkt war aber dann schon längst OS/2 Warp und Windows NT für 
die Zielgruppe auf dem Markt, die sich vielleicht ein Unix angeschafft 
hätte, während alle anderen weiterhin Windows 95 und DOS verwendeten.



Aus all diesen Gründen hatte Unix auf dem PC keine Chance.
Und ehe man Unix verwendete, setzte man eher auf Windows NT und OS/2.

von Computerfachprofi (Gast)


Lesenswert?

Uhu Uhuhu schrieb:

>
> Verhandlungen sind kein reines Lottospiel und wer zu hoch pokert, der
> hat schnell das Nachsehen. Technologisch war DR jedenfalls deutlich
> besser, als das, was Gates damals zu bieten hatte. (Die erste Version
> von MS-DOS hatte noch nichtmal ein hierarchisches Dateisystem.)

Das hatte CP/M auch nicht.

von Reinhard Kern (Gast)


Lesenswert?

Hallo,

ja es war ein harter Winter, bei uns graben die Wildschweine direkt 
neben den Häusern die letzten Äpfel aus - so ähnlich graben verzweifelte 
User aus Langeweile uralte Threads aus und fangen mit der Dikussion ganz 
von vorne wieder an. Wenns denn sein muss, meintewegen nochmal 200 
Posts, aber ohne mich.

Gruss Reinhard

von Computerfachprofi (Gast)


Lesenswert?

Uhu Uhuhu schrieb:
> A. K. schrieb:
>> Es entstanden damals viele Apple-II Clones, rechtlichen Ärger inklusive.
>
> Und genau den gab es beim PC nicht - so war es angekündigt worden und
> daran hielten sie sich. Es war das Open-Source-Konzept, das durch den PC
> ganz kräftigen Rückenwind bekam.
>
> Wäre der PC technisch innovativ gewesen, dann hätte er gute Chancen
> gehabt, in ein ähnliches Desaster, wie Lisa zu rennen.
>
> Das 8088-Zeug war schon so abgestanden, daß die weitere Entwicklung
> nicht mehr völlig im Nebel lag.

Der wenige Monate später erschienene 80286 er, der schon 1982 erschien 
war für den privaten Bedarf und für kleine Firmen schon ein absolutes 
Leistungswunder.

Der 8088 war zwar alt, aber mit dem 286er hatte der PC ein derart 
starkes Pferd, dass er damals alle Konkurrenz CPU Architekturen in 
diesem Marktbereich in Sachen Leistung und Features ausstach.


Der 8088 war der Anfang, aber der 286 verhalt damit praktisch dem PC von 
der Leistungskrone her betrachtet zum Sieg.

Und spätestens mit dem 386er hatten dann alle anderen verloren.

von Computerfachprofi (Gast)


Lesenswert?

Reinhard Kern schrieb:
>
> Hätte es MSDOS nicht gegeben, müssten wir heute noch Geschäftsbriefe mit
> 7bit-ASCII-Code schreiben.
>

Blödsinn.

Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch 
1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp.

Mit steigenden RAM Größen war aber dann überall abzusehen, dass sich 
Codes die auch nicht englische Zeichen unterstützen, definitiv 
durchsetzen würden.


Stell dir vor, vor der x86 PC Ära, als der Apple 2 & Co Standard war, 
gab es sogar Rechner für den privaten Bedarf, die nur Großbuchstaben 
schreiben konnten.

von Computerfachprofi (Gast)


Lesenswert?

Lukas K. schrieb:
> Naja, UNIX hat dann was die Lokalisierung anbetrifft DOS/Windows aber
> rasch überholt, während Windows bis XP Hardcoded-Lokalisiert war, gibt's
> gettext zur Lokalisierung während der Laufzeit schon seit '95.

Gettext gibt's leider nur für GPL Programme.


> Auch
> sonst Microsoft hält immer noch an Windows-1252 als Encoding fest (auch
> wen Windows intern anscheinend UTF-16 verwendet???), während der Rest
> der Welt UTF-8 benutzt, bei den Zeilenumbrüchen sieht es ähnlich aus.

Käse.
Windows 1252 gibt's aufgrund der Abwärtskompatibiltät.
Und UTF-8 können die Windows APIs auch, nur wird UTF-16 aus 
Geschwindigkeitsgründen für manche Dinge bevorzugt.

Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element 
Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine 
spezielle Behandlung die unter Umständen langsamer sein kann, als das 
etwas mehr Speicher fordernde UTF-16 Format.

Die Java VM verwendet übrigens ausschließlich nur UTF-16.

von Computerfachprofi (Gast)


Lesenswert?

A. K. schrieb:

>
> Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und
> die Systeme dazu rangieren unverändert ganz vorne.

Das hat man gesehen, als Apple von den PowerPCs zur x86 Architektur 
gewechselt sind.

Da hat so mancher Maccianer, der immer noch als ewig Gestriger auf das 
A20-Gate herumhakte, so richtig große Augen gemacht, als er sah, um wie 
viel schneller so ein x86er bei gleichem Geldeinsatz ist.




> Nur sind die schlicht
> zu teuer für Workstations. Eine Situation die Intel selbst nicht ganz
> unbekannt ist, haben sie sich doch beim Versuch, im Übergang zu 64 Bits
> die sehr leistungsstarken IA64 durchzusetzen, von AMD ausmanövrieren
> lassen. Mit der gleichen Methode, wie einst sie selbst gehen die RISCs.

Die IA64 Architektur hat sich aber unter anderem auch deswegen nicht 
durchgesetzt, weil sie völlig andere Compiler und eine andere Art der 
Programmierung Voraussetzte und dies sich in der Praxis dann nur sehr 
schwer umsetzen lies.
Siehe dazu der WP Artikel zur IA64 Architektur, da müsste einiges dazu 
stehen.

von Computerfachprofi (Gast)


Lesenswert?

MaWin schrieb:

> Aus heutiger Sicht würde ich aber sagen, 8 bit UTF8 Zeichen
> sind die bessere Implementation als 16 bit wie es Windows tut.


Nein, das hängt davon ab, was man machen will.

UTF-16 ist wesentlich performanter.


Das mag bei Deutschsprachigem Text, der nur aus wenigen Sonderzeichen 
besteht, nicht auffallen.

Aber bei Chinesisch und so Zeugs schlägt UTF-16 in Sachen Performance 
UTF-8 um Längen.



Es gibt hier also kein, das ist besser als das andere, sondern es kommt 
ganz auf die Situation an.



Für eine API für das Programmieren ist eine feste Bytegröße (UTF-16) 
immer besser als eine Lauflängenkodierung (UTF-8), letztere gewinnt erst 
dann,
wenn a) nur wenige Sonderzeichen im Text verwendet werden und b) das 
Zeugs übertragen werden soll.
Für's Internet, also für Webseiten ist UTF-8 also ideal, weil es, sofern 
der Großteil des Textes weiterhin aus englischem Standardzeichen 
besteht, nur wenig Datenübertragungskapazität und Speicherplatz 
benötigt.
Auf der CPU aber, bremst UTF-8 den Rechner stärker als UTF-16.
Für eine Datenbank würde ich also nie und nimmer auf UTF-8 setzen 
wollen.

von Computerfachprofi (Gast)


Lesenswert?

skorpionx schrieb:
> „expanded memory“, „extended memory“,“upper memory“.
> Adresse = Segment*16 + Offset.
>
> Die waren Bremsen bei der Entwicklung in Computertechnik in achtziger
> und neunziger Jahren.
> Motorola Prozessoren (68000) mit linearem Bus waren besser. Wie viele
> Jahren hat die Entwicklung durch diesen Bremsen verloren...

Da der 386er 1985 auf dem Markt kam und der erste IBM PC 1981 sind das 
theoretisch nur 4 Jahre.

Praktisch hat's zwar länger gedauert, weil IBM ihr OS/2 unbedingt auch 
auf dem 286er laufen lassen können wollten, welcher ja schon den 
Protected Mode kannte, nur eben halt noch mit Segmentierung und 
Microsoft sich gerade deswegen dann erst von OS/2 abkoppelte um dann 
Windows NT zu entwickeln und all das hat leider etwas gedauert.

von Computerfachprofi (Gast)


Lesenswert?

Karl schrieb:
> Sven P. schrieb:
>> Schon. Nur die Standard-'Distribution' von DOS taugte halt wenig. Mit
>> Zusatzprogrammen und Shareware war dem schon abzuhelfen.
>
> Das ist eine Feststellung die bis heute für MS gilt. Ohne Zusatzsoftware
> ist das Originalpaket vollkommen unbrauchbar. Das fängt mit dem Editor
> an und hört bei Sachen wie einem Vierenscanner noch lange nicht auf.

Quatsch.

Praktisch reicht WordPad um einen Brief zu schreiben.

Und damals gab's auch an den Ausdruck andere Anforderungen.
Mir hat da auch edit.exe gereicht, das war Bestandteil von MS-DOS 5.0.

Und wenn man schnell was berechnen wollte, dann konnte man das durchaus 
auch mit QBasic lösen, was ebenfalls Bestandteil von MS-DOS 5.0 war.
Man mußte zwar Programmieren können, aber Basic ist auch nicht viel 
komplizierter als die Bedienung und Schalteroptionen der ganzen Unix 
Tools awk, sed, vi usw. kennenzulernen.
In den Anfängen der Personal Computer gehörte das Programmieren können 
in Basic sogar zum Normalzustand.

von Computerfachprofi (Gast)


Lesenswert?

Wolfgang R. schrieb:
>
> Dass sich Qualität nicht durchsetzt sieht man immer wieder. Neuestes
> Beispiel Mobilfunk. An die Nokia Sprachqualität kommt keiner nahe ran.
> Aber gekauft werden heute Computer die als Nebeneffekt mehr schlecht als
> recht mobil telefonieren können.
> Optik ist alles, Bedienung andere Baustelle.

Hi, hi, kleine Anekdote.

Erst neulich habe ich eine junge Dame gesehen die als Handy wahrhaftig 
einen riesen Knochen in der Hand hielt und damit telefonierte.

Das ding war ein modernes Tabletartiges Smartphone und als Klapphandy 
konzipiert.

Ich könnte euch gar nicht vorstellen, wie ulkig das aussah, als sie 
diesen riesigen Knochen ans Ohr hielt um zu telefonieren und alle 
Personen darum sie nur staunend anschauten.

Die Abmessungen waren geschätzt ausgeklappt ca.
30 cm lang und 8,5 cm breit und dieses Riesenteil hielt sie an den Kopf.

von Computerfachprofi (Gast)


Lesenswert?

W7 schrieb:

> Es gelang aber nicht und
> AMD durfte dann doch mit seinen Clones auf den Markt, die damals zuerst
> direkt auf die Hauptplatinen angelötet waren und so konnte man sich dann
> auch einen DX Rechner leisten, durch einfachen Austausch der
> Hauptplatine. Erst AMD hat die Preisspirale nach unten eingeläutet und
> konnte auch Leistung bieten (wenn auch lange Zeit etwas den Intel Proz.
> hinterherhinkend). Cyrix (die andere Konkurrenz) taugte dagegen nix.


Das stimmt so auch nicht.

Gerade zur Zeit des Pentium 166 MHz hatte Cryix mit dem  Cyrix 6x86 eine 
CPU im Peto, die mit nur 133 MHz Taktfrequenz in der Integerleistung 
schneller als der höher getaktete Pentium 166 MHz war.

von Computerfachprofi (Gast)


Lesenswert?

MCUA schrieb:

> Intel hätte bei X86 (früher oder später) auch ohne AMD die 64 Bit
> Erweiterung gemacht, weil 'normal' Evolution und kompatibel,
> und nach AMD gibts ja auch noch VIA.


Nein, das hätte Intel nicht.

Hätte es AMD nicht gegeben, dann hätte Intel die x86 Architektur 
zugunsten des Itaniums sterben lassen.

Das wäre kein Problem für Intel gewesen, sie hätten nach etwas 
Anlaufzeit und Nutzung der IA64 Architektur im Hochpreissegment dann nur 
die Preise senken müssen, so dass diese auch Einzug in die normalen 
Haushalte erhalten hätte. Und das hätte Intel spielend machen können, 
denn Intel hat genug Barreserven auf der Hand um da einen sehr langen 
Atem zu haben.
Aber praktisch ging es dann nicht, solange AMD da war und eben 64 Bit 
auf x86 herausbrachte.

von Computerfachprofi (Gast)


Lesenswert?

troll schrieb:
> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man
> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere
> Hardware im  Vergleich zum IBM-AT.

Hatte er nicht.

Schon der 386er lies jeden Amiga alt aus sehen.
Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu 
programmierenden AGA Chipsatz.

von Computerfachprofi (Gast)


Lesenswert?

Carsten Sch. schrieb:

> Als ich ein paar Wochen Später dann das Spiel "Comanche" bekommen habe
> das 1. enorm viel freien Basisspeicher brauchte und 2. sich nicht mit
> EMM386 vertrug hat es nicht mal mehr eine halbe Stunde gedauert bis das
> auch lief -ohne spezielle Startdiskette.
> (Ab Dos 6.00 musste ich dann aber immer mit Startdiskette arbeiten weil
> das ja EMM386 immer geladen hat.)

Hat es nicht!

Ich habe mir MS-DOS 6.0 damals noch zugelegt und EMM386 wurde nur dann 
geladen wenn man es auch in die entsprechende Konfigurationsdateien 
eintrug. (autoexec.bat oder config.sys)


MS-DOS 6.0 hatte sogar den spitzen Vorteil, dass man Menüs anlegen 
konnte, womit man sich das mit den Startdisketten sparen konnte und man 
immer
die passende Konfiguration zur Verfügung hatte.

Ich hatte dann am Ende etwa die folgenden Kombinationen:

1. EMM386 ohne CD-ROM Treiber (ja, MSCDEX fraß ne Menge Speicher und 
manche Spiele hatte ich noch auf Diskette)
2. XMS ohne CD-ROM Laufwerk, kein EMM386
3. EMM386 mit CD-ROM Treiber
4. XMS mit CD-ROM Treiber aber kein EMM386
5. EMM386 ohne CD-ROM Treiber und ohne Maus Treiber
6. Windows 3.1 mit CD-ROM Treiber

Dazu kamen dann noch so paar weitere Sachen die dazu geladen wurden.
Wie z.B. ein VESA 2.0 BIOS, das nachgeladen wurde, weil die Grafikkarte 
keine derartige VESA Version auf der Karte hatte. War aber per SW 
schnell nachrüstbar.
Treiber für den SCSI Adaptec Controller.




> Als ich dann DREI JAHRE Später das erste mal mit Linux in Kontakt kam
> und meine Versuche damit machte, da dauerte es erst einmal Tage bis
> überhaupt die Hardware im PC richtig erkannt und initialisiert wurde.

Alles richtig.

Linux war zu der Zeit keineswegs das einfache "auto konfigurier dich 
selbst OS", wie es dein Vorposter behauptete.

Wenn es ganz schlimm war und z.B. man noch ISA Karten im Rechner hatte, 
dann mußten die I/O Ports, IRQs und der DMA Kanal ebenfalls noch 
konfiguriert werden und das war in den Tiefen der Konfigurationsdateien 
und Optionen wesentlich schwieriger als bei MS-DOS oder Windows 3.1.

Um die SOundkarte in einem DOS Spiel zu nutzen, mußte man zwar bei fast 
jedem Spiel die SETUP.EXE Datei einmalig ausführen, aber dafür bekam man 
dann in der Regel ein einfaches Menü geboten und dann lief die Karte im 
Spiel.
Und die 2 Zeilen die man in die Config.sys (oder AUtoexec.bat) bezüglich 
der Soundkarte eintragen mußte, das war auch kein Hinderniss.


Unter Linux mußte man aber erstmal darauf achte, dass man mit modprobe 
den richigen Treiber lud und das auch entsprechend in der /etc/modules 
Config eingetragen hatte.

Im großen und ganzen kann man aber sagen, dass Linux erst als IBM auf 
der CeBit 1998 angekündigt hat, auf Linux zu setzen, auch Linux erst so 
richtig populär wurde.

Davor war es in Computerzeitschriften überwiegend kein Thema und 
bestenfalls ne Randnotiz.

Automatisch per Autokonfiguration konfigurierbar war es eigentlich erst 
ab Ubuntu Dapper Drake. Dürfte 6.06 gewesen sein.*
Ansonsten mußte man immer hier und da Hand anlegen, auch bei Suse mußte 
man in Yast herumkonfigurieren.



* Hier sei gesagt, dass es weniger an Ubuntu festgelegt ist, sondern 
eher an den Sachen unter der Haube die alle Linux Distributionen 
betrafen.
Also udev und so Zeugs.








>
> ICh denke manche sehen das ganze einfach zu sehr durch die NERD
> Brille...
> JA - es mag sein das MS DOS und Windows (3.1 war bei mir auch dabei) vom
> technischen Hintergrund weitaus primitiver waren als Unix/LInux zu der
> Zeit.

Als Windows 3.1 auf dem Markt war, war Linux ne ziemliche Alpha Version 
mit 0.9* Kernel.
Als Produktivsystem also absolut unbrauchbar und als Win9x auf dem Markt 
kam, gab's ziemlich großes Staunen in der Linux Szene, wie 
fortschrittlich die grafische Oberfläche von Windows 9x gegenüber dem 
bekannten (X Window, Window Manager und auch Windows 3.1) war.

Halbwegs brauchbar war Linux erst ab Kernel 2.0 und das auch nur auf 
Kommandozeilenebene.
Für den grafischen Desktop hat es noch ne ganze Weile gedauert, bis 
endlich KDE 1.1 draußen war. Die erste halbwegs akzeptable Oberfläche, 
die featuretechnisch mit Windows 95 halbwegs mithalten konnte, schön war 
sie da aber noch lange nicht, das kam erst mit KDE 2.x (oder meinetwegen 
auch Gnome 1.x, was aber erhebliche Feature und Usabilitymängel in der 
1.x Version hatte).

Ach ja und an den geringen Resourcenbedarf von Windows 9x oder Windows 
3.1 kam kein Linux + X Window Oberfläche heran.

Für den reinen Kommandozeilenmodus sollte es bei einem 2.2er Kernel 
mindestens 8 MB RAM Sein.
DOS + Windows 3.1 lief da schon mit nur 4 MB sehr gut.
Und Windows 9x konnte man ab ca. 8-16 MB ganz gut nutzen, wobei Linux 
mit KDE erst ab ca. 64 MB RAM Spaß machte.







> Da damals die Vernetzung der PCs untereinander selbst in vielen Firmen
> -besonders den kleineren- alles andere als Selbstverständlich war und
> von WWW für Normalbürger noch lange keine Rede war (Es gab BTX und dann
> hörte man noch was von Compuserve für 7DM die Stunde + Telefongebühren
> die damals für mich bis zum nächsten Einwalpunkt auch 8DM die Stunde
> gewesen wären!)

Es gab noch die Möglichkeit mit einem speziellen Gerät einen Dienst zu 
nutzen, der Programme und Infos über das Fernsehsignal laden konnte, 
welches wie der Videotext zwischen den Zeilensprüngen verbreitet wurde.

Den Namen hab ich allerdings vergessen.

Ich kann mich nur noch daran erinnern, dass ich auf der Hobby-Elektronik 
in Stuttgart um das Jahr 1994 herum so ein Teil kaufen wollte, aber dazu 
kam es dann nicht und wenige Zeit später wurde der Dienst dann auch 
eingestellt, so dass es im Nachhinein kein Fehler war, auf dieses Gerät 
zu verzichten.

Und mit dem damals aufkommenden Großangebot an vielen CD-ROMs mitsamt 
PD-, Patch- und Sharewaresammlungen war der Bedarf auch gar nicht mehr 
so groß.

von Computerfachprofi (Gast)


Lesenswert?

Unixer schrieb:

> Da muss ich Dir zu 100% zustimmen. Die ganze 80x86 Architektur ist aus
> meiner Sicht Müll. Intel hätte ab dem 8086 diese begraben sollen und
> einen neuen Proz. mit vernünftiger Architektur entwickeln sollen.
> Ich habe lange Zeit Echtzeit- und Unix-Systeme für NS32000-Prozessoren
> entwickelt. Teilweise auch die Hardware. Das waren (leider waren)
> Architekturen die bspw. nicht so verkrampfte Adressierungarten hatten
> wie der Intel-Schrott. Und Maschinenbefehle, wo man schon fast meinen
> könnte man würde in C programmieren. Entsprechend optimal war auch der
> C-Compiler.

Am dem 386er im Protected Mode ist die x86 Architektur aus 
Programmierersicht definitiv kein Müll mehr und ab dem Pentium 2 sogar 
eine schlanke RISC Architektur mit MicroOpcodes.


CISC hat damals übrigens den Vorteil gegenüber RISC geboten, dass man 
sehr kleine speichersparende Programme schreiben konnte, während man in 
RISC vieles erst mühsam in Software umschreiben mußte und das den Code 
aufblähte.

Als der IBM PC also eingeführt wurde, war CISC ganz klar ein Vorteil und 
kein Nachteil.
Denn RAM Speicher war damals sehr knapp bemessen und schweineteuer.





> Wenn ich mir jedoch heute die aktuellen Windoofversionen anschaue, muss
> ich feststellen, dass die für den Anwender komplizierter und
> unübersichtlicher geworden sind als aktuelle Linux Versionen (bspw.
> Ubuntu).

Dem muss ich entschieden widersprechen.

Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu 
ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung 
auf, meistens, wenn Updates eingespielt werden, dann ist der Benutzer 
meistens aufgeschmissen, weil der Rechner nicht mehr so funktioniert wie 
er sollte.
Entweder geht plötzlich der Sound, der Drucker oder das Netzwerk nicht 
mehr
und all das meistens genau dann, wenn man es am dringensten braucht.

Diese Erfahrung habe ich jetzt schon ständig machen müssen und ich bin 
beileibe kein unerfahrener Linuxer, ich muss also letzten Endes meist 
selbst Hand anlegen um ein Problem zu fixen, das gar nicht hätte 
passieren dürfen.


Windows 7 läuft dagegen auf meinem Rechner seit der Erstinstallation 
rockstabil und bis jetzt hat kein einziges Update dessen Funktionalität 
außer Kraft gesetzt.

Ubuntu kann da von Windows 7 also noch sehr viel lernen.

Richtig ist lediglich, dass Windows XP recht Umständlich bei der der 
Konfiguration und Usability ist, wenn man mal etwas konfigurieren und 
sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe 
ja inzwischen Windows 7 und das ist meiner Meinung nach ganz klar das 
bisher beste Windows, welches MS auf dem Markt gebracht hat.


Windows 8 dagegen ist ein schlechter Witz, welcher hoffentlich so 
schnell wieder verschwindet wie Windows Vista.



Windows 7 ist jedenfalls ein sehr gutes, robustes, ausgereiftes und 
ordentliches OS, ich kann da nicht meckern.
Und das sage ich dir als Linuxer der Linux neben Windows schon > 14 
Jahre auch als Hauptsystem im Einsatz hat.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Matthias Sch. schrieb:
>> ach schrieb:
>>> Um ein DOS richtig zu installieren, musste man schon viel Ahnung von den
>>> Abhängigkeiten in autoexec.bat und config.sys haben. Eine
>>> Linuxinstallation lief meist ohne weiters zutun des Nutzers durch
>>
>> Du vergleichst hier Äpfel mit Birnen. Linux kam viel später und wurde
>> auch auf der 386er Platform entwickelt.
>
> DOS ist allerdings leider während seiner gesamten Lebenszeit mehr oder
> weniger auf der Stelle stehen geblieben. Intel hatte mit dem 286 extra
> einen neuen Betriebsmodus eingeführt, damit Multitasking mit
> Speicherschutz möglich ist. Und DOS hat ihn als schnelleren 8086
> genutzt. Dann kam Intel mit dem 386, mit 32 Bit und noch weiter
> verbessertem Multitasking, und es wurde extra noch die Möglichkeit in
> die Hardware eingebaut, in diesem Modus effizient einen 8086 emulieren
> zu können, damit auch alte Programme darin weiter benutzt werden können.
> Und DOS hat ihn als schnelleren 8086 genutzt. Das einzige, was von den
> neuen Prozessoren bei DOS so halbwegs angekommen ist, ist die
> Möglichkeit, mehr Speicher anzusprechen, allerdings nur über üble
> Krücken.
> Und dann hat Mircosoft noch das Pferd von hinten aufgezäumt. Statt das
> Betriebssystem um diese fehlenden Funktionen und weitere Sachen wie
> Sound- und Netzwerk-Unterstützung zu erweitern, haben sie diese
> Funktionen in die daraufgesetzte graphische Oberfläche integriert, wo
> sie eigentlich nicht hingehört. Und Jahre später steckte dann das
> Betriebssystem auf einmal in der graphischen Oberfläche mit drin, und
> das eigentliche Betriebssystem war zum Bootloader verkommen.


MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das 
zukünftige OS werden.

Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected 
Mode des 386er laufen konnte und diesen recht weitgehend nutzte.

Probleme gab es nur noch mit dem Zugriffsschutz, denn der war in Windows 
3.1 noch nicht implementiert und DOS hatte im Notfall noch das sagen.

Aber spätestens mit Windows NT änderte sich all das ja.

von Computerfachprofi (Gast)


Lesenswert?

Mario K. schrieb:
> Schönes Thread schön zu lesen! Könnte auch ein Buch werden.

Ich habe mal fleißig daran weitergearbeitet und ein ganzes neues Kapitel 
hinzugefügt. ;)

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.

Wenn jedes DOS Programm die Kiste abschiessen konnte, kann von protected 
Mode nutzen keine Rede sein.

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> Aber spätestens mit Windows NT änderte sich all das ja.

Unix konnte das schon 15-20 Jahre früher.

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
> auf, meistens, wenn Updates eingespielt werden

LTS Version ?

von Computerfachprofi (Gast)


Lesenswert?

Sven P. schrieb:
> Lukas K. schrieb:
>> So übermäßig stark ist die Trennung dann wieder auch nicht, oder wer
>> würde sonst auf die Idee kommen Truetype-Schriften im Kernel zu rendern?
>> Am 29C3 gab's zu den entsprechenden Exploit einen recht ausführlichen
>> Talk.
> Ja und nein.
> Bis zu irgendeiner Windows-NT-Kernversion war das tatsächlich getrennt
> und der Graphikmist saß im Usermode. Dann hat man das wohl für zu
> ineffizient befunden und in den Kern verschoben. Das war dann die totale
> Neuerung und sollte die graphische Oberfläche um Welten flotter machen
> und so weiter.

Die ganze Geschichte des Wechsels vom Userspace in den Kernelspace kann 
man hier nachlesen:

http://technet.microsoft.com/en-us/library/cc750820.aspx

von Computerfachprofi (Gast)


Lesenswert?

AntiHirnWäscher schrieb:
> Computerfachprofi schrieb:
>> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
>> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.
>
> Wenn jedes DOS Programm die Kiste abschiessen konnte, kann von protected
> Mode nutzen keine Rede sein.

Doch, denn ich bezog mich hier auf den linearen Speicherzugriff, der mit 
dem 386er und im Protected Mode nun möglich war.

Das die Sicherheit da noch nicht gewährleistet war, habe ich hier auch 
irgendwo schon erwähnt.

von Computerfachprofi (Gast)


Lesenswert?

AntiHirnWäscher schrieb:
> Computerfachprofi schrieb:
>> Aber spätestens mit Windows NT änderte sich all das ja.
>
> Unix konnte das schon 15-20 Jahre früher.

Ja und? Ist nicht das Thema hier.

Die Nachteile von Unix sind bekannt, insbesondere zur Zeit der 
Einführung des PCs. Dazu habe ich ja oben genug geschrieben.

von Computerfachprofi (Gast)


Lesenswert?

AntiHirnWäscher schrieb:
> Computerfachprofi schrieb:
>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
>> auf, meistens, wenn Updates eingespielt werden
>
> LTS Version ?

Die auch.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
>> Dass es möglich ist mitzuhalten beweist IBM. Deren Power Prozessoren und
>> die Systeme dazu rangieren unverändert ganz vorne.
>
> Das hat man gesehen, als Apple von den PowerPCs zur x86 Architektur
> gewechselt sind.

Die Leistung selbst ist da, aber IBMs Implementierungen adressierten 
damals wie heute den Server-Bereich. Für Desktop/Notebook-Prozessoren 
war Motorola zuständig gewesen, und die bekamen es im Rahmen des viel 
kleineren Marktes nicht gebacken.

Die Preis/Leistungs-Relation stimmt bei den IBMs im 
Desktop/Notebook-Sektor nicht. Die Leistung selbst ist da, die POWER 
Prozessoren sind nach wie vor vorne.

> Da hat so mancher Maccianer, der immer noch als ewig Gestriger auf das
> A20-Gate herumhakte,

Hehe... Ob Andreas Stiller hier wohl mitliest? ;-)

> so richtig große Augen gemacht, als er sah, um wie
> viel schneller so ein x86er bei gleichem Geldeinsatz ist.

Die Masse machts. Mit genug Motor fliegt auch ein Scheunentor und mit 
genug leidlich kompetent investiertem Geld läuft auch ein x86 schnell. 
Aber dieses Geld kommt nur mir Masse wieder rein, wenn das Produkt 
bezahlbar bleiben soll. Diese Masse war bei der PowerPCs nicht gegeben.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes.

Eine schnelle Architektur, aber keine schlanke. Der in Hardware statt 
Software umzusetzende Wasserkopf blieb. Es störte nur nicht mehr, weil 
die Chiptechnik weit genug war, um den gegenüber RISC zusätzlichen 
Aufwand mitschleppen zu können. Dito Intel Atom vs. ARM Cortex A15. Der 
Wasserkopf ist da, aber der effektive Unterschied für den Anwender 
nicht.

Dass der Wasserkopf aber als nicht völlig irrelevant betrachtet wurde, 
bewies Intel mit dem Pentium 4. Denn dessen Trace-Cache adressiert ja 
massgeblich eben diesen Wasserkopf. Das ging zwar in die Hose, aber 
Reste dieser Technik finden sich in den aktuellen Intels wieder.

von AntiHirnWäscher (Gast)


Lesenswert?

Computerfachprofi schrieb:
> AntiHirnWäscher schrieb:
>> Computerfachprofi schrieb:
>>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
>>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
>>> auf, meistens, wenn Updates eingespielt werden
>>
>> LTS Version ?
>
> Die auch.

10.4 macht es bei mir seit 3 Jahren ziemlich gut. Weniger Aufwand als 
unter XP.

von Computerfachprofi (Gast)


Lesenswert?

A. K. schrieb:
> Computerfachprofi schrieb:
>> ab dem Pentium 2 sogar eine schlanke RISC Architektur mit MicroOpcodes.
>
> Eine schnelle Architektur, aber keine schlanke. Der in Hardware statt
> Software umzusetzende Wasserkopf blieb. Es störte nur nicht mehr, weil
> die Chiptechnik weit genug war, um den gegenüber RISC zusätzlichen
> Aufwand mitschleppen zu können.

Welcher Wasserkopf?
Durch die MicroOpcodes ist die CPU ein RISC Kern und mit diesen werden 
dann die CISC Instruktionen der x86 Architektur nachgebildert.

Ein normaler RISC macht hier auch nichts anderes, als mehrere Opcodes 
hintereinander auszuführen um einen Befehl auszuführen, den ein einziger 
CISC Befehl ausführen wurde. Bei den normalen RISC CPUs nennt man das 
eben nur nicht µOpcodes.

> Dito Intel Atom vs. ARM Cortex A15. Der
> Wasserkopf ist da, aber der effektive Unterschied für den Anwender
> nicht.

Gerade der Atom ist AFAIK KEIN Intel RISC, wie eben der Pentium 2 bzw. 
genauer der Pentium Pro ( ich vergesse leider immer wieder, dass es den 
Pro gab, die RISC microopcode Bauweise fing natürlich mit dem Pro an, 
nicht mit dem P2).

von Robert L. (lrlr)


Lesenswert?

@ Computerfachprofi


>Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element
>Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine
>spezielle Behandlung die unter Umständen langsamer sein kann, als das
>etwas mehr Speicher fordernde UTF-16 Format.

das stimmt so nicht..
hier der ERSTE absatz:
http://www.unicode.org/faq/utf_bom.html

nicht jedes "zeichen" in UFT_16 ist 2 Byte lang...

>Blödsinn.

>Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch
>1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp.

DAS wäre jetzt interessant
im RAM ??

(ich kenne das nur von serieller übertragung (terminal) dass man sich 
das 1 bit sparte, aber im RAM ?? dort war doch immer schon 1 Byte = 8 
Bit ??


(der 386 war auch nicht IN ALLEN BELANGEN besser als der AMiga, aber das 
lassen wir jetzt mal...)

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> Welcher Wasserkopf?

Dekodierung von Befehlen mit stark variabler Länge und mit Präfixen, die 
die Erkennung der Länge der Befehle beeinflussen. Der Pentium 1 und die 
Nexgen/AMDs verwendeten deshalb Predecoding mit 1-5 zusätzlichen Bits 
pro Byte im I-Cache. Ebenso der Trace-Cache (zzgl. eines anderen 
Vorteils) vom Pentium 4 und der microop cache vom Sandy Bridge.

NB: Auch 68020 und Nachfolger hatten arg aufwendig superskalar zu 
dekodierende Befehle.

> Gerade der Atom ist AFAIK KEIN Intel RISC

Sicher, aber am Problem der superskalaren Dekodierung ändert das nichts. 
Verlängert mindestens die Pipeline, vergrössert ggf. die Fläche durch 
zusätzliche Caches oder -bits.

> wie eben der Pentium 2 bzw.
> genauer der Pentium Pro ( ich vergesse leider immer wieder, dass es den
> Pro gab, die RISC microopcode Bauweise fing natürlich mit dem Pro an,
> nicht mit dem P2).

Die Methode hatten andere ziemlich zeitgleich zu Intel allerdings auch 
drauf, wie Nexgen (Nx586, aus dem Nx686 Design wurde letztlich der AMD 
K6) und AMD (K5). Ich meine mich zu erinnern, dass zumindest 
publizistisch Nexgen vorne lag.

von Mandy (Gast)


Lesenswert?

Computerfachprofi schrieb:
> AntiHirnWäscher schrieb:
>> Computerfachprofi schrieb:
>>> Ich nutze schon seit ca. 14 Jahren Linux, aber wenn der User bei Ubuntu
>>> ein Problem hat und solche Probleme treten mitten im Laufe der Nutzung
>>> auf, meistens, wenn Updates eingespielt werden
>>
>> LTS Version ?
>
> Die auch.

Die Patches von MS sind auch nicht ohne, aber die notwendigen 
Virenscanner Updates sind eine viel größeres Risiko.

von Mandy (Gast)


Lesenswert?

Mandy schrieb:
> Die Patches von MS sind auch nicht ohne, aber die notwendigen
> Virenscanner Updates sind eine viel größeres Risiko.

Kaum schreibt man es, schon passiert es: 
http://www.heise.de/newsticker/meldung/Microsoft-zieht-Sicherheitsspatch-fuer-Windows-und-Windows-Server-zurueck-1840771.html

von Computerfachprofi (Gast)


Lesenswert?

Robert L. schrieb:
> @ Computerfachprofi
>
>
>>Mit UTF-16 kannst du nämlich noch Arrays benutzen und pro Element
>>Zeichen kopieren, UTF-8 ist Lauflängenkodiert und benötigt daher eine
>>spezielle Behandlung die unter Umständen langsamer sein kann, als das
>>etwas mehr Speicher fordernde UTF-16 Format.
>
> das stimmt so nicht..
> hier der ERSTE absatz:
> http://www.unicode.org/faq/utf_bom.html
>
> nicht jedes "zeichen" in UFT_16 ist 2 Byte lang...

Okay, dann hat sich das im Laufe der Zeit geändert.
Hast Recht.




>
>>Blödsinn.
>
>>Ein Vorteil von 7 Bit ASCII Code war eben, dass es pro Zeichen eben auch
>>1 Bit weniger RAM benötigt und damals war RAM eben sehr knapp.
>
> DAS wäre jetzt interessant
> im RAM ??
>
> (ich kenne das nur von serieller übertragung (terminal) dass man sich
> das 1 bit sparte, aber im RAM ?? dort war doch immer schon 1 Byte = 8
> Bit ??

Wenn Speicherplatz knapp war, dann hat man das Zeugs eben Bitweise ins 
RAM kodiert.

Ältere Rechner hatten dazu auch eine andere Wortbreite.

Die Wortbreite 1 Byte = 8 Bit hat sich später dann durchgesetzt

Es gab aber auch Computer mit völlig unterschiedlicher Wortbreite.
http://en.wikipedia.org/wiki/Word_%28computer_architecture%29#Word_size_choice

Auch nachzulesen in dem Buch Computerarchitekur von Andrew Tanenbaum.
http://www.amazon.de/Computerarchitektur-Strukturen-Grundlagen-Andrew-Tanenbaum/dp/3827371511/

von Np R. (samweis)


Lesenswert?

Computerfachprofi schrieb:
> Schon der 386er lies jeden Amiga alt aus sehen.
Hm? Jeden? Jeden A500?
Also, ich habe meinen A4000 mit 68060/50 noch bis über die 
Jahrtausendwende benutzt.

von (prx) A. K. (prx)


Lesenswert?

Um alt auszusehen dürfte er da aber schon qualifiziert gewesen sein.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
> troll schrieb:
>> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man
>> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere
>> Hardware im  Vergleich zum IBM-AT.
>
> Hatte er nicht.
>
> Schon der 386er lies jeden Amiga alt aus sehen.

Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen 
mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein, 
dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC 
alles aufwendig in Software erledigt werden mußte.

> Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu
> programmierenden AGA Chipsatz.

VGA hat aber praktisch keine Features. Nicht mal einen Blitter gab es. 
Jeden Pixel mußte man einzeln in Software auf den Bildschirm malen. Und 
aus unerfindlichen Gründen wurde der Speicher im 320x200-Modus nicht 
einfach linear adressiert, sondern auf eine Art, durch die 3/4 des 
Grafikspeichers brach lagen. Eine lineare Adressierung wurde dann in der 
Grafikkarte emuliert. Für Sachen wie double buffering mußte man deshalb 
den Chain4-Modus abschalten und das dabei entstehende Adressierungschaos 
zu Fuß lösen.

Computerfachprofi schrieb:
> Richtig ist lediglich, dass Windows XP recht Umständlich bei der der
> Konfiguration und Usability ist, wenn man mal etwas konfigurieren und
> sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe
> ja inzwischen Windows 7

Hmm, also ich finde mich bei Windows 7 noch schlechter zurecht, als bei 
XP. Die Konfigurations-Optionen erscheinen mir noch versteckter, und 
wenn man einmal falsch klickt, hat man gleich wieder einen völlig 
nutzlosen Wizard an der Backe, der 3 Minuten lang eine nichtssagende 
Animation darstellt und dann ganz lapidar sagt, daß ihm auch keine 
Lösung für das Problem einfällt.

Computerfachprofi schrieb:
> MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das
> zukünftige OS werden.
>
> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.

Es lief aber dennoch unter DOS. Und ich hätte es für logischer erachtet, 
diese Funktionalität erstmal in DOS einzubauen und in der graphischen 
Oberfläche dann zu nutzen, denn es ist logisch betrachtet eine 
Basisfunktion des Betriebssystems und nicht Teil einer graphischen 
Oberfläche.

von Computerfachprofi (Gast)


Lesenswert?

np rn schrieb:
> Computerfachprofi schrieb:
>> Schon der 386er lies jeden Amiga alt aus sehen.
> Hm? Jeden? Jeden A500?
> Also, ich habe meinen A4000 mit 68060/50 noch bis über die
> Jahrtausendwende benutzt.

Nunja, mir ging es mehr um den 386 als Architektur mit modernem Design, 
nicht als konkreter Chip. Also Protected Mode mit Paging, MMU und 
Virtual 8086 RealMode.
Und hier war der 386er einfach Wegweisend und bezüglich der 
Geschwindigkeit kann man hier auch den Pentium oder 486DX4 gegen den 
68060/60 antreten lassen.

Den 486er deswegen, weil er im Prinzip den 386er weitgehend geerbt hat 
und nur noch die FPU integriert wurde und ein bisschen am Cache und den 
Taktraten geschraubt wurden. Im Kern war es doch ein 386er. Es machte ja 
auch keinen Sinn mehr, den 386er mit höheren Taktraten anzubieten, wenn 
das Feld schon lange an den 486er übergeben wurde.

Und den Pentium kann man nehmen, weil man, als der 68050/60 dann endlich 
auf dem Markt war, der Pentium zu der Zeit als dieser 68050/60 erschien 
das eigentliche CPU Gegenstück für teils auch weniger Geld war und nicht 
der ca. 9 Jahre ältere 386er.

Technisch auf den PC bezogen betrachtet war der 386er der Beginn des 
Ende des Amiga.
Beim 286er war das noch nicht ganz so klar.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Computerfachprofi schrieb:
>> troll schrieb:
>>> Es gab immer mal wieder Lösungen, die besser als DOS/Win waren. Ob man
>>> jetzt Unix, OS/2, oder Amiga nennt. Letzteres hatte sogar die bessere
>>> Hardware im  Vergleich zum IBM-AT.
>>
>> Hatte er nicht.
>>
>> Schon der 386er lies jeden Amiga alt aus sehen.
>
> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen
> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein,
> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC
> alles aufwendig in Software erledigt werden mußte.

Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah 
auch im Sound der Amiga alt aus.
Die Erweiterbarkeit ist schließlich auch ein Feature des PC.

Und was die CPU betrifft war die nicht nur von der Rechenleistung 
besser,
sondern der 386er hatte auch schon eine MMU, was erst spätere 68k 
Prozessoren bekamen.
Die gängigen Amigas, also der Amiga 500, 600, 1200 und 2000 hatten alle 
keine MMU und von denen gab es lediglich für die CPU 68020 des Amiga 
1200 einen Baustein um eine MMU nachzurüsten, aber ob das im konkreten 
Amiga 1200 Modell dann auch möglich gemacht wurde, das ist mir nicht 
bekannt.

Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und 
vielen Farben in die Tasche.

>> Gleiches gilt auch für VGA gegenüber dem ziemlich umständlich zu
>> programmierenden AGA Chipsatz.
>
> VGA hat aber praktisch keine Features. Nicht mal einen Blitter gab es.
> Jeden Pixel mußte man einzeln in Software auf den Bildschirm malen. Und
> aus unerfindlichen Gründen wurde der Speicher im 320x200-Modus nicht
> einfach linear adressiert, sondern auf eine Art, durch die 3/4 des
> Grafikspeichers brach lagen. Eine lineare Adressierung wurde dann in der
> Grafikkarte emuliert. Für Sachen wie double buffering mußte man deshalb
> den Chain4-Modus abschalten und das dabei entstehende Adressierungschaos
> zu Fuß lösen.

Der Amiga hatte das Problem, dass er für animierte Spiele bestenfalls 
nur AFAIK 64 Farben im EHB Modus gleichzeitig darstellen konnte und um 
das zu realisieren war das ansteuern der Bits ziemlich umständlich, 
während mit VGA 256 Farben gleichzeitig auf einfache Weise möglich waren 
und dies auch einfach zu adressieren waren 1 Byte/Pixel => 256 Farben.
Der HAM Modus mit 4086 Farben war für Bewegtbilder weitgehend 
unbrauchbar.

Und als dann für den PC die VESA Modi verfübar waren, sah es für den 
Amiga dann ganz alt aus.


Grafikkarten mit Blitter gab es durchaus, nur waren die nicht 
Bestandteil des VGA Standards.
IBM versuchte mit dem IBM PS/2 Modell der im April 1987 erschien und der 
darin verbauten IBM 8514 Grafikkarte den VGA Standard zu erweitern und 
diese Karte hatte dann auch schon einen Blitter integriert:

http://en.wikipedia.org/wiki/IBM_8514

Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder 
an sich zu reißen, war die Unterstützung dieses erweiterten 
Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA 
Standard.

In der Zwischenzeit kamen von Grafikkartenherstellern natürlich immer 
weitere SVGA Karten heraus, die VGA konnte und noch weitere zusätzliche 
Modi und Features wie 2d Beschleuningsfeatures inkl. Blitter boten, nur 
mußte man diese Features mangels Standardisierung eben extra ansprechen 
und somit für jedes SW Produkt eigene Treiber dafür schreiben, weswegen 
bei den Spielen bis auf wenige Ausnahmen (z.B: der FS Flight Simulator) 
die meisten Spiele sich auf den kleinsten gemeinsamen Nenner, also VGA 
einigten.

Mit Windows 3.1 und der WinG API sollten diese Blitter aber, sofern es 
zu der jeweiligen Grafikkarte einen speziellen Grafiktreiber für Windows 
3.1 gab, der diese Features anbot, für Spiele verwendbar sein.
Praktisch wurde die WinG API und Windows 3.1 natürlich sehr schnell von 
Windows 9x abgelöst, womit der Nachfolger der WinG API, also DirectX das 
Feld übernahm, aber die Richtung war klar.





>
> Computerfachprofi schrieb:
>> Richtig ist lediglich, dass Windows XP recht Umständlich bei der der
>> Konfiguration und Usability ist, wenn man mal etwas konfigurieren und
>> sich im Menüwirrwar zurecht finden muss, aber dafür gibt's als Abhilfe
>> ja inzwischen Windows 7
>
> Hmm, also ich finde mich bei Windows 7 noch schlechter zurecht, als bei
> XP. Die Konfigurations-Optionen erscheinen mir noch versteckter, und
> wenn man einmal falsch klickt, hat man gleich wieder einen völlig
> nutzlosen Wizard an der Backe, der 3 Minuten lang eine nichtssagende
> Animation darstellt und dann ganz lapidar sagt, daß ihm auch keine
> Lösung für das Problem einfällt.

Die Admin User Trennung bei XP ist grottig, sie ist so schlecht, dass 
der größte Teil der User Windows XP ständig im Administratormodus 
verwendet hat.

Mit Windows 7 (bzw. genauer Visa) wurde dieses Problem gelöst.
Man kann hier als normaler Benutzer mit einfachen Rechten arbeiten und 
wenn es etwas zu Konfigurieren oder Installieren gibt, dann wird von der 
der normalen Benutzersession aus, nach dem Adminpasswort gefragt um dann 
diese Aufgaben, die höhere Adminprivilegien erfordern, durchführen zu 
können.

Unter Windows XP gab's so etwas nur mit dem Kommandozeilenbefehl 
runas.exe
und damit brachen sich nur die wenigsten einfachen User den Arm ab.

Das es in der Anordnerung der GUI auch Änderungen hier und da gab und 
der erfahrene Benutzer nun seinen Gerätemanager unter einer neuen 
Menüführung suchen muss und damit aus reinen Gewohnheitsgründen nicht so 
gut klar kommt, ist klar, aber das ist eben nur eine Frage der 
Gewohnheit.
Objektiv betrachtet ist die Menüführung logischer und damit besser 
geworden.

Hier mußt du einfach mal unvoreingenommene Benutzer, die noch nie einen 
Computer* gesehen haben, an eine Windows XP und Windows 7 Maschine 
setzen und dann vergleichen lassen.
* Gibt's im Gefängniss bei >  15 Jahre Häftlingen.



>
> Computerfachprofi schrieb:
>> MS setzte ganz klar auf die grafische Oberfläche, denn das sollte das
>> zukünftige OS werden.
>>
>> Was dann auch dazu führte, dass Windows 3.1 schon im echten Protected
>> Mode des 386er laufen konnte und diesen recht weitgehend nutzte.
>
> Es lief aber dennoch unter DOS. Und ich hätte es für logischer erachtet,
> diese Funktionalität erstmal in DOS einzubauen und in der graphischen
> Oberfläche dann zu nutzen, denn es ist logisch betrachtet eine
> Basisfunktion des Betriebssystems und nicht Teil einer graphischen
> Oberfläche.

DOS war aber eine Sackgasse, es lief im Real Mode und alle Programme die 
für DOS geschrieben wurden erwarteten daher, auch, dass sie direkten 
Zugriff auf die Hardware und das BIOS haben.
Mit so einem alten Gaul kannst du kein neues OS stemmen, es bedarf dazu 
einer völligen Neuentwicklung und die kam mit Windows NT und OS/2.

Was aber MS für die Übergangslösung richtig gemacht hat war, dass sie 
wenigstens mit Windows 3.x die Anwendungsprogramme durch die WinAPI von 
der Hardware und dem darunterliegenden OS abstrahiert haben und damit 
später ein Wechsel nach Windows NT sehr einfach wurde.

Der Schritt hat sich ausgezahlt und war goldrichtig.

Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an.
Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten.

Microsoft konnte mithilfe von Windows 3.1 die Windows Anwendungen nach 
Windows NT hinüber retten.
Und die Windows Anwendungen waren stark verbreitet, weil Windows 3.1 
noch auf einem DOS lief und die Einstiegshürden in die Windows Welt also 
sehr einfach war.

Ein genialer Schachzug, sozusagen.

Und wenn man es ganz genau will, dann war eigentlich Windows 95 genau 
das was du gerne hättest.
Im Prinzip eine Weiterentwicklung von DOS, die schnell in den Protected 
Mode sprang und den DOS Unterbau weitgehend mit einer weiterentwickelten 
Win9x Kernellösung ersetzte.

Das diese DOS Altlasten aber weiterhin ihre Nachteile mit sich brachten, 
das konnte dann trotzdem jeder Windows 9x/Me User an den vielen 
BlueScreens erleben.

Wer von den DOS Altlasten seine Ruhe wollte, der mußte auf Windows NT 
und ordentliche Windows NT Treiber setzen.


Im Prinzip muss man also Microsoft für den Schachzug Windows 3.x und 
WinAPI geradezu gratulieren. Auch wenn die WinAPI aus heutiger Sicht 
schon so manchem Programmierer die Nackenhaare zu Berge stehen läßt, hat 
sie aus damaliger Sicht doch eine einheitliche Programmierumgebung für 
Anwendungsprogrammierer geschaffen und somit Zusatzhardware und 
Spezialfeatures (wie z.B. Grafikkarten mit 2d Beschleuigungsfunktionen, 
Soundkarten usw.) unter einer einheitlichen HW Ansteuerung den Weg 
geebnet.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> Den 486er deswegen, weil er im Prinzip den 386er weitgehend geerbt hat
> und nur noch die FPU integriert wurde und ein bisschen am Cache und den
> Taktraten geschraubt wurden. Im Kern war es doch ein 386er.

Der Kern war zwar unverändert klassisch CISC, aber mit viel 
ausgeprägterem Pipelining als beim 386. Der Pentium 1 übernahme die 
(Integer-) Pipeline, nur doppelt. Am Cache des 386 Prozessors konnte man 
intern nicht schrauben, denn er hatte überhaupt keinen an Bord. Extern 
anfangs oft auch nicht. Der 486 war also eine weitgehend neue 
Entwicklung.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
>> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen
>> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein,
>> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC
>> alles aufwendig in Software erledigt werden mußte.
>
> Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah
> auch im Sound der Amiga alt aus.

Klar konnte man eine Soundkarte einbauen. Aber die konnte dann (wenn 
überhaupt) auch nur ein einzelnes Sample abspielen. Beim Amiga konnte 
der Soundchip schon von sich aus vier Samples zusammenmischen. Auf dem 
PC mußte man auch das umständlich in Software machen, was schon mal 
einen gewissen Teil des Leistung aufgefressen hat. Die Stärke des Amiga 
waren die dedizierten Hardware-Einheiten, die den Prozessor entlasteten.

> Und was die CPU betrifft war die nicht nur von der Rechenleistung
> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k
> Prozessoren bekamen.

Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt 
hätte.

Computerfachprofi schrieb:
> Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und
> vielen Farben in die Tasche.

Was gab es denn für 3D-Grafik beim 386? Da lief ja gerade mal DOOM 1 
einigermaßen drauf, und das hatte kein echtes 3D.

Computerfachprofi schrieb:
> Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder
> an sich zu reißen, war die Unterstützung dieses erweiterten
> Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA
> Standard.

Da gab es aber auch nur höhere Auflösungen und mehr Farben, aber keine 
zusätzlichen Funktionen.

Computerfachprofi schrieb:
> Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an.
> Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten.

Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war, 
was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch 
geführt hat. Ich hatte mir zusammen mit meinem ersten 486er OS/2 2.0 
gekauft. Da war DOS und Windows 3.0 gleich mit dabei, so daß man 
darunter auch DOS- und Windows-Programme laufen lassen konnte. 
DOS-Programme entweder im Full-Screen oder im Fenster, für Windows gab 
es sogar einen eigenen kompletten Windows-Desktop, aber man konnte die 
Programme auch voll in den OS/2-Desktop integriert laufen lassen. Dabei 
wurde sogar auch schon die Hardware virtualisiert, so daß DOS-Programme 
meinten, direkt auf die Hardware zuzugreifen.
Systemanforderung für OS/2 war 4MB, aber ich mußte feststellen, daß man, 
wenn man darunter auch ein Programm laufen lassen wollte, mehr 
benötigte. Deshalb habe ich mir dann eine Woche später DOS und Windows 
gekauft.

von (prx) A. K. (prx)


Lesenswert?

Rolf Magnus schrieb:
> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
> hätte.

Beispiele mit DOS-Bezug:

EMM386/QEMM für Speichernutzung,
VM/386: Hypervisor für mehrere DOS Instanzen gleichzeitig,
DESQview: Mehrere DOS Programme parallel.

Und natürlich die Unixe. Bis auf EMM386 wurde nichts davon in der 
grossen Masse eingesetzt, aber es gab schon so allerhand.

von Rolf M. (rmagnus)


Lesenswert?

A. K. schrieb:
> Rolf Magnus schrieb:
>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
>> hätte.
>
> Beispiele mit DOS-Bezug:
>
> EMM386/QEMM für Speichernutzung,

Das nutzt aber auch nur den Nebeneffekt der 386-MMU, daß man damit die 
Begrenzung der Adressen auf 16 Bit umgehen kann.
Die eigentlichen MMU-Features wie Speicherschutz und Paging verwendet es 
aber nicht.

von (prx) A. K. (prx)


Lesenswert?

Rolf Magnus schrieb:
> Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war,
> was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch
> geführt hat.

OS/2 war wesentlich besser als das damals grossflächig eingesetzte Win 
3.x, hatte aber eine recht schaurige interne Struktur. WinNT war da als 
konsequente Neuentwicklung eine echte Erlösung.

Der 16-Bit Vorgänger OS/2 V1 war bimodal und wurde mit dynamischer 
Umschaltung zwischen protected mode und real mode eingesetzt. DOS 
Programme liefen im real Mode quasi parallel zu protected mode OS/2 
Programmen.

Intel hatte es aber in voller Absicht vermieden, einen Weg vom protected 
mode zurück in den real mode zu implementieren. Wer das benötigte, wie 
eben OS/2 V1, der musste es via Reset durchführen (wortwörtlich, oder 
mit Hacks wie dem triple fault). Device driver waren folglich ebenfalls 
bimodal, mussten also in beiden Modi unverändert laufen, was die 
Programmierung nicht unbedingt erleichterte.

OS/2 V2 war intern ein Hybrid aus 16-Bit und (anfangs nur wenig) 32-Bit 
Komponenten. Die Abbildung der Speicherverwaltungen aufeinander 
widerspiegelte das aufs Unschönste. Weshalb man Probleme bekam, wenn 
Speicherblöcke quer über einer 64KB-Grenze lagen. Die 16-Bit Komponenten 
des Systems konnten die nämlich nicht geschlossen ansprechen.

Im weiteren Verlauf litt OS/2 unter einem unpassend implementierten 
Filesystem. HPFS war zwar strukturell ok, die Implementierung hielt aber 
mit den wachsenden Speicherkapazitäten nicht mit. Bei HPFS386 legte sich 
Microsoft quer (das war ja deren Entwicklung) um OS/2 zu bremsen und das 
alte reine 16-Bit HPFS konnte kaum vernünftig cachen. IBM hatte zwar in 
AIX ein schönes JFS, konnte den Code aber aufgrund seiner Unix-Historie 
schon aus rechtlichen Gründen nicht verwenden, technisch wohl auch 
nicht. IBM entwickelte zwar ein portables JFS2, aber für OS/2 kam das zu 
spät.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> Computerfachprofi schrieb:
>>> Zumindest, solange er nicht irgendwas mit Grafik oder Sound machen
>>> mußte. Die pure Rechenleistung der CPU mag deutlich höher gewesen sein,
>>> dafür konnte der Amiga vieles die Peripherie machen lassen, was beim PC
>>> alles aufwendig in Software erledigt werden mußte.
>>
>> Man konnte in den 386 jederzeit eine Soundkarte einbauen und dann sah
>> auch im Sound der Amiga alt aus.
>
> Klar konnte man eine Soundkarte einbauen. Aber die konnte dann (wenn
> überhaupt) auch nur ein einzelnes Sample abspielen.

Für das Software Mixing hatte man ja die leistungsstarke CPU.
Schon bei Spielen wie AFAIK X-Wing konnte ich im Setup selbst 
einstellen, wieviele Samples meine Soundblaster Pro gleichzeitig 
ausgeben soll.




>> Und was die CPU betrifft war die nicht nur von der Rechenleistung
>> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere 68k
>> Prozessoren bekamen.
>
> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
> hätte.

Irrtum!
Viele spätere DOS Spiele verwendeten den DOS/4G extender um mehr 
Speicher verwenden zu können, dieser schaltete dann die CPU in den 
Protected Mode und wenn das Spiel beendet wurde, wieder zurück in den 
Real Mode.
Letzteres war der Hauptgrund warum für DOS/4G und viele spätere DOS 
Spiele überhaupt ein 386er notwendig war, denn nur dieser konnte 
problemlos vom Protected Mode wieder in den Real Mode zurückschalten.
Beim 286er war dies nicht wirklich vorgesehen, auch wenn es durch 
umständliche Tricks ging, war da immer noch das Problem mit der 
Speichersegmentierung, weswegen man für spätere DOS Spiele mindestens 
einen 386er voraussetzte.
http://en.wikipedia.org/wiki/DOS/4G





>
> Computerfachprofi schrieb:
>> Grafisch steckte der 386er natürlich jeden Amiga bei 3d Grafik und
>> vielen Farben in die Tasche.
>
> Was gab es denn für 3D-Grafik beim 386? Da lief ja gerade mal DOOM 1
> einigermaßen drauf, und das hatte kein echtes 3D.

Elite 1 ist ein echtes 3d Spiel und kam schon 1984 auf den Markt.
http://de.wikipedia.org/wiki/Elite_%28Computerspiel%29

Das setzte zwar noch keinen 386er vorraus, aber X-Wing tat es auf alle 
Fälle.
Ebenfalls ein echtes 3d Spiel.

Und der Nachfolger von Elite, also Elite 2 Frontier lief auf dem Amiga 
500 stark ruckelig, während es auf dem PC flüssig lief.





>
> Computerfachprofi schrieb:
>> Da man aber zu dem Zeitpunkt die Versuche seitens IBM sah, den PC wieder
>> an sich zu reißen, war die Unterstützung dieses erweiterten
>> Grafikstandards eher Mau und Abhilfe schaffte dann erst der VESA
>> Standard.
>
> Da gab es aber auch nur höhere Auflösungen und mehr Farben, aber keine
> zusätzlichen Funktionen.

Habe ich auch nicht behauptet.



>
> Computerfachprofi schrieb:
>> Wenn du das nicht glaubst, dann schau dir zum Vergleich OS/2 an.
>> Es hatte praktisch keinen Erfolg, weil die Anwendungen fehlten.
>
> Ich denke, das lag eher daran, daß OS/2 seiner Zeit zu weit voraus war,
> was leider auch zu einem für die Zeit zu hohen Ressourcenverbrauch
> geführt hat. Ich hatte mir zusammen mit meinem ersten 486er OS/2 2.0
> gekauft. Da war DOS und Windows 3.0 gleich mit dabei, so daß man
> darunter auch DOS- und Windows-Programme laufen lassen konnte.
> DOS-Programme entweder im Full-Screen oder im Fenster, für Windows gab
> es sogar einen eigenen kompletten Windows-Desktop, aber man konnte die
> Programme auch voll in den OS/2-Desktop integriert laufen lassen. Dabei
> wurde sogar auch schon die Hardware virtualisiert, so daß DOS-Programme
> meinten, direkt auf die Hardware zuzugreifen.
> Systemanforderung für OS/2 war 4MB, aber ich mußte feststellen, daß man,
> wenn man darunter auch ein Programm laufen lassen wollte, mehr
> benötigte. Deshalb habe ich mir dann eine Woche später DOS und Windows
> gekauft.


Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig 
waren es die fehlenden Anwendungen. Das Speicherproblem löste sich mit 
der Zeit ja von allein.

von Computerfachprofi (Gast)


Lesenswert?

A. K. schrieb:

>
> Und natürlich die Unixe. Bis auf EMM386 wurde nichts davon in der
> grossen Masse eingesetzt, aber es gab schon so allerhand.


DOS4/G wurde Massenhaft eingesetzt, schade das das oft vergessen wird.

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
> A. K. schrieb:
>> Rolf Magnus schrieb:
>>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
>>> hätte.
>>
>> Beispiele mit DOS-Bezug:
>>
>> EMM386/QEMM für Speichernutzung,
>
> Das nutzt aber auch nur den Nebeneffekt der 386-MMU, daß man damit die
> Begrenzung der Adressen auf 16 Bit umgehen kann.
> Die eigentlichen MMU-Features wie Speicherschutz und Paging verwendet es
> aber nicht.

Doch, Paging wird verwendet, sobald du den Speicher im Protected Mode 
ansteuerst.
Und das war ein eigentliches Feature der MMU.


Der Speicherschutz war unter DOS kein Thema, aber wer den haben wollte, 
der bekam das mit OS/2.

Aber ich weiß auch gar nicht, warum du daran herumnörgelst. Die frühen 
Amigas hatten gar keine MMU und keinen Speicherschutz, also selbst wenn 
man wollte, ging es nicht. Beim 386er ging es immer mit OS/2 und später 
Win NT.

von Computerfachprofi (Gast)


Lesenswert?

Dieser 286 und 386 protected Mode Mischmasch bei OS/2 war übrigens einer 
der Hauptgründe, warum Microsoft mit IBM die zusammenarbeit abbrach.

IBM wollte nämlich unbedingt, dass OS/2 auch auf dem 286er funktioniert, 
während Microsoft die Nachteile, die durch den Protected Mode des 286er 
auftraten, nicht akzeptieren wollte.
Das Ergebnis war dann am Ende, dass IBM OS/2 weiter entwickelte und 
Microsoft mit Windows NT ein reines ab 386er Betriebssystem entwickelte.

von Computerfachprofi (Gast)


Lesenswert?

Heisenberg schrieb im Beitrag #3127206:

> DOS hat das meiste aus der Hardware geholt weil es praktisch nichts als
> ein Bootloader ist.

Es ist auch ein Disk Operating System.
Es verwaltet also das Dateisystem und bietet Funktionen für den Schreib 
und Lesezugriff auf das Dateisystem.


> Witzigerweise hat das OS dann später die Hardware vorgegeben. Für
> Windows 95 brauchte man x MB RAM. Nur für das Betriebssystem! Vorher war
> die Hardware egal solange man genügend Ressourcen für sein Programm
> hatte. DOS lief immer, egal ob auf einem 8088 oder einem Pentium. Und es
> wurde ja immer schlimmer im Lauf der Zeit. Auch Linux war hier nicht
> besser. Ein ressourcenfressendes Betriebssystem ist wie ein Land das zu
> 50% aus Beamten besteht ... und hier sind wir wieder bei Griechenland
> angelangt.

Naja, man kann DOS mit den späteren Betriebssystemen nicht vergleichen.
Letztere bieten so viel mehr als DOS.

Beispiele:
- Speicherverwaltung (also das RAM, nicht nur das Dateisystem)
- Journaling Dateisysteme
- Treiber und eine standardisierte API für den Zugriff auf 
unterschiedlichste HW. Bei DOS mußten die Anwendungen alle Treiber noch 
selber programmieren oder darauf vertrauen, dass es einen einheitlichen 
Hardwarestandard gab. (z.B. VGA oder VESA).
- Multitasking
- einheitlichen Zugriff auf das Netzwerk über standardisierte Protokolle

Das ist nur eine Auswahl der wichtigsten Features eines modernen OS und 
das so etwas im Hintergrund natürlich einiges an Speicher benötigt, das 
ist klar.

Ich möchte diese Features übrigens auch nicht mehr missen, es wurde also 
nicht schlimmer, sondern besser.

Windows NT war im Vergleich zu DOS ein Segen.
Natürlich braucht es mehr Ressourcen, aber wer damals eine stabile 
Arbeitsumgebung haben wollte, der hat einfach das Geld in mehr Speicher 
investiert.
Ein Speicherausbau mit bis zu 16 MB war auch damals kein Problem.

Es kostete halt mehr Geld, aber wenn man daran denkt, was man für den 
IBM PC bezahlte, waren die 16 MB RAM für den > 386er geradezu günstig.

Und ob sich die Sache dann finanziell rentierte, das hing natürlich ganz 
vom Job ab. Das ist klar.

von (prx) A. K. (prx)


Lesenswert?

Heisenberg schrieb im Beitrag #3127206:
> und die PC Hardware war zu schwach für effektives Multitasking.

Aus heutiger Sicht betrachtet waren damalige Rechner natürlich völlig 
unbrauchbar, konnte man doch nicht einmal einen einzigen 3D-Desktop mit 
1920x1080 drauf laufen lassen. ;-)

In den 80ern war die Konsole die Norm. Bereits auf einen PDP-11 in der 
70ern haben mehrere Leute gleichzeitig gearbeitet, später sassen an 
einer VAX-750 mit 4MB RAM schon mal 10 Leute gleichzeitig dran. Und die 
war nicht schneller als eine 68000.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> DOS4/G wurde Massenhaft eingesetzt, schade das das oft vergessen wird.

Sorry dass ich das vergass, aber meine Beispiele waren ohnehin nicht als 
vollständige Auflistung aller Dosenöffner gedacht. Den von Rational 
kannte ich ausserdem nur als Dreingabe von Zortech.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
>>> Und was die CPU betrifft war die nicht nur von der Rechenleistung
>>> besser, sondern der 386er hatte auch schon eine MMU, was erst spätere
>>> 68k Prozessoren bekamen.
>>
>> Es gab nur kaum etwas, das diese zusätzliche Funktion auch genutzt
>> hätte.
>
> Irrtum!
> Viele spätere DOS Spiele verwendeten den DOS/4G extender um mehr
> Speicher verwenden zu können, dieser schaltete dann die CPU in den
> Protected Mode und wenn das Spiel beendet wurde, wieder zurück in den
> Real Mode.

Um genau zu sein: DOS/4GW, die für Watcom angepaßte und etwas 
beschnittene Version von DOS/4G. Damit habe ich selbst programmiert. 
Aber auch hier wurde das nur genutzt, um das beschränkte Speichermodell 
mit Segmentierung und 16-Bit-Adressregistern und einem Adressraum von 
insgesamt maximal 1MB zu umgehen - etwas, das beim Amiga gar nicht nötig 
war. Also kann man gerade bei diesem Einsatzszenario nicht wirklich 
davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga 
gebracht hätte.

> Elite 1 ist ein echtes 3d Spiel und kam schon 1984 auf den Markt.
> http://de.wikipedia.org/wiki/Elite_%28Computerspiel%29
>
> Das setzte zwar noch keinen 386er vorraus, aber X-Wing tat es auf alle
> Fälle.
> Ebenfalls ein echtes 3d Spiel.
>
> Und der Nachfolger von Elite, also Elite 2 Frontier lief auf dem Amiga
> 500 stark ruckelig, während es auf dem PC flüssig lief.

Ok, mag sein. Bei 3D war der Amiga natürlich nicht so schnell, da er da 
dann auch keine Hardware-Einheit dafür hatte und es deshalb wie der PC 
in Software machen mußte. Dabei zeigt sich dann direkt der Unterschied 
in der Rechenleistung. Das war allerdings damals auch noch nicht gerade 
der Haupt-Anwendungsfall.

> Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig
> waren es die fehlenden Anwendungen.

Worauf ich hinaus wollte, war, daß OS/2 anfangs auch DOS und Windows 
enthalten hat und damit auch ein Großteil der dafür programmierten 
Anwendungen auch unter OS/2 liefen, zusätzlich zu denen für OS/2 selbst.

Computerfachprofi schrieb:
> Aber ich weiß auch gar nicht, warum du daran herumnörgelst.

Ich "nörgle" nicht, sondern lasse die MMU als großen Vorteil gegenüber 
anderen Plattformen nur nicht gelten, wenn der einzige Anwendungsfall 
damals war, das limitierte Speichermodel des x86 im Real-Mode zu 
umgehen. Vor allem, wenn die Vergleichsplattform für den gleichen 
Anwendungsfall gar keine MMU braucht, weil ihr Speichermodell schon von 
vornherein nicht so eingeschränkt ist.

von Arc N. (arc)


Lesenswert?

A. K. schrieb:
> Heisenberg schrieb im Beitrag #3127206:
>> und die PC Hardware war zu schwach für effektives Multitasking.

Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives 
Multitasking auf Home-Computern

> Aus heutiger Sicht betrachtet waren damalige Rechner natürlich völlig
> unbrauchbar, konnte man doch nicht einmal einen einzigen 3D-Desktop mit
> 1920x1080 drauf laufen lassen. ;-)

Na, ganz so schlimm war es nicht... Nur nicht weitverbreitet... 1981 als 
MSDOS rauskam, gab's auch den Xerox Star (GUI, Ethernet, Maus) ;-)
RTOS-UH/Pearl wird da auch gerne vergessen (die erste DIN-Norm ist 
ebenfalls aus dem Jahr 1981...)

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:

>
> Um genau zu sein: DOS/4GW, die für Watcom angepaßte und etwas
> beschnittene Version von DOS/4G. Damit habe ich selbst programmiert.
> Aber auch hier wurde das nur genutzt, um das beschränkte Speichermodell
> mit Segmentierung und 16-Bit-Adressregistern und einem Adressraum von
> insgesamt maximal 1MB zu umgehen - etwas, das beim Amiga gar nicht nötig
> war. Also kann man gerade bei diesem Einsatzszenario nicht wirklich
> davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga
> gebracht hätte.

Doch, aber um das nachzuvollziehen solltest du dir mal anschauen, wie 
eine MMU auf dem 386er funktioniert:

Ohne MMU kein Paging.
Ohne Paging kein RAM > 1 MiB (auf dem 386er).

http://de.wikipedia.org/wiki/Virtuelle_Speicherverwaltung#Funktionsweise


Die MMU ist also ein essentieller Bestandteil.
Speicherschutz zwischen den Prozessen ist nur noch ein weiteres Feature, 
das mit der MMU möglich wird.





> Ok, mag sein. Bei 3D war der Amiga natürlich nicht so schnell, da er da
> dann auch keine Hardware-Einheit dafür hatte und es deshalb wie der PC
> in Software machen mußte. Dabei zeigt sich dann direkt der Unterschied
> in der Rechenleistung. Das war allerdings damals auch noch nicht gerade
> der Haupt-Anwendungsfall.

Eigentlich schon.
Der PC war bei (Spiele) Simulationen und sonstigen 3d Spielen die 
dominierende Plattform.

Falcon 3.0 (die letzte Falcon Version für den Amiga war Falcon 1)
Elite 2 Frontier
Wing Commander 2
X-Wing
Tie-Fighter
Gunship 2000
F-19 Stealth Fighter
F-15 Strike Eagle 3
Subwar
MS Flight Simulator
Red Baron
Aces over Europe
Aces of the Pacific
Battle of Britain - Their finest hour
Task Force 1942
Secret Weapons of the Luftwaffe
M1 Tank Platoon


Das ein oder andere Spiel gab es auch für den Amiga, aber der PC war 
hier immer schneller und besser, denn er bot mehr Rechenleistung und 
damit war die 3d Grafik wesentlich flüssiger.



Wer Simulationen oder 3d Spiele spielen wollte, der hat also, sofern das 
Geld da war, einen PC gekauft und keine Amiga.


Das Genre der Simulationen und sonstigen 3d Spiele hat eindeutig dem PC 
gehört.
Das der Rundenstrategiespiele übrigens auch.

Der Amiga begnügte sich daher eher mit Jump & Runs und sonstigen 2d 
Spielen.

Adventures und RPGs gab es auf beiden Plattformen gleichermaßen.


Die VGA Grafik dominierte hierbei sehr schnell das Feld bei den PC 
Simulationsspielen.
Lediglich beim Sound mußte man, sofern keine Soundkarte vorhanden war, 
in der Anfangszeit hier und da gegenüber einer Amiga Version abstriche 
machen,
aber mit Soundkarte war auch dieses Problem behoben.

Tank Platoon und Battle of Britain gehören hierbei sicher zu den 
ältesten in der obigen Liste und Adlib Support konnten die schon alle.




>
>> Der Speicherbedarf kam natürlich am Anfang auch dazu, aber langfristig
>> waren es die fehlenden Anwendungen.
>
> Worauf ich hinaus wollte, war, daß OS/2 anfangs auch DOS und Windows
> enthalten hat und damit auch ein Großteil der dafür programmierten
> Anwendungen auch unter OS/2 liefen, zusätzlich zu denen für OS/2 selbst.

Hier muss man aufpassen.
Es gab verschiedene Varianten.
Eine mit dem von MS lizenzierten Windows und eine ohne Windows.
DOS war immer in Form von IBM DOS dabei.

Daraus folgt, man konnte auch OS/2 ohne Windows 3.x kaufen.

Aber für OS/2 und dem Anwendungssupport war das keine Hilfe, sondern 
sogar im Endeffekt ein Nachteil.
Denn die Softwarefirmen entwickelten verstärkt für Windows 3.*, lief ja 
schließlich auch unter OS/2 in einer Windows 3.* Umgebung.
Damit gab es keinen Bedarf, die Anwendungen direkt nativ auf OS/2 zu 
supporten.

Und das ist das problem, native OS/2 Anwendungen gab es nur sehr wenige 
und das war auch der Grund warum OS/2 im Endeffekt trotz Warp Versionen 
usw. das Rennen gegen Windows verlor.

Der Anwendungssupport von Windows war einfach viel zu groß und das dank 
Windows 3.x, dem genialen Schachzug von MS, wie bereits oben erwähnt.

Darüberhinaus gilt, wer unter OS/2 Windows nutzen können wollte, der 
mußte den Aufpreis für die OS/2 Variante mit integriertem Windows 
bezahlen.
Es kostete also auch mehr Geld und war damit keine Lösung.


Entscheident waren also die nativen Anwendungen.

Und im Privatbereich war OS/2 insofern ein Problem, weil IBM einfach 
vergessen hat, die Spieler mit einer schnellen API zu versorgen, die 
einen schnellen Zugriff auf die Hardware zuläßt.

Microsoft bot so etwas mit der WinG API in Windows 3.1 und später dann 
mit DirectX in Windows 95.

Als OS/2 dann endlich OpenGL konnte, war es zu spät. Die Spielebranche 
hatte sich bereits auf Windows 95 eingeschossen und kräftig Spiele für 
Windows 95 ausgeliefert.

Und für die Privatpersonen gab es dann natürlich für viele auch keinen 
Grund daheim OS/2 zu verwenden, weswegen Windows dominierte.

Und Firmen bevorzugten Windows NT, weil daheim jeder sich mit zumindest 
Windows 3.x oder Windows 9x auskannte.



Zusammenfassend hat IBM also bei OS/2 folgende Fehler gemacht:

1. Support des 286er
2. Keine grafische Oberfläche für DOS, die die API Funktionen von OS/2 
anbot um die Anwendungsentwickler auf die API von OS/2 einzuspielen. 
Also kein Vendor-Lock-In
3. Keine Unterstützung der Bedürfnisse der Spielehersteller -> kein 
schneller Zugriff auf die Hardware über API Funktionen


Das OS/2, genauso wie Windows NT dann noch einen hohen Speicherbedarf 
hatte, verschärfte das Problem zusätzlich, war aber jetzt kein 
Designfehler, da es nicht anders ging und Windows NT das gleiche Problem 
hatte.






>
> Computerfachprofi schrieb:
>> Aber ich weiß auch gar nicht, warum du daran herumnörgelst.
>
> Ich "nörgle" nicht, sondern lasse die MMU als großen Vorteil gegenüber
> anderen Plattformen nur nicht gelten, wenn der einzige Anwendungsfall
> damals war, das limitierte Speichermodel des x86 im Real-Mode zu
> umgehen. Vor allem, wenn die Vergleichsplattform für den gleichen
> Anwendungsfall gar keine MMU braucht, weil ihr Speichermodell schon von
> vornherein nicht so eingeschränkt ist.

Wie schon gesagt, es gab Protected Mode Betriebssysteme die den 
Speicherschutz anboten.
Wer wollte, der konnte das nutzen.

von Computerfachprofi (Gast)


Lesenswert?

Arc Net schrieb:
> A. K. schrieb:
>> Heisenberg schrieb im Beitrag #3127206:
>>> und die PC Hardware war zu schwach für effektives Multitasking.
>
> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives
> Multitasking auf Home-Computern

Aber ohne Speicherschutz.

OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und 
Speicherschutz.
Der Amiga 500 erschien im gleichen Jahr.

von Rolf M. (rmagnus)


Lesenswert?

Computerfachprofi schrieb:
>> Also kann man gerade bei diesem Einsatzszenario nicht wirklich
>> davon spreichen, daß die MMU dort einen Vorteil gegenüber dem Amiga
>> gebracht hätte.
>
> Doch, aber um das nachzuvollziehen solltest du dir mal anschauen, wie
> eine MMU auf dem 386er funktioniert:
>
> Ohne MMU kein Paging.
> Ohne Paging kein RAM > 1 MiB (auf dem 386er).

Und wo ist da jetzt der Vorteil gegenüber dem Amiga? Das Paging war nur 
nötig, um das auch dem real (bzw. virtual x86) mode durch Einblendung 
von Teilblöcken in die unteren 1MB zugänglich zu machen. Im Protected 
Mode hat der 386 auch ohne Paging 4GB Adressraum.
Aber nochmal: Die MMU wurde bei EMM386 und Konsorten ausschließlich 
benutzt, um eine Limitierung zu umgehen, die der Amiga gar nicht hatte. 
Also ist das kein Vorteil gegenüber dem Amiga, sondern höchstens 
gegenüber dem 286. Ein Vorteil ergibt sich erst, wenn die MMU richtig 
genutzt wird und nicht nur als Krücke.

von Arc N. (arc)


Lesenswert?

Computerfachprofi schrieb:
>> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives
>> Multitasking auf Home-Computern
>
> Aber ohne Speicherschutz.
>
> OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und
> Speicherschutz.
> Der Amiga 500 erschien im gleichen Jahr.

Der 1000er 1985, der QL 1984, zudem war OS-halbe zu der Zeit noch ein 
16-Bit OS, und nicht zu vergessen: der 68k kannte keinen Protected-Mode, 
man hätte allerdings z.B. über die extern signalisierten Function Codes 
zw. User und Supervisor Modus unterscheiden können und damit was 
"basteln" können...

von Computerfachprofi (Gast)


Lesenswert?

Rolf Magnus schrieb:
>
> Und wo ist da jetzt der Vorteil gegenüber dem Amiga? Das Paging war nur
> nötig, um das auch dem real (bzw. virtual x86) mode durch Einblendung
> von Teilblöcken in die unteren 1MB zugänglich zu machen. Im Protected
> Mode hat der 386 auch ohne Paging 4GB Adressraum.

Nein, Paging wird IMMER verwendet.
Das macht die MMU Immer.

Und mithilfe Paging löst die MMU auch den Speicherschutz.
Der Amiga hat das nicht.

Ein lineare Adressraum der direkt angesprochen wird, reicht nicht, um 
Speicherschutz zu realisieren.



> Aber nochmal: Die MMU wurde bei EMM386 und Konsorten ausschließlich
> benutzt, um eine Limitierung zu umgehen, die der Amiga gar nicht hatte.

Nein.


> Also ist das kein Vorteil gegenüber dem Amiga, sondern höchstens
> gegenüber dem 286. Ein Vorteil ergibt sich erst, wenn die MMU richtig
> genutzt wird und nicht nur als Krücke.

So ein Quatsch.

von Computerfachprofi (Gast)


Lesenswert?

Arc Net schrieb:
> Computerfachprofi schrieb:
>>> Mit dem Amiga und afair davor schon dem Sinclair QL gab es preemptives
>>> Multitasking auf Home-Computern
>>
>> Aber ohne Speicherschutz.
>>
>> OS/2 1.0 erschien im Dezember 1987 mit Multitasking Support und
>> Speicherschutz.
>> Der Amiga 500 erschien im gleichen Jahr.
>
> Der 1000er 1985, der QL 1984, zudem war OS-halbe zu der Zeit noch ein
> 16-Bit OS,

Ja und?
Es war ein Protected Mode OS mit Multitasking.
Ob 16 Bit oder nicht, ist nebensächlich.




> und nicht zu vergessen: der 68k kannte keinen Protected-Mode,
> man hätte allerdings z.B. über die extern signalisierten Function Codes
> zw. User und Supervisor Modus unterscheiden können und damit was
> "basteln" können...

Ne Softwarelösung....
Echter Schutz erfolgt durch Hardware.

von (prx) A. K. (prx)


Lesenswert?

Computerfachprofi schrieb:
> Nein, Paging wird IMMER verwendet.
> Das macht die MMU Immer.

CR0.PG: http://en.wikipedia.org/wiki/Control_register#CR0

Eine Funktion von EMM386 war, mehr Speicher in den unteren 1MB zur 
Verfügung zu stellen. Dazu war Paging unvermeidlich, denn es wurden 
Adressbereiche für RAM genutzt, in denen die Hardware überhaupt kein RAM 
zur Verfügung stellte.

Die Funktion von DOS Extendern z.B. von Phar Lap war es, in DOS auch 
Programme jenseits von 1MB laufen lassen zu können. Dafür ist Paging 
nicht prinzipiell erforderlich, zumal es das auch als 16-Bit Version für 
286 gab.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.