Hallo zusammen, heutzutage sind Computer ja aus dem Alltag kaum mehr wegzudenken. Sie sind relativ billig zu haben und erleichtern viele Arbeiten drastisch - Textverarbeitung, Tabellenkalkulation, CAD, Datenbanken, etc - alles Anwendungen die nur sehr mühselig mit Handarbeit ersetzen zu wären. Bei den ersten Computern ab ca 1940 - Zuse Z, Mark, Eniac, Colossus etc. war das noch etwas anders. Sie waren extrem teuer, sehr aufwendig zu bedienen und sehr viel leistungsschwächer als heutige PCs. Ich frage mich (und habe dazu im Web recht wenig konkretes gefunden): 1) Was genau haben diese Maschinen gemacht (Beispiel(pseudo-)code?) Da fallen Stichworte wie "ballistische Tabellen" - was genau wurde da gerechnet? Aus Winkel, Neigung, Windrichtung, Windgeschwindigkeit das DeltaX und DeltaY eines Artilleriegeschoss-Aufschlags? Oder "Simulation von Atomexplosionen" - das war ja wohl sicher keine numerische Simulation von millionen Punkten wie sie mit heutigen Supercomputern gemacht wird? 2) Warum war so ein bisschen Rechenleistung so extrem viel Geld wert? Gut, bei den militärisch motivierten Geräten mag das vielleicht noch angehen - was ist der Sieg wert? Unbezahlbar ... Aber bei Geräten für Forschung und Industrie? Die Personalakten von Karteikarten auf Lochkarten umstellen zu können wird wohl kaum einer Firma mehrere Millionen wert gewesen sein... danke für alle Einsichten, Andreas
Andreas K. schrieb: > 2) Warum war so ein bisschen Rechenleistung so extrem viel Geld wert? Bevor das Computer machten, machten das Menschen. Stell dir zig Leute in einem Raum vor, mit mechanischen Rechengeräten bewaffnet, die ihr Arbeitsleben lang den ganzen Tag nichts tun als stupide Rechenaufgaben abzuarbeiten. Das ist nicht nur sauteuer und langsam. Es hat auch eine grässliche Fehlerquote, weshalb man die gleiche Rechnung mehrfach von verschiedenen Personen durchführen lassen muss. > Aber bei Geräten für Forschung und Industrie? Man kann komplexe technische Werke natürlich auch so bauen, wie sie dass im Mittelalter mit den Kathedralen taten. Wenns einstürzte, dann hatte man einen Fehler gemacht. Man kann andererseits auch statt dessen rechnen. In der Fliegerei wird ziemlich viel gerechnet. Wurde auch damals schon, aber eben jeweils in dem Mass, in das praktikabel war.
:
Bearbeitet durch User
Andreas K. schrieb: > das war ja wohl sicher keine numerische > Simulation von millionen Punkten wie sie mit heutigen Supercomputern > gemacht wird? Ganz ohne Rechnerei gehts aber auch nicht. Zumal die trial-and-error Methode schon damals sehr unpraktisch gewesen wäre. Allein schon, weil man kaum Material hatte.
:
Bearbeitet durch User
Andreas K. schrieb: > Aber bei Geräten für Forschung und Industrie? Da wären dann beispielsweise Brücken und die Kathedralen der Moderne, die Hochhäuser. Ist schon etwas vertrauensbildend, wenn man vorher nachrechnet.
A. K. schrieb: > Ist schon etwas vertrauensbildend, wenn man vorher > nachrechnet. Sonst rechnet man Dir nachher vor, welchen Fehler Du gemacht hast. MfG Paul
Denk an die Leute die das Geld haben und viel Rechnen müssen. Banken und Versicherungen waren von Anfang an gute Kunden.
Andreas K. schrieb: > Hallo zusammen, > > heutzutage sind Computer ja aus dem Alltag kaum mehr wegzudenken. Sie > sind relativ billig zu haben und erleichtern viele Arbeiten drastisch - > Textverarbeitung, Tabellenkalkulation, CAD, Datenbanken, etc - alles > Anwendungen die nur sehr mühselig mit Handarbeit ersetzen zu wären. > > Bei den ersten Computern ab ca 1940 - Zuse Z, Mark, Eniac, Colossus etc. > war das noch etwas anders. Sie waren extrem teuer, sehr aufwendig zu > bedienen und sehr viel leistungsschwächer als heutige PCs. > > Ich frage mich (und habe dazu im Web recht wenig konkretes gefunden): > > 1) Was genau haben diese Maschinen gemacht (Beispiel(pseudo-)code?) > Da fallen Stichworte wie "ballistische Tabellen" - was genau wurde da > gerechnet? Aus Winkel, Neigung, Windrichtung, Windgeschwindigkeit das > DeltaX und DeltaY eines Artilleriegeschoss-Aufschlags? Oder "Simulation > von Atomexplosionen" - das war ja wohl sicher keine numerische > Simulation von millionen Punkten wie sie mit heutigen Supercomputern > gemacht wird? Besser da wurde mit analogen Werten statt diskretisierten Punkten gerechnet: http://de.wikipedia.org/wiki/Analogrechner http://de.wikipedia.org/wiki/Bachem_Ba_349#Erprobung http://en.wikipedia.org/wiki/Norden_bombsight > > 2) Warum war so ein bisschen Rechenleistung so extrem viel Geld wert? > Gut, bei den militärisch motivierten Geräten mag das vielleicht noch > angehen - was ist der Sieg wert? Unbezahlbar ... Aber bei Geräten für > Forschung und Industrie? Die Personalakten von Karteikarten auf > Lochkarten umstellen zu können wird wohl kaum einer Firma mehrere > Millionen wert gewesen sein... Es wurden weniger die personalkarten als die Lohnabrechnungen umgestellt. Und die Bilanzen/Lagerwirtschaft etc. das was vorher ganze Heerscharen von Buchhaltern im Kopf oder mit dem Abakus machen mussten. Und zuweilen unter Zuhilfenahme der eigenen Tasche als Zwischenspeicher ;-)
Oliver R. schrieb: > Denk an die Leute die das Geld haben und viel Rechnen müssen. Ich denke an mich: Ich habe kein Geld und muß daher doppelt so gut rechnen... MfG Paul
Analog zur den berühmten 640KB von Bill Gates gibt es auch andere schöne Zitate, von denen das berühmteste (Watson, IBM) wohl ein Fake ist. Besser ist wohl das hier. Immerhin von Howard Aiken, von dem das Konzept des Harvard Mark I stammt: "Originally one thought that if there were a half dozen large computers in this country, hidden away in research laboratories, this would take care of all requirements we had throughout the country." Mit der Fehleinschätzung des Bedarfs ist man also in sehr guter Gesellschaft. Auch später lief es nicht anders. Der Bedarf des ersten in Serie gebauten Computers wurde massiv unterschätzt. 50 angepeilt, 2000 verkauft: https://en.wikipedia.org/wiki/IBM_650
:
Bearbeitet durch User
AFAIK wurden die ersten Rechner in der Wissenschaft unter anderem dazu verwendet, Differentialgleichungen höherer Ordnung mittels Approximationsverfahren zu lösen, weil es dafür keine direkten Lösungsverfahren/Formeln gibt. Mit Rechenmaschinen oder von Hand kommt man da nirgends hin!
Mh, hat da mal jemand konkrete Beispiele was z.B. für Statikberechnungen da von Kopf/Schieberrechnung auf frühe Rechner verlegt wurden? Ich meine, heutzutage gibts dafür ja sicher umfangreiche Softwarepakete. Aber die ersten Rechner hatten ja nur ein paar dutzend bis ein paar hundert Byte Speicher, ich vermute mal da wurden dann nur Teilberechnungen wie z.B. Diagonale via Pythagoras für ein paar Lochkarten voller X/Y-Angaben ausgelagert? Wie komplex waren die Programme?
Andreas K. schrieb: > Aber die ersten Rechner hatten ja nur ein paar dutzend bis ein paar > hundert Byte Speicher, Der Datenspeicher des Harvard Mark I: 72 x 23 Dezimalstellen. Das geht immerhin schon in Richtung 1KB. Der Programmspeicher war ein Lochband, das fällt die Kapazitätsrechnung schwerer.
Andreas K. schrieb: > Mh, hat da mal jemand konkrete Beispiele was z.B. für Statikberechnungen > da von Kopf/Schieberrechnung auf frühe Rechner verlegt wurden? > > Ich meine, heutzutage gibts dafür ja sicher umfangreiche Softwarepakete. > Aber die ersten Rechner hatten ja nur ein paar dutzend bis ein paar > hundert Byte Speicher, ich vermute mal da wurden dann nur > Teilberechnungen wie z.B. Diagonale via Pythagoras für ein paar > Lochkarten voller X/Y-Angaben ausgelagert? Wie komplex waren die > Programme? Der Klassiker unter den Computersimulationen ist das Fermi-Pasta-Ulam-Experiment (1953): http://de.wikipedia.org/wiki/Fermi-Pasta-Ulam-Experiment http://stemblab.github.io/fermi-pasta-ulam/ http://perso.ens-lyon.fr/thierry.dauxois/PAPERS/pt61_55.2008.pdf Da lief ein Runge-Kutta Verfahren (?) auf dem Rechner. Iterationen mit schrittweise Verfeinerung des Ergebnisses waren die Domäne der ersten Rechner. Nie wieder stupide in Log-Büchern wälzen. MfG,
A. K. schrieb: > Ganz ohne Rechnerei gehts aber auch nicht. Zumal die trial-and-error > Methode schon damals sehr unpraktisch gewesen wäre. Allein schon, weil > man kaum Material hatte. BooklynBridge? lieber mehr Material als zu genau rechnen, wie lange steht die schon und wurde nie für diese Lasten berechnet. Heutige Brücken sind zwar berechnet aber schon vor der Zeit alle marode weil eben nicht alles reingerechnet werden konnte? Paul Baumann schrieb: > Ich denke an mich: Ich habe kein Geld und muß daher doppelt so gut > rechnen... so gehts mir auch, wie gesagt, mein Plattenspieler von 1975 war ultra teuer aber er tuts noch, im Gegensatz zu CD Spieler. Gerüchteweise sollen auch noch Revox Bandmaschinen aus der Zeit gut laufen, nur ist es heute schwer diese Qualität zu finden.
Konrad Zuse war Bauingenieur und wollte mit seinen ersten Rechnern wiederkehrende Statikberechnungen beschleunigen und zuverlässiger machen. Da seine ersten Rechner während des 2. Weltkrieg entstanden, wurden sie in der Rüstungsinstrie eingesetzt, die auch deren Weiterentwicklung finanzierte. Was die Komplexität der möglichen Berechnung betrifft: Die Z1 und Z3 konnten bereits Gleitkommaoperationen (Addition, Subtraktion, Multiplikation, Division und Quadratwurzel) in Hardware ausführen. Im Gegensatz zu einem AVR-Controller, bei dem diese Operationen immerhin fast 1,2 kB Programmspeicher auffressen, waren sie bei den Zuse-Rechnern also direkt verfügbar und auch deutlich schneller, als wenn sie in Software realisiert worden wären. Der "Hauptspeicher" war relativ klein und bestand aus einem Satz von 64 Gleitkommaregistern. Dafür hatte der "Programmspeicher", der in Form eines Lochstreifen daherkam, keine fixe Begrenzung. Befehle für Sprünge und Schleifen gab es bei der Z1/Z3 noch nicht, was ihre Möglichkeiten schon arg einschränkte. Allerdings kam ein pfiffiger Mensch auf die Idee, dass man eine Hauptschleife um den gesamten Programmcode dadurch realisieren konnte, dass man einfach die beiden Enden des Lochstreifens aneinanderklebte. Das war dann sogar eine Schleife im wortwörtlichen Sinn :) Durch diesen Trick wurden die frühen Zuse-Maschinen sogar Turing- vollständig und damit zu vollwertigen Computern nach heutiger Definition (nur elektronisch waren sie nicht, weswegen sie von den Amis nicht als echte Computer angesehen werden). Die Rechner waren zwar nach heutigen Maßstäben sehr langsam, aber immer noch um Größenordnungen schneller als ein mit einem Rechenschieber oder einer mechanischen Rechenmaschine bewaffneter Mensch. Deswegen konnte man damit durchaus komplizierte Berechnungen durchführen, die zuvor an zu hohem Aufwand scheiterten. Nach Kriegsende wurden neben der Industrie vor allem Forschungsinstitute aller Art mit den Computern beliefert. Die dafür nötigen Geldmittel wurden wohl u.a. deswegen gerne locker gemacht, weil so ein Computer ja auch ein Prestigeobjekt erster Klasse darstellte.
Offesnsichtlich hat niemand mehr die Tabellenbuecher fuer Trigo und Logarithmen mehr gesehen. Seitenweise Zahlen mit hoher Aufloesung. Die wurden frueher von irgend jemandem berechnet, und von irgend jemandem benutzt.
Jetzt Nicht schrieb: > Offesnsichtlich hat niemand mehr die Tabellenbuecher fuer Trigo und > Logarithmen mehr gesehen. Doch, natürlich :) In der Schule kam ich noch in den Genuss der Logarithmentafeln, obwohl es zu diesem Zeitpunkt auch schon Taschenrechner gegeben hätte. Dann kam als logarithmische Komfortalternative der Rechenschieber. Erst danach waren wir reif für den Taschenrechner. Die Nichtingenieure und -wissenschaftler (also Kaufleute, Buchhalter u.ä.) verwendeten früher anstelle der Logarithmentafeln Multiplikations- tafeln, ebenfalls in Buchform. Diese Bücher hatten aber im Vergleich zu den Logarithmentafeln eine deutlich geringere Auflösung der Argumente, da die Anzahl der Tabelleneinträge quadratisch zur Anzahl der unterschiedlichen Argumentwerte wächst (bei der Logarithmentafel nur linear).
Logarithmentafeln hatten wir auch noch in der Schule. Auch im Taschenrechner-Zeitalter gab es noch lange Tabellen für Filterberechnung wie den "Saal" ISBN 3870870702 oder "Pfitzenmeier" ISBN 3800910497 die muss irgendwer mit Computerunterstützung gerechnet haben, vermutlich in Fortran programmiert. Die Rolle der Analogrechner wurde noch nicht gewürdigt, Digital kam erst später.
:
Bearbeitet durch User
Yalu X. schrieb: > Die Z1 und Z3 konnten bereits Gleitkommaoperationen (Addition, > Subtraktion, Multiplikation, Division und Quadratwurzel) in Hardware > ausführen. Ja, sowas liest man immer wieder, scheint mir aber schwer zu glauben. Die Maschine arbeitet binär mit Fließkommazahlen. Aber ich glaube mal nicht, das die eine Fließkomma-operation in "Single-Cycle" abgearbeitet hat. Eher stelle ich mir vor, das es da eine Art fest eingebauten "Mico-Code" gab, dar dann die Fließkomma-Berechnungen in vielen kleinen Schritten übernommen hat.
Peter Zz schrieb: > Aber ich glaube mal nicht, das die eine Fließkomma-operation in > "Single-Cycle" abgearbeitet hat. Wenn ein Befehl in Hardware abgearbeitet wird, dann bedeutet es nicht zwangsläufig, dass er nur einen Takt benötigt. Es bedeutet nur, dass dafür kein Mikrocode verwendet wird. Aber auch ohne Microcode können Befehle mehrere Takte benötigen. Auch kein heutiger PC-Prozessor arbeitet Fliesskommarechnungen in einem Takt ab. Add/Sub/Mul benötigen üblicherweise um die 3-5 Takte pipelined. Die Fliesskommadivision ist komplizierter und langsamer, wird aber i.d.R. trotzdem als eine FPU-Operation mit eigener Ablaufsteuerung verarbeitet, nicht per Microcode. Die Integerdivision hingegen ist nicht selten Microcode. > Eher stelle ich mir vor, das es da eine > Art fest eingebauten "Mico-Code" gab, dar dann die > Fließkomma-Berechnungen in vielen kleinen Schritten übernommen hat. Klassischer Schrittschalter: http://www.horst-zuse.homepage.t-online.de/horst-zuse-z3-html/z3-dokumentation.html
:
Bearbeitet durch User
Peter Zz schrieb: > Aber ich glaube mal nicht, das die eine Fließkomma-operation in > "Single-Cycle" abgearbeitet hat. Hier ist eine Tabelle der Befehlsausführungszeiten in Taktzyklen: http://de.wikipedia.org/wiki/Zuse_Z3#Funktionsweise Gerade für die Quadratwurzel wurde ein ziemlich trickreicher Algorithmus eingesetzt, weswegen diese Operation nur wenig länger als eine Division oder Multiplikation dauert. Ob man die Implementierung der Rechenoperationen als hartverdrahtet oder mikroprogrammiert ansieht, ist sicher auch etwas Geschmackssache. Aber auch die Realisierung mittels einer Mikroprogrammsteuerung wäre aus damaliger Sicht ein Novum gewesen.
Die Verwendung von Schrittschaltwerken ist dokumentiert. Wenn man da jeweils einen Ladung Dioden dranhängt, dann ist der Sequenzer mit festem Ablauf fertig. Als Mikroprogramm würde ich das nicht bezeichnen, entsprechende Sequenzer finden sich vielfach in CPUs, als Teil der Ablaufsteuerung fest verdrahteter Operationen.
:
Bearbeitet durch User
Andreas K. schrieb: > Was genau haben diese Maschinen gemacht (Beispiel(pseudo-)code? Hier kannst du dir einen guten Überblick über die damalige Technik verschaffen. http://www.robotrontechnik.de/
wow, interessante Links sind hier dabei! Und als die analogen Rechner nicht mehr gut/schnell genug waren, dann hatte so ein Typ in USA (natuerlich mal wieder fuers Militaer) eine Idee, wie man solche Sachen in digital machen koennte: http://de.wikipedia.org/wiki/Cordic bzw. http://en.wikipedia.org/wiki/CORDIC Und das kennen einige hier im Forum, die mit FPGAs/ASICs rummachen muessen auch heute noch ganz gut. Die ganze Computerei ist also zu einem riesigen Teil vom Militaer getrieben. Und auch das Internet hat seine Wurzeln im militaerischen Bereich. Die Tatsache, dass ich diese Zeilen hier schreiben kann, kann man getrost als "Unfall" verbuchen...
Hier mal ein "Supercomputer" aus den 40ern. Das ist ein Feuerleitrechner aus einem Schlachtschiff der italienischen Marine. Gewicht um die 10t. Der steht im Marinemuseum in Venedig.
:
Bearbeitet durch User
> Als Mikroprogramm würde ich das nicht bezeichnen,
Vor allem, nachdem Maurice Wilkes das Mikroprogramm erst 1950 rum
erfunden hat ;)
Zu einem Mikroprogramm gehören eigentlich auch echte Mikro-Opcodes und
vor allem ein Sequencer mit einer Art PC, der über Bedingungen dann an
verschiedene Stellen im Mikroprogramm verzweigen kann.
A. K. schrieb: > Analog zur den berühmten 640KB von Bill Gates gibt es auch andere schöne > Zitate, von denen das berühmteste (Watson, IBM) wohl ein Fake ist. Ich schreib' das nicht zum ersten Mal: Das "berühmte" 640KB-Zitat von Gates ist auch ein Fake, jedenfalls wenn man es so versteht, wie es einem üblicherweise unter die Nase gerieben wird. Das ist ziemlich offensichtlich, wenn man weiß, daß der 8086 (und somit auch der 8088) nur 1024KB addressieren kann und daß die weitere Einschränkung auf zusammenhängend 640KB durch das Hardwaredesign des IBM-PC von IBM vorgegeben war, nicht von Microsoft. MSDOS konnte damals bei passender Hardware problemlos die kompletten 1 MB verwenden. Ich habe seinerzeit ein wenig mit frühen Nixdorf-PC herumgespielt, das waren nicht IBM-PC-kompatible MSDOS-Rechner, die hatten dieses Limit nicht. M.a.W. es liegt auf der Hand, daß er sich da, wenn überhaupt, bestenfalls für für eine in der Rückschau etwas unglückliche Hardwareentscheidung eines - damals - sehr viel potenteren Geschäftspartners zu rechtfertigen versuchte und ganz sicher nicht eine eigene Entscheidung oder Einschätzung von sich gab. Wenn überhaupt In http://www.computerworld.com/article/2534312/operating-systems/the--640k--quote-won-t-go-away----but-did-gates-really-say-it-.html vertritt jemand - etwas spät, 2008 - eine ähnliche These. Ansonsten, Stichwort "Computer", mich wundert, daß noch niemand den relevanten einführenden Absatz aus http://de.wikipedia.org/wiki/Computer zitiert hat: "Der englische Begriff computer, abgeleitet vom Verb (to) compute (aus Lateinisch: computare „berechnen“), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter." Oder aus der englischen Fassung 'The first use of the word “computer” was recorded in 1613 in a book called “The yong mans gleanings” by English writer Richard Braithwait I haue read the truest computer of Times, and the best Arithmetician that euer breathed, and he reduceth thy dayes into a short number. It referred to a person who carried out calculations, or computations, and the word continued with the same meaning until the middle of the 20th century. '
Jetzt Nicht schrieb: > Offesnsichtlich hat niemand mehr die Tabellenbuecher fuer Trigo und > Logarithmen mehr gesehen. Seitenweise Zahlen mit hoher Aufloesung. Die > wurden frueher von irgend jemandem berechnet, und von irgend jemandem > benutzt. Man sollte erwähnen, daß es vor den elektronischen Computern nicht nur Tabellenwerke und Rechenenschieber gab. Ein Kollege hatte z.B. eine - leider defekte - Mercedes-Euklid aus den 30ern in seinem Büro herumstehen, ein beeindruckendes Teil, das automatisch dividieren konnte. http://www.rechnerlexikon.de/artikel/Mercedes_Euklid_Geschichte http://www.rechenmaschinen-illustrated.com/pictures_euklid.htm Das Bonner http://de.wikipedia.org/wiki/Arithmeum hat tausende von Geräten dieser Bauart herumstehen. Leider ist die Webpräsenz etwas unterbelichtet ... Zur "IBM Selective Sequence Electronic Calculator" <http://blog.stuttgarter-zeitung.de/die-zukunft-von-gestern/2009/03/06/bei-ibm-am-dachboden/> steht in http://en.wikipedia.org/wiki/IBM_SSEC "The first application of the SSEC was calculating the positions of the moon and planets, known as Ephemeris. Each position of the moon required about 11,000 additions, 9,000 multiplications, and 2,000 table look-ups, which took the SSEC about seven minutes. This application used the machine for about six months; by then other users were lined up to keep the machine busy." Mit der Mercedes dürfte das noch etwas länger gedauert haben. :-) Zur Abrundung: http://en.wikipedia.org/wiki/Ephemeris und vor allem http://www.nasonline.org/publications/biographical-memoirs/memoir-pdfs/brown-ernest-w.pdf Für die Berechnung der 1919 publizierten, rund 600 Seiten "Tables of the Motion of the Moon" hat Ernest William Brown rund 30 Jahre gebraucht.
Vermutlich zu dem letzteren Link habe ich mal gelesen, dass jemand diese Berechnung mit Mathematik-Software nachgerechnet hat, und nur ein paar unbedeutende Rechenfehler entdeckt hat.
@ Christoph Kessler (db1uq) (christoph_kessler) >Vermutlich zu dem letzteren Link habe ich mal gelesen, dass jemand diese >Berechnung mit Mathematik-Software nachgerechnet hat, und nur ein paar >unbedeutende Rechenfehler entdeckt hat. Und die waren vermutlich der FDIV Bug vom Pentium ;-)
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.