Hallo, ich bin mir nicht sicher ob ich hier richtig bin mit meiner Frage. Ich würde gerne wissen, wie ihr den Verlauf der steigenden Transistorzahl der zukünftigen Prozessoren in MOSFET-Technologie seht. Und wo ihr die obere Grenze vermutet(Mir ist das Mooresche Gesetz bekannt). Und wann man auf neue Technologie wie zB. Kohlenstoffnanoröhren zurück greifen wird. Vielleicht hat ja sogar jemand Zahlen in welchen Größenordnungen man ist und es möglich ist vorzudringen. Danke Andre
Andre S. schrieb: > Vielleicht hat ja sogar > jemand Zahlen in welchen Größenordnungen man ist und es möglich ist > vorzudringen. Die Wahrsagerinnen an Jahrmärkten können Dir da sicher weiterhelfen.
Es geht mehr um eine allgemeine Meinung und Prognose. Ohne gewisses Vorausschauen in die Zukunft kommen dann qualifizierte Antworten wie: Johnny B. schrieb: > Die Wahrsagerinnen an Jahrmärkten können Dir da sicher weiterhelfen. Es gibt Quellen wie die "International Technology Roadmap for Semiconductors" die Ihre Vorstellungen zusammen fassen und diese preis-geben. Vielleicht sind ja noch andere Referenz-Quellen bekannt die sich mit solchen Themen beschäftigen.
Wie viele Transistoren passen in ein Atom?
Stefan Helmert schrieb: > Wie viele Transistoren passen in ein Atom? Laut Intel sind's 47 Millionen Transistoren :P http://www.intel.com/cd/corporate/techtrends/emea/deu/385449.htm
Ich kenne keine Zahlen, aber wir sind mitten in der Prozessoren-Kriese. Weil die Geschwindigkeit sich mit jetziger Technologie kaum erhöhen lässt baut man Vielkerner. Der Mensch, als Partner des Computers, ist aber bestenfalls ein 1,5-Kerner. Was nützen also 16 Kerne wenn mein Dickschädel davor sitzt?
Maximilian K. schrieb: > Ich kenne keine Zahlen, aber wir sind mitten in der Prozessoren-Kriese. > Weil die Geschwindigkeit sich mit jetziger Technologie kaum erhöhen > lässt baut man Vielkerner. Der Mensch, als Partner des Computers, ist > aber bestenfalls ein 1,5-Kerner. Was nützen also 16 Kerne wenn mein > Dickschädel davor sitzt? Hallo Maximilian, ich denke das ist eine Frage der Parallelisierung, man kann die Aufteilung der Aufgaben manuelle verteilen oder von Compilern diese Aufgabe übernehmen lassen. Die Frage die sich aber stellt, bis wohin die Integrationsdichten mit welcher Technologie möglich sind und welche Leistungen erwartet werden können.
Maximilian K. schrieb: > Der Mensch, als Partner des Computers, ist > aber bestenfalls ein 1,5-Kerner. Was nützen also 16 Kerne wenn mein > Dickschädel davor sitzt? Beschickst du die CPU-Kerne einzeln mit Instruktionen? Andreas
Andreas Ferber schrieb: > Beschickst du die CPU-Kerne einzeln mit Instruktionen? In vielen Fällen schon. Der Compiler, der eine beliebige Software von single-threaded auf 32fach multi-threaded umcompiliert, der ist m.W. noch nicht erfunden worden.
Andre S. schrieb: > Ich denke das ist eine Frage der Parallelisierung, man kann die > Aufteilung der Aufgaben manuelle verteilen oder von Compilern diese > Aufgabe übernehmen lassen. Der Nutzen von Parallelisierung ist recht begrenzt für langfristige Leistungssteigerung. Über die letzten 30 Jahre kennen wir eine Verdoppelung der Prozessorleistung etwa alle 2-3 Jahre. Wenn also die aktuellen Kerne nicht oder nur noch wenig leistungsfähiger werden, dann müssen wir in Zukunft alle 2-3 Jahre die Anzahl Kerne verdoppeln. Bei aktuell 4 Kernen sind wir also 2020 bei irgendwo zwischen 32 und 128 Kernen. Eine Berechnung auf n Prozessoren dauert: t = (Parallelisierbarer Anteil)/n + (Nicht parallelsierbarer Anteil) + Kommunikation. Nun kann n noch so gross sein, irgendwann ist keine Steigerung mehr möglich. Wenn nur schon 1 Prozent der Berechnung serieller Natur ist (z.B. Daten verteilen), tritt ab rund 100 Prozessoren selbst bei Verdoppelung keine signifikante Leistungssteigerung ein. (Selbst unendlich viele Kerne bringen einen Speed-up von höchstens 100!) Und das gilt wohlgemerkt nur für Berechnungen, die sich extrem parallelisieren lassen, die keine anderweitigen Flaschenhälse aufweisen (Speicher), die nicht warten müssen, die nur wenige Resultate kommunizieren müssen etc. Für typische PC-, Server- oder Embedded-Prozesse sieht es natürlich noch viel schlimmer aus. Parallelisierung bringt also nur begrenzt etwas. Für praktische Anwendungen ist bei etwa 10 Kernen Schluss, egal wie gut der Compiler ist.
Andre S. schrieb: > Die Frage die sich aber stellt, bis wohin die Integrationsdichten mit > welcher Technologie möglich sind und welche Leistungen erwartet werden > können. Am besten erwartet man überhaupt nichts, denn Forschungsziele sind nicht vorherseh- oder planbar. Hier ein gutes Beispiel; vor einigen wenigen Jahrzehnten dachte ein gewisser Herr Turing noch, dass Computer bis zum Jahr 2000 so intelligent wie ein Mensch sein werden. Nun sind wir schon 10 Jahre drüber und Computer sind immernoch doof wie Bohnenstroh (schnell sind sie allerdings). http://de.wikipedia.org/wiki/Turing-Test
Die Frage der Parallelisierung kommt erst auf einer höheren Entwicklungsebene auf. Grund für meine Frage war ein Artikel der EMPA, der einen Vergleich zwischen einem Pentium4 und der zukünftiger möglichen Integrationsdichten in der Nanotechnologie zeigt. http://www.empa.ch/plugin/template/empa/227/21978/---/l=1
"Interagtionsdichte"? Meinst du Interaktionsdichte? Google spuckt nur Ergebnisse zu Psychologie aus. ;-)
Natürlich muss es Integrationsdichte heißen..;) Aber interessant wäre es schon wie man einen Pentium4 aus psychologischer betrachtet.
Johnny B. schrieb: > Hier ein gutes Beispiel; vor einigen wenigen Jahrzehnten dachte ein > gewisser Herr Turing noch, dass Computer bis zum Jahr 2000 so > intelligent wie ein Mensch sein werden. Nun sind wir schon 10 Jahre > drüber und Computer sind immernoch doof wie Bohnenstroh (schnell sind > sie allerdings). Immerhin schlagen sie den Schachweltmeister, steuern völlig selbständig Drohnen, simulieren in Computerspielen leistungsfähige Gegner, kontrollieren Rechtschreibung, berechnen Baustatik oder simulieren elektronische Schaltkreise. Sie tun es zwar auf eine andere Art, aber sie übernehmen viele Aufgaben, die vor 50 Jahren ganz alleine gut ausgebildeten (!!) Menschen vorbehalten waren. So ganz unrecht hatte der Herr Turing in gewisser Weise also doch nicht.
A. K. schrieb: >> Beschickst du die CPU-Kerne einzeln mit Instruktionen? > In vielen Fällen schon. Der Compiler, der eine beliebige Software von > single-threaded auf 32fach multi-threaded umcompiliert, der ist m.W. > noch nicht erfunden worden. Auch der Programmierer der das mit beliebiger Software macht ist noch nicht erfunden, klar. Manche Software ist einfach nicht sinnvoll (massiv) parallelisierbar. Aber inwiefern sollte die Multitasking-Fähigkeit des Anwenders etwas damit zu tun haben, ob Mehrkerner sinnvoll genutzt werden können oder nicht? Andreas
P. M. schrieb: > Für typische PC-, Server- oder > Embedded-Prozesse sieht es natürlich noch viel schlimmer aus. > Parallelisierung bringt also nur begrenzt etwas. Für praktische > Anwendungen ist bei etwa 10 Kernen Schluss, egal wie gut der Compiler > ist. Für PC-Anwendungen gilt heute in vielen Fällen, dass aktuelle CPU-Kerne schlicht schnell genug sind, z.B. bei Office-Anwendungen ist IMO kein nennenswert steigender Leistungsbedarf mehr absehbar. Einzig Backgroundtasks (Indizierung für Desktopsuche oder die ach so wichtige Animation auf dem Desktophintergrund etc.) kommen dazu, deren Parallelisierung ist aber quasi automatisch schon eingebaut. Bedarf für schnellere CPUs kommt im Officebereich eigentlich nur noch dadurch zustande, dass derzeit dort stark zentralisiert wird, weg von Desktops hin zu Terminalservern und Thin Clients. Bei Terminalservern ist die Parallelisierung aber nahezu "geschenkt", die einzelne Word-Instanz kann zwar vielleicht nur einen Kern nutzen, dafür laufen aber zig Word-Instanzen gleichzeitig. Dasselbe gilt für Cloud Computing, mit zig virtuellen Maschinen die sich auf die verfügbaren CPU-Kerne verteilen. Bei vielen Serveranwendungen (Web-Anwendungen z.B.) ist eine Parallelisierung auch kein Problem, Webserver als Beispiel verarbeiten schon seit eh und je teilweise hunderte Requests parallel. Die gemeinsame Datenbank (die "Kommunikation") ist in aller Regel IO-Bound, nicht CPU-Bound, würde also von schnelleren CPUs (oder massiver Parallelisierung) nur wenig profitieren. Dafür kann man gerade bei Webanwendungen Queryresultate oft sehr effizient cachen, damit wird der Flaschenhals Datenbank umgangen, und man kann die wieder recht einfach sogar über ganze Serverfarmen parallelisieren. Controller-Bereich und manche rechenintensive Anwendungen sind ein anderes Thema, aber gerade im Serverbereich kann man unterm Strich meist auch mit sehr vielen Kernen sinnvoll etwas anfangen. Andreas
Andreas Ferber schrieb: > Für PC-Anwendungen gilt heute in vielen Fällen, dass aktuelle CPU-Kerne > schlicht schnell genug sind, z.B. bei Office-Anwendungen ist IMO kein > nennenswert steigender Leistungsbedarf mehr absehbar. Die Frage ist, wie sehr das Angebot eine Nachfrage auslöst. Für Office hat man wohl seit Ende der 80er für 98% der Aufgaben genug Power und seit Ende der 90er auch für komplexe Layoutaufgaben. Trotzdem entwickelt sich die Rechenleistung brachial weiter. Persönlich sehe ich ehrlich gesagt nicht genau, warum. Für ein Gerät oder Programm kauft doch niemand ein Ersatz, so lange es noch läuft oder nichts wesentlich besseres auf dem Markt ist. Und MS Office beispielsweise hat sich seit 15 Jahren für 80% der Heim- und Büroanwender nicht verbessert.
Man kann Benutzeroberflächen so gestalten, dass man erhebliche zusätzliche Rechenleistung benötigt um das gleiche wie früher in gleicher Zeit erledigen zu können (Microsofts Ansatz). Man kann perfekt in stromsparender spezialisierter Hardware gelöste Aufgaben in den dafür eher mässig bis völlig ungeeigneten stromfressenden Hauptproprozessor verlagern (Intels Ansatz). Dann kommt Videostreaming hinzu. Während Standard-TV mit jedem Prozessor heute in Echtzeit verarbeitbar ist, sieht es bei Blueray und HDTV schon etwas anders aus. Es gibt mehr und mehr Leute, die solche Streams nicht nur ansehen, sondern auch produzieren. Das kann man im Prinzip perfekt parallelisieren, nur ob die Entwickler der betreffenden Software mit dieser Aufgabe zurande kommen wäre noch die Frage. Man kann Rechner erheblich verlangsamen, indem man Frontends in Java schreibt. Damit macht man erfahrungesgemäss jede Kiste zu Schnecke, nicht zuletzt weil sich das perfekt mit dem folgenden Punkt kombiniert. Und last not least werden Windows-Rechner auch dann von Jahr zur Jahr langsamer, wenn man kein einziges Anwenderprogramm auswechselt. Es reicht ein regelmässiger Update des Virenscanners.
A. K. schrieb: > Man kann Benutzeroberflächen so gestalten, dass man erhebliche > zusätzliche Rechenleistung benötigt um das gleiche wie früher in > gleicher Zeit erledigen zu können (Microsofts Ansatz). Also genau genommen ist dies nicht der Ansatz von Microsoft, sondern vielmehr hat Apple die Branche im grossen Stil in diese Richtung gebracht. Urvater davon war der Macintosh. http://de.wikipedia.org/wiki/Macintosh Gefällt einem diese Entwicklung nicht, sollte man also eher auf Apple einschlagen und nicht auf Nachahmer wie Microsoft und alle anderen. Man muss auch bedenken, dass die Massentauglichkeit der Computer erst mit diesen aufwändigen Bedieneroberflächen erreicht wurde, welche halt auch viel Rechenpower voraussetzen.
Andre S. schrieb: > Hallo, > > ich bin mir nicht sicher ob ich hier richtig bin mit meiner Frage. > > Ich würde gerne wissen, wie ihr den Verlauf der steigenden > Transistorzahl der zukünftigen Prozessoren in MOSFET-Technologie seht. > Und wo ihr die obere Grenze vermutet(Mir ist das Mooresche Gesetz > bekannt). Und wann man auf neue Technologie wie zB. > Kohlenstoffnanoröhren zurück greifen wird. Vielleicht hat ja sogar > jemand Zahlen in welchen Größenordnungen man ist und es möglich ist > vorzudringen. Kleine Transitoren auf einen Chip zu packen ist nur ein Weg zu leistungsfähigere Elektronik. ein weitere ist es , die verbindungen zwischen den IC's zu verkleineren, also die IC -Die dichte zu erhöhen (z:B. SoC, Multi-Die, 0102 SMD). Oder unsere winzigen Geräte werden eben wieder etwas größer. Die heutige Integrationsdichte markiert durch die hohe Energiedichte (Kühlung) schon jetzt ein Limit. Mikrocontroller insbesonders LowPower werden nicht ohne Grund in gröberern Strukturen gefertigt. Aus meiner Sicht machen Kohlenstoffnanoröhren keinen Sinn. Wenn mehr Tranistoren benötigt werden, dann als Massen-Speicher und denn kann man ach drahtlos anbinden um kleine Handhelds zur konstruieren.
Johnny B. schrieb: > Also genau genommen ist dies nicht der Ansatz von Microsoft, sondern > vielmehr hat Apple die Branche im grossen Stil in diese Richtung > gebracht. Urvater davon war der Macintosh. Ja, aber hier dachte ich eher an Vista/Win7 vs. XP.
Fpga Kuechle schrieb: > Die heutige Integrationsdichte markiert durch die hohe Energiedichte > (Kühlung) schon jetzt ein Limit. Mikrocontroller insbesonders LowPower > werden nicht ohne Grund in gröberern Strukturen gefertigt. Damit Lowpower-Mikrocontroller nicht so heiss werden???
>Kleine Transitoren auf einen Chip zu packen ist nur ein Weg zu >leistungsfähigere Elektronik. ein weitere ist es , die verbindungen >zwischen den IC's zu verkleineren, also die IC -Die dichte zu erhöhen >(z:B. SoC, Multi-Die, 0102 SMD). Oder unsere winzigen Geräte werden eben >wieder etwas größer. Davon werden sie aber nicht billiger. Die Preise heutiger ICs, egal ob Flash oder Controller, sind vor allem deswegen gesunken, weil die Siliziumfläche gesunken ist. >Die heutige Integrationsdichte markiert durch die hohe Energiedichte >(Kühlung) schon jetzt ein Limit. Die höhere Integrationdichte bzw kleinere Strukturen reduziert erstmal auch die Stromaufnahme, weild die Kapazitäten kleiner werden. . Das grössere Problem als die Wärmeabführung ist wohl eher, dass viele Anwendungen heute Batteriebetrieben sind. >Mikrocontroller insbesonders LowPower >werden nicht ohne Grund in gröberern Strukturen gefertigt. Der Grund ist meistens, dass es keinen sinn macht, weil man nun mal auch 144 Pins anschliessen können muss. Bei einem 0,5mm * 0,5mm grossen Die ist das schwierig. Gruss Axel
Axel Laufenberg schrieb: > Der Grund ist meistens, dass es keinen sinn macht, weil man nun mal auch > 144 Pins anschliessen können muss. Bei einem 0,5mm * 0,5mm grossen Die > ist das schwierig. Ausserdem kommen da irgendwann auch die Grenzen der Separationstechnik. Man muss den Wafer ja irgendwie auch noch in die einzelnen Dies zerteilen können. AFAIK wird z.B. bei einfachen RFID-Chips heutzutage die minimal mögliche Größe im wesentlichen dadurch definiert. Andreas
Hallo Axel, so allgremein wie Du das beschreibst stimmt das leider nicht Axel Laufenberg schrieb: >>Kleine Transitoren auf einen Chip zu packen ist nur ein Weg zu >>leistungsfähigere Elektronik. ein weitere ist es , die verbindungen >>zwischen den IC's zu verkleineren, also die IC -Die dichte zu erhöhen >>(z:B. SoC, Multi-Die, 0102 SMD). Oder unsere winzigen Geräte werden eben >>wieder etwas größer. > Davon werden sie aber nicht billiger. Die Preise heutiger ICs, egal ob > Flash oder Controller, sind vor allem deswegen gesunken, weil die > Siliziumfläche gesunken ist. Der Preis ist von mehreren Faktoren abhängig und ferner ist die Siliziumfläche nicht generall kleiner geworden. -für einen 8 bit CPU wie z80 mit seinen paar Tausend Transistoren brauchte man auch in Grober Technik nicht die Fläche eines multimillionen transistorsPentium. Hier sollten quadratmilimeter gegen quadratzenzimeter stehen -schon früher hies es, das das teuereste am IC das Gehäuse ist. Das ist natürlich auch eine pauschale Aussage, aber die Kosten der Standard-IC's werden nun mal nicht allein vom Silizium bestimmt. Die Kostenersparniss is nicht zuletzt dadursch entstanden, das 1 GByte nicht als Speicherkarte mit dutzenden Gehäusen, Platinenmaterial, Treiber-IC, Steckverbinder aufbauen muß, sondern das locker in ein IC-Gehäuse bekommt. Atsrnomisch sind bisher die Investkosten für eine High-End Fab, die Ausrüstung für kl. Strukturbreiten deutlich preiswerter. >>Die heutige Integrationsdichte markiert durch die hohe Energiedichte >>(Kühlung) schon jetzt ein Limit. > Die höhere Integrationdichte bzw kleinere Strukturen reduziert erstmal > auch die Stromaufnahme, weild die Kapazitäten kleiner werden. . Das > grössere Problem als die Wärmeabführung ist wohl eher, dass viele > Anwendungen heute Batteriebetrieben sind. Neben den Kaps stell(t)en Leckströme die Hauptursache für den hohen Energieverbrauch. Die steigen mit kl. Strukturbreite. Kapazitäten werden auch nicht zwangsläufig kleiner, zwar verringert sich die Fläche, aber auch der Abstand zw. den geladenenen Flächen. Hier ist nicht die Strukturbreite entscheidend, sondern die Materialen. wie z.B High-k Dieelektrika (gegen Leckströme) und low-K Dielektrika (kleinere Kaps). MfG,
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.