Hallo zusammen, das Thema Neuromorphic Computing (bzw. In-Memory Computing) ist aktuell ein ziemlich heißes Eisen in der Forschung. Grob gesagt geht es darum eine dem Gehirn nachempfundene Rechenarchitektur zu entwickeln. Diese wird in Analogtechnik realisiert, die Berechnung läuft nach den Kirchoffschen Gesetzen ab. Typischerweise wird eine Crossbar-Struktur verwendet mit programmierbaren Bauteilen (z.B. Memristoren). Vorteile sind u.a.: weniger Speicheroperationen im Vergleich zu von Neumann-Architektur, hohe Parallelisierbarkeit und damit schnellere Laufzeit, geringere Leistungsaufnahme, Ausfallsicherheit (falls ein Bauteil ausfällt, dann ist nicht die ganze Schaltung defekt). So zumindest die Theorie. Als Anwendungsgebiete gibt es neuronale Netze, aber nicht nur. Als jemand, der sich mit Schaltungstechnik nicht auskennt, stellen sich mir einige Fragen. Zunächst einmal ist mir nicht klar, wo genau der Unterschied zu Analogrechnern besteht. Auch damit ließe sich ja die Grundoperation von neuronalen Netzen (Matrix-Vektor Multiplikation, y=W*x+b) realisieren. Warum werden Analogrechner hier nicht verwendet? Gibt es einen Nachteil z.B. im Hinblick auf Halbleiterprozesse, Fläche, Verbrauch? Eine weitere Frage stellt sich wenn man versucht die Struktur von neuronalen Netzen auf die Rechenarchitektur abzubilden. In CNNs kommen ja meistens Faltungsoperationen zum Einsatz. Wie werden diese auf die Rechenarchitektur abgebildet? Mir ist das nicht klar. Vielleicht besteht der Denkfehler auch schon darin, neuronale Netze eins zu eins auf die Rechenarchitektur abbilden zu wollen ...
milestone schrieb: > Eine weitere Frage stellt sich wenn man versucht die Struktur von > neuronalen Netzen auf die Rechenarchitektur abzubilden. In CNNs kommen > ja meistens Faltungsoperationen zum Einsatz. Wie werden diese auf die > Rechenarchitektur abgebildet? Mir ist das nicht klar. Vielleicht besteht > der Denkfehler auch schon darin, neuronale Netze eins zu eins auf die > Rechenarchitektur abbilden zu wollen ... Mann, lies die Grundlagenliteratur zu KNN aus den Neunzigern, selbst Franzis hat dazu Bücher in die ramschkiste geworfen. > programmierbaren Bauteilen (z.B. Memristoren) Memristoren sind das Steckenpferd von Lua Chua, aber bis heute nicht wirklich real produziert wurden, eben ein beispiel von "erare humanum est". Aber ein grund für die TU Dresden u.a. öffentliche Fördergelder billig abzugreifen. https://hackaday.com/2018/08/23/memristor-may-be-fake-news/ Beitrag "Memristor Verständnisproblem" https://www.heise.de/newsticker/meldung/Memristoren-von-SK-Hynix-wohl-fruehestens-2015-1896701.html
Als Memory-Computing kenn ich eigendlich was anderes, da wird das ganze Programm und alle seine Daten im Hauptspeicher hehalten, was die Anwendung massiv beschleunigt, da ja nix mehr von Platte nachgeladen werden muß. Künstliche Intelligenz, gerade Sprachsynthese ist was absolut interessantes. Schon in den 50iger Jahren des voherigen Jahrhunderts gab es Versuche Sprache künstlich zu erzeugen. Da wurden noch mittels Klaviatur Rausch und stimmhafte Tongeneratoren durch geschulte "Kalaviervirtuosen" so kombiniert, das Sprachähnliche Laute entstanden. Es entanden Geräte, die mittels Widerstandsdekaden und Motordrehwähler genau das versuchten, was Du ansprichst, nämlich nach kirchhoffschen Gesetzen bestimmte Spannungsfolgen zu erzeugen. Es gab, gerade in der Mustererkennung große Fortschritte, die aber massiv von der schlechten Technik, wie langsame Rechner und wenig Speicher behindert wurden, so daß es lange Zeit ruhig um KI wurde. Jetzt tritt gerad ne Wende ein! Es gibt Rechner satt und Speicher satt, und die Entwicklung läuft überall an. Wenn die Modelle groß genug sein werden, wird die KI stark. Und wenn dann das Quantencomputing gesellschaftsfähig geworden ist, können wir in die Zukunft schsauen... Stell Dir vor, Du hast nen Rechner, der dauernd Zufallsbuchstaben würfelt. Wenn wir jezt nen Entscheider haben, der aus dem Ganzen Kram ver- nünftige Texte wahnsinnig schnell heraussucht, werden nich nur alles Geschriebene lesen können, sondern auch alles,was noch geschrieben wird!! :-O :-P mfg
Lotta . schrieb: > Als Memory-Computing kenn ich eigendlich was anderes, > da wird das ganze Programm und alle seine Daten im Hauptspeicher > hehalten, Der TO hat wohl News Artikel wie diesen hier gelesen (oder etwas ähnliches): https://www.allaboutcircuits.com/news/researchers-develop-transistor-free-compute-in-memory-architecture/ Da steht auch drin, wieso seit Jahren an in-memory Architekturen geforscht wird, sowohl als analog wie auch als digital Rechner (z. B. Micron)
Geil!! nicht schlecht. Mit ferromagnetischen Dioden maximal parallel... das gibts wohl schon ne Weile... Da hab ich bei meinem Professor in seiner Lib nur Anfänge lesen können. Ob dabei "Lichtgeschwindigkeit" erreicht wird? Oder "nur" die Geschwindigkeit und vor allen die Komplexität eines Gehirnes? mfg
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.