Forum: Analoge Elektronik und Schaltungstechnik Neuromorphic Computing / In-Memory Computing - was hat es damit auf sich?


von milestone (Gast)


Lesenswert?

Hallo zusammen,

das Thema Neuromorphic Computing (bzw. In-Memory Computing) ist aktuell 
ein ziemlich heißes Eisen in der Forschung. Grob gesagt geht es darum 
eine dem Gehirn nachempfundene Rechenarchitektur zu entwickeln. Diese 
wird in Analogtechnik realisiert, die Berechnung läuft nach den 
Kirchoffschen Gesetzen ab. Typischerweise wird eine Crossbar-Struktur 
verwendet mit programmierbaren Bauteilen (z.B. Memristoren). Vorteile 
sind u.a.: weniger Speicheroperationen im Vergleich zu von 
Neumann-Architektur, hohe Parallelisierbarkeit und damit schnellere 
Laufzeit, geringere Leistungsaufnahme, Ausfallsicherheit (falls ein 
Bauteil ausfällt, dann ist nicht die ganze Schaltung defekt). So 
zumindest die Theorie. Als Anwendungsgebiete gibt es neuronale Netze, 
aber nicht nur.

Als jemand, der sich mit Schaltungstechnik nicht auskennt, stellen sich 
mir einige Fragen. Zunächst einmal ist mir nicht klar, wo genau der 
Unterschied zu Analogrechnern besteht. Auch damit ließe sich ja die 
Grundoperation von neuronalen Netzen (Matrix-Vektor Multiplikation, 
y=W*x+b) realisieren. Warum werden Analogrechner hier nicht verwendet? 
Gibt es einen Nachteil z.B. im Hinblick auf Halbleiterprozesse, Fläche, 
Verbrauch?

Eine weitere Frage stellt sich wenn man versucht die Struktur von 
neuronalen Netzen auf die Rechenarchitektur abzubilden. In CNNs kommen 
ja meistens Faltungsoperationen zum Einsatz. Wie werden diese auf die 
Rechenarchitektur abgebildet? Mir ist das nicht klar. Vielleicht besteht 
der Denkfehler auch schon darin, neuronale Netze eins zu eins auf die 
Rechenarchitektur abbilden zu wollen ...

von Kalten Kaffe kippt man weg (Gast)


Lesenswert?

milestone schrieb:
> Eine weitere Frage stellt sich wenn man versucht die Struktur von
> neuronalen Netzen auf die Rechenarchitektur abzubilden. In CNNs kommen
> ja meistens Faltungsoperationen zum Einsatz. Wie werden diese auf die
> Rechenarchitektur abgebildet? Mir ist das nicht klar. Vielleicht besteht
> der Denkfehler auch schon darin, neuronale Netze eins zu eins auf die
> Rechenarchitektur abbilden zu wollen ...

Mann, lies die Grundlagenliteratur zu KNN aus den Neunzigern, selbst 
Franzis hat dazu Bücher in die ramschkiste geworfen.

> programmierbaren Bauteilen (z.B. Memristoren)
Memristoren sind das Steckenpferd von Lua Chua, aber bis heute nicht 
wirklich real produziert wurden, eben ein beispiel von "erare humanum 
est". Aber ein grund für die TU Dresden u.a.  öffentliche Fördergelder 
billig abzugreifen.

https://hackaday.com/2018/08/23/memristor-may-be-fake-news/
Beitrag "Memristor Verständnisproblem"
https://www.heise.de/newsticker/meldung/Memristoren-von-SK-Hynix-wohl-fruehestens-2015-1896701.html

von Lotta  . (mercedes)


Lesenswert?

Als Memory-Computing kenn ich eigendlich was anderes,
da wird das ganze Programm und alle seine Daten im Hauptspeicher
hehalten, was die Anwendung massiv beschleunigt, da ja nix mehr
von Platte nachgeladen werden muß.

Künstliche Intelligenz, gerade Sprachsynthese ist was absolut
interessantes.
Schon in den 50iger Jahren des voherigen Jahrhunderts gab es Versuche
Sprache künstlich zu erzeugen.
Da wurden noch mittels Klaviatur Rausch und stimmhafte Tongeneratoren
durch geschulte "Kalaviervirtuosen" so kombiniert, das Sprachähnliche
Laute entstanden.
Es entanden Geräte, die mittels Widerstandsdekaden und Motordrehwähler
genau das versuchten, was Du ansprichst, nämlich nach kirchhoffschen
Gesetzen bestimmte Spannungsfolgen zu erzeugen.
Es gab, gerade in der Mustererkennung große Fortschritte, die aber
massiv von der schlechten Technik, wie langsame Rechner und wenig 
Speicher
behindert wurden, so daß es lange Zeit ruhig um KI wurde.

Jetzt tritt gerad ne Wende ein! Es gibt Rechner satt und Speicher satt,
und die Entwicklung läuft überall an.
Wenn die Modelle groß genug sein werden, wird die KI stark.
Und wenn dann das Quantencomputing gesellschaftsfähig geworden ist,
können wir in die Zukunft schsauen...

Stell Dir vor, Du hast nen Rechner, der dauernd Zufallsbuchstaben 
würfelt.
Wenn wir jezt nen Entscheider haben, der aus dem Ganzen Kram ver-
nünftige Texte wahnsinnig schnell heraussucht, werden nich nur
alles Geschriebene lesen können, sondern auch alles,was noch geschrieben 
wird!!
:-O :-P

mfg

von Christoph Z. (christophz)


Lesenswert?

Lotta  . schrieb:
> Als Memory-Computing kenn ich eigendlich was anderes,
> da wird das ganze Programm und alle seine Daten im Hauptspeicher
> hehalten,

Der TO hat wohl News Artikel wie diesen hier gelesen (oder etwas 
ähnliches): 
https://www.allaboutcircuits.com/news/researchers-develop-transistor-free-compute-in-memory-architecture/

Da steht auch drin, wieso seit Jahren an in-memory Architekturen 
geforscht wird, sowohl als analog wie auch als digital Rechner (z. B. 
Micron)

von Lotta  . (mercedes)


Lesenswert?

Geil!! nicht schlecht.

Mit ferromagnetischen Dioden maximal parallel...
das gibts wohl schon ne Weile...
Da hab ich bei meinem Professor in seiner Lib nur
Anfänge lesen können.
Ob dabei "Lichtgeschwindigkeit" erreicht wird?
Oder "nur" die Geschwindigkeit und vor allen die Komplexität
eines Gehirnes?

mfg

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.