Forum: Mikrocontroller und Digitale Elektronik AI Prozessoren machen was anders


von Stefan G. (Firma: Herr) (stefg)


Lesenswert?

Hallo Schwarmintelligenz

Ich frage mich, was speziell für AI(künstliche Intelligenz) entwickelte 
Prozessoren und Rechenmaschinen von herkömmlichen Systemen 
unterscheidet.
Neuronale Prozessoren?
Fuzzy logic?
Bessere Datenbankanbindung?

Danke für Links, Erklärungen, Ideen, StefG

von Εrnst B. (ernst)


Lesenswert?


von Stefan G. (Firma: Herr) (stefg)


Lesenswert?

Wow, danke

von Stefan G. (Firma: Herr) (stefg)


Lesenswert?

Also sind Rechenkerne mit grosser Wortbreite und MIMD das Richtige?

von A. S. (rava)


Lesenswert?

für neuronale Netze reicht eigentlich SIMD.
Die Hauptaufgabe ist parallelisiertes multiply-accumulate, wahlweise in 
int8, fp32, fp16 oder in Zukunft auch auf fp8.


Tesla hat für seine Autos eine Architektur gewählt, die (relativ) viel 
onboard-Speicher hat. So können die ganzen Gewichte und Feature Maps 
schnell zur Verfügung gestellt werden, was im Echtzeitsystem wichtig 
ist.
klicko: 
https://en.wikichip.org/wiki/tesla_%28car_company%29/fsd_chip#Neural_processing_unit

Für richtig große Netze wird's dafür aber auf dem Chip ohnehin zu eng. 
Kommt also immer auf die Anwendung an.


und natürlich gibt es auch viele Spezialansätze, die aber in der 
Industrie noch wenig Beachtung finden. Ein Beispiel wären hier 
Analogrechner.

: Bearbeitet durch User
von Stefan G. (Firma: Herr) (stefg)


Lesenswert?

Das war auch mein erster Gedanke.
Parallele Recheneinheiten die Addition und Multiplikation in einem 
Schritt beherrschen und Daten zu Inhalten verarbeiten.
Das ist aber nichts Neues und macht KI-Systeme nicht besonders?

von A. S. (rava)


Lesenswert?

KI ist ein Modebgeriff. Was heute sehr erfolgreich ist, sind neuronale 
Netze. Das sind mathematische Strukturen, die durch Training mit vor 
allem großen Datenmengen zu überraschend guten Mustererkennungen und 
-prädiktionen fähig sind.

Wie wir die Mathematik in hardware umsetzen steht uns frei, aber die 
vorhandene Hardware hatte natürlich auch Einfluss darauf, was erforscht 
wurde.

Kurzum: SIMD war da, in Form von GPUs, und deswegen hat man auf SIMD 
Fortschritte gemacht. Naja und jetzt ist "KI" immer noch größtenteils 
SIMD, yep.

Das heißt aber nicht, dass es in anderen Bereichen keine spannenden 
Ideen und Ansätze gibt, die genauso funktionieren könnnen. SIMD ist eben 
gerade am wirtschftlichsten und bekommt deswegen weiterhin die meisten 
Engineering-Stunden ab.

Wenn jetzt jemand daherkommnen möchte und z.B. mit analaogchips oder 
spiking-neuromorph-hardware Geld verdienen möchte, braucht er sauberste 
Toolchains und günstigste Preis-Leistung. Bis dahin bleiben wir bei 
SIMD.

: Bearbeitet durch User
von Rolf M. (rmagnus)


Lesenswert?

Stefan G. schrieb:
> Das war auch mein erster Gedanke.
> Parallele Recheneinheiten die Addition und Multiplikation in einem
> Schritt beherrschen und Daten zu Inhalten verarbeiten.
> Das ist aber nichts Neues und macht KI-Systeme nicht besonders?

Nö. Grafikkarten können das sehr gut und kommen deshalb in dem Bereich 
sehr viel zum Einsatz. Allerdings wird die Genauigkeit und der 
Wertebereich von float sowie ein Teil der ins Silizium gegossenen 
Rechenoperationen und die damit einhergehende Komplexität bei der 
Ausführung der neuronalen Netze oft nicht benötigt. Deshalb gibt's dann 
sowas wie Googles TPU, die sich genau auf das spezialisiert, was für die 
neuronalen Netze benötigt wird. So passen dann erheblich mehr 
Recheneinheiten auf die gleiche Chipfläche, und es wird dadurch 
schneller und energieeffizienter.

von Stefan G. (Firma: Herr) (stefg)


Lesenswert?

Danke, das Stichwort TPU hat mir sehr weitergeholfen.

von Christoph M. (mchris)


Lesenswert?


Beitrag #7613253 wurde von einem Moderator gelöscht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.