Hallo, viele CPUs beinhalten bereits viele Beschleuniger für Vektor- und Matrixberechnungen, Crypto und Nebenläufigkeit (TSX-NI). In der Praxis werden jedoch Datenzugriffe, Suchfunktionen, Mengenoperationen, Oython-Dictionaries, Listen, Baumdatenstrukturen, Pattern-matching bei Graphrn, Constraint-Programming etc. häufig gebraucht, aber Beschleuniger dafür scheinen nicht so sehr verbreitet zu sein, abgesehen von z. B. CAM-Speichern, die kaum noch eingesetzt werden. Welche aktuellen Entwicklungen gibt es in diesem Bereich?
Stefan H. schrieb: > Welche aktuellen Entwicklungen gibt es in diesem Bereich? Viel RAM, fetten Cache.
Im Gegensatz zu Berechnungen mit großen Matrizen und Kryptographie sind Zugriffe auf Hashmaps nicht besonders rechenintensiv, so dass eine dedizierte Hardware mehr Kosten als Nutzen bringen würde.
Mit den richtigen Datenstrukturen kann man die meiste Zeit sparen. zB skaliert ein balacierter Binaerbaum mt NlogN, wenn man den nicht verwendet hat man verloren.
https://www.scinexx.de/news/technik/mini-beschleuniger-knackt-energierekord/ Franko S. schrieb: > Viel RAM, fetten Cache. Ja, und Alignment und Fixwerte für bestimmte Übertragungen - das ist dann halt oft eine Einstellungsfrage, also Einstellmöglichkeiten diesbezüglich. Für Suchgeschichten gibt es schon reichlich Parallelisierhilfen, z.B. den bekannten https://de.wikipedia.org/wiki/Aho-Corasick-Algorithmus Schon mal ripgrep ausprobiert? https://github.com/BurntSushi/ripgrep (https://blog.burntsushi.net) Know How, Engagement und Strukturierung (oder schlicht: Ordnung) hilft auch immer wieder: Faster than Rust and C++: the PERFECT hash table https://www.youtube.com/watch?v=DMQ_HcNSOAI
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.