Ich hörs bei uns aus der Nachbarabteilung immer wieder, die machen jetzt ein Projekt zum Thema "Edge-Computing". Man hat mir das so erklärt, dass es nicht gut skalierbar ist alle Rechenleistung in eine Cloud zu verlagern, weil dann pro Endgerät alle Rohdaten (Videostreams etc.) übers Netzwerk/Internet geschaufelt werden müssen. Edge-Computing heißt also Rechenleistung im Gerät zu haben und nur z.B. Auswertungen an die Cloud zu liefern. Also... genauso wie "vor" Cloud-Computing? Ist "Edge-Computing" wirklich nur der Marketingbegriff für "Oh scheiße, alles auf einem Zentralrechner machen braucht ja ganz schön viel Bandbreite und wir kommen mit dem Nachrüsten im Serverraum nicht nach, lieber doch nicht alles in die Cloud"? Oder steckt doch eine neue Idee dahinter, die ich nicht verstehe?
https://de.wikipedia.org/wiki/Edge_Computing Viele kleine Rechner sind halt billiger als ein großer und viele langsame Internetanschlüsse sind auch billiger als ein sehr schneller. Warum sollte man bei Videotelefonie alles über eine Zentrale in den USA laufen lassen, wenn man jemanden im selben Land anruft?
c r schrieb: > Ist "Edge-Computing" wirklich nur der Marketingbegriff für > > "Oh scheiße, alles auf einem Zentralrechner machen braucht ja ganz schön > viel Bandbreite und wir kommen mit dem Nachrüsten im Serverraum nicht > nach, lieber doch nicht alles in die Cloud"? Im Großen und Ganzen: ja.
Stefan H. schrieb: > Viele kleine Rechner sind halt billiger als ein großer und viele > langsame Internetanschlüsse sind auch billiger als ein sehr schneller. > Warum sollte man bei Videotelefonie alles über eine Zentrale in den USA > laufen lassen, wenn man jemanden im selben Land anruft? Sag ich ja. Meine Frage ist, warum braucht man dafür einen Begriff? Das ist doch einfach nur das, was wir alle gemacht haben, bevor der Trend alles in der Cloud abzuwickeln da war.
c r schrieb: > Meine Frage ist, warum braucht man dafür einen Begriff? > Das ist doch einfach nur das, was wir alle gemacht haben, bevor der > Trend alles in der Cloud abzuwickeln da war. Deine Frage hast du gerade selbst beantwortet. Was sagst du deinem Management, wenn du sie vom Cloud-Hype abbringen willst? "Lasst uns Edge-Computing machen" Oder: "Lasst uns einfach nur das machen, was wir alle gemacht haben, bevor der Trend alles in der Cloud abzuwickeln da war." Und dann stell dir vor, du sollst die geplanten Entwicklungen schriftlich festhalten. Wie viele Bäume sterben, wenn du auf jeder Seite zehnmal "einfach nur das, was wir alle gemacht haben, bevor der Trend alles in der Cloud abzuwickeln da war" statt "Edge-Computing" schreibst?
Hallo, naja, ganz so platt kann man das nicht sagen. Als der Cloud-Hype los ging, gab es keine Möglichkeit AI / ML oder ähnliche Algorithmen in den "Endgeräten" / Edge zu berechnen. Außerdem gab es keine Ansetze für das Föderative Lernen dieser Algorithmen und diese mussten zentral gerechnet werden. Mittlerweile pumpen wir aber über 500 ZB in die Rechenzentren für Aufgaben die aufgrund der Entwicklung in der Erde gerechnet werden können. Gruß, Markus
c r schrieb: > Meine Frage ist, warum braucht man dafür einen Begriff? Um es dem Management als hippe Neuerung verkaufen zu können. Weil "Cloud verweigern" ja so ist wie sich Neuerungen zu verweigern und alles neue zu Blockieren. Also muss man einfach von Zeit zu Zeit mal wieder einen neuen Begriff für Sachen erfinden die es eigentlich schon lange gibt und alle sind glücklich weil sie glauben sie machen was moderneres als der gehypte Buzz-Wort-Begriff der letzte Woche aktuell war. Das ganze gab es übrigens schonmal in der Anfangszeit wo es Mainframes und Datensichtstationen gab. Da wurde dann der PC erfunden und plötzlich war es "in" die Rechenleistung auf dem eigenen Schreibtisch stehen zu haben und nicht mehr in einem Rechenzentrum.
Markus schrieb: > Als der Cloud-Hype los ging, gab es keine Möglichkeit AI / ML oder > ähnliche Algorithmen in den "Endgeräten" / Edge zu berechnen Das ist mir neu. Meiner Erfahrung nach wuchs und wächst die Komplexität der Neuronalen Netzwerke mit der Leistungsfähigkeit der Desktophardware. Markus schrieb: > Außerdem gab es keine Ansetze für das Föderative Lernen dieser > Algorithmen und diese mussten zentral gerechnet werden. Man trainiert auch jetzt nicht verteilt auf Endgeräten. Man trainiert einmal zentral und liefert das weightfile dann aus. Was hat das mit Edge zu tun?
Aber gut, das Verkaufen ans Management leuchtet mir ein, ich verstehe die Welt ein wenig besser :)
Im Siemens Universum sind Edge Controller momentan ja immer noch S7 SPS. Aber wenigstens haben die Leute "Senior sales expert edge computing" und ähnliches Marketing Geblubber auf ihren Karten stehen. Herrlich.
Man trainiert nicht verteilt ... ? Dann guckt Dir das GBoard von google an! Dies ist heute der Weg die DSGVO einzuhalten...
c r schrieb:
> Meine Frage ist, warum braucht man dafür einen Begriff?
Aber sicher. Plus...
Du hast begriffen wie es geht, du kannst es, du bist der Spezialist
dafuer. Wenn sie dich nicht dafuer haetten, koennten sie den Laden
schliessen.
Joggel E. schrieb: > Wenn sie dich nicht dafuer haetten, koennten sie den Laden > schliessen. Ich habe zwar das Gefühl, dass hier abschätziger Sarkasmus im Spiel ist, verstehe allerdings nicht warum.
Nun, die Manager machen's ja auch so, allerdings auf einer viel banaleren Stufe. Ist viel Geld in der Kasse, wird gekauft, das nennt sich dann Diversifikation & Ausnutzung von Synergien. Wird oder ist das Geld knapp, wird verkauft, das nennt sich dann Fokussierung auf das Kerngeschaeft. Und ist dann wegen den paar Buzzwords Millionengehaelter wert. Daher.. der Boss muss/wird selbst herausfinden, dass er sehr glucklich sein muss dich als Spezialist an Bord zu haben. Implizit .. eine Gehaltserhoehung weaere drin.
guten morgen, grundsaetzlich bedeutet "edge computing" eher, das rechen/computeresourcen wieder dezentralisiert aufgebaut werden, allerdings parallel zu den normalen rechenzentren. beispiel access netz mit IPTV: angenommen, ein netzprovider hat 500 000 glasfaser-kunden ueber 100 PoPs erschlossen, wo BNGs die termination ueber- nehmen; dort gibt es einen IPTV service (oder netflix, etc..), dann wuerde massiv viel traffic zu den zentralen rechenzentren anfallen; bei dem konzept "edge computing" - natuerlich nichts neues - plaziert man dann video proxies "nahe der kante", also am besten in das MFG (der graue kasten an der strasse mit lueftung) direkt am BNG um den traffic lokal zu halten. der proxy holt sich dann z.b. einmal die neueste folge von $serie und streamt das an seine 5000 lokalen subscriber. beispiel mobilfunk: fuer applikationen im LTE oder 5G netz ist es interessant, kapazitaeten "an der antenne" zu haben; bedeutet, das ein request z.b. nicht erst in die grossen RZs muss, dort wo der EPC (evolved paket core mit SGW/PGW/HSS) steht, sondern lokal "abgehandelt" wird. aktuelle infrastrukturen sehen in etwa so aus: eNodeB ("LTE antenne") bzw eNodeG ("5G antenne") haben eine anbindung die mit IPSec verschluesselt wird. das SEG (security gateway) im regionalen PoP (dort sind meistens so etwa 150-300 eNode* standorte angeschlossen) terminiert die IPSec tunnel. danach geht die verbindung ueber das SGW/PGW (service & paket gateway) richtung core netzwerk und danach nach Gi ("internet anbindung"), d.h. in die server infrastruktur des anbieters. das erhoeht die latenz zwischen UE (user equipment, das mobil- geraet) natuerlich. um jetzt aber zeitkritische anwendungen wie verkehrssteuerung, maschinensteuerung, virtual reality etc.. vernueftig hinzubekommen, reduziert man unter anderem die latenz dadurch, das die mobilfunk infrastruktur wie SGW/PGW, HSS/AAA/OCS richtung "edge" geschoben werden und massiv in die breite skaliert werden. in der praxis bedeutet das z.b. das an jeder "antenne" ein rechner gehaeuse mit 300mm tiefe ("ETSI konforme bauform") eingebaut wird, dort laeuft dann ein virtuelles baseband (z.b. Huawei oder Nokia), ein virtueller EPC (z.b. open5GS) und eine handvoll von VMs fuer zulieferer wie continental etc.. uebrigens, die beruehmte aussage "1ms laufzeit bei 5G" bezieht sich nur auf die luftschnittstelle, nicht die latenz im EPC ider zu/von den applikationen. TL,DR; kein hype, nur ein toller name fuer ein altes konzept, um laufzeiten und traffic zu sparen :) edit: anmerkung: "rechenkapazitaet im geraet" - also KI auf dem rechner im auto z.b. - wird dann "Fog Computing" genannt. gruss, -- randy
:
Bearbeitet durch User
vn nn schrieb: > "Oh scheiße, ..." Starkes Argument. Arbeitest bestimmt in der Klobranche. Nicht vergessen: Immer hübsch die Hände waschen.
Markus schrieb: > naja, ganz so platt kann man das nicht sagen. Als der Cloud-Hype los > ging, gab es keine Möglichkeit AI / ML oder ähnliche Algorithmen in den Das kommt ganz auf die Anwendung an. Unsere Mimikerkennung auf Perzeptron Basis lief schon vor 15 Jahren auf einem K6-2 400 Mhz mit ~10 Bilder/s. Die Ursprungsidee von Cloud ist nicht besonders viel Rechenleistung zu bekommen sondern von überall darauf zugreifen zu können. (und auf die Daten) "Edge-Compputing" ist Marketinggeschwurbel. Früher hat jeder seinen mehr oder weniger leistungsfähigen PC zu Hause gehabt. Heute haben viele Leute nur noch Handies und Tablets, da ist das Aufstellen eines anständigen Rechners dann plötzlich "Edge-Computing".
Randy W. schrieb: > TL,DR; kein hype, nur ein toller name fuer ein altes konzept, > um laufzeiten und traffic zu sparen :) Also alter Wein in alten Schlächen, also Hype. Randy W. schrieb: > anmerkung: "rechenkapazitaet im geraet" - also KI auf dem > rechner im auto z.b. - wird dann "Fog Computing" genannt. Bingo! http://www.bsbingo.de/cgi-bin/bullshit/bingo.pl?phrase=it-meeting Jochen schrieb: > vn nn schrieb: > >> "Oh scheiße, ..." > > Starkes Argument. Arbeitest bestimmt in der Klobranche. > > Nicht vergessen: Immer hübsch die Hände waschen. Wäre schon, wenn du mir keine fremden Aussagen unterschieben würdest. Danke. Aber vermutlich hat dir das am Klo keiner beigebracht.
Der Unterschied ist vielleicht noch, dass Edge-Computing noch immer die Cloud voraussetzt, was in der Vor-Cloud-Ära naturgemäß nicht der Fall war. Es ist also eine Optimierung der Cloud. Durch diese Verfahren kann man auch dafür sorgen, dass der normale Traffic nicht zentral durch die Rechenzentren geht, aber bestimmter Traffic (z.B. alle Mobiltelefone in einer Region, alle Geräte einer Person) eben doch.
S. R. schrieb: > Der Unterschied ist vielleicht noch, dass Edge-Computing noch immer die > Cloud voraussetzt, was in der Vor-Cloud-Ära naturgemäß nicht der Fall > war. Es ist also eine Optimierung der Cloud. Es hat vor der Cloud noch keine Rechenzentren gegeben?
vn nn schrieb: >> Der Unterschied ist vielleicht noch, dass Edge-Computing noch immer die >> Cloud voraussetzt, was in der Vor-Cloud-Ära naturgemäß nicht der Fall >> war. Es ist also eine Optimierung der Cloud. > > Es hat vor der Cloud noch keine Rechenzentren gegeben? Doch. Aber viele Anwendungen brauchten keins, oder haben es in erster Linie für die eigentliche Datenübertragung benutzt - und nicht als Ziel für ununterbrochene Telemetrieübermittlung. Anders gesagt: Ein Office 2000 kann man dauerhaft mit oder ohne Server benutzen. Ein Office 365 Cloud nicht.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.