https://www.colognechip.com/programmable-logic/gatemate Sieht gar nicht schlecht aus.
Vermute mal die wollen sich neu ausrichten und weg von "nur ISDN Chips". Zum FPGA: Keine DSP Slices sondern mehr Mult über die Logikzellen verteilt. Interessant. Da müsste man mal Performance Vergleiche machen. Leider nur bis 2.5V I/Os, sonst schauts brauchbar aus. "lowest cost in industry" wäre da noch zu beweisen.
Nun. schrieb: > Vermute mal die wollen sich neu ausrichten und weg von "nur ISDN Chips". Müssen sie ganz fix wenn sie überleben wollen, der ISDN-Markt ist doch nur noch Erhalten/Anbinden von Altgeräten. Neu designte TK-Anlagen brauchen das nicht mehr. > Leider nur bis 2.5V I/Os Das ist allerdings ziemlich unpraktisch, auch wenn vieles schon mit 1.8V läuft, braucht man in der Praxis an vielen Stellen noch 3.3V. Wenn man wieder Pegelwandler braucht, bleiben vom kompakten Layout mit BGA nur die Nachteile. Was ich noch nicht so ganz verstanden habe ist die Design Software. Sehe ich das richtig dass die sich vorstellen, dass man auch für Neuentwicklungen für deren FPGAs eine Konkurrenz-Software wie Vivado oder Diamond verwenden soll und den Output davon dann mit deren GateMate auf deren FPGA konvertieren soll? Für Umsteiger und das Konvertieren bestehender Designs mag das funktionieren, aber für Neuentwicklungen scheint mir das arg umständlich. Warum tun die sich das an und setzen nicht von Anfang an z.B. auf yosys und nextpnr, meinetwegen noch mit ner GUI von denen drübergestülpt?
Hier noch was zum internen Aufbau: https://www.ims.uni-hannover.de/fileadmin/IMS/images/IMS-Aktivitaeten/Tensilica_Day/2019/td19_colognechip.pdf Sieht doch ganz interessant aus, zudem Design und Fertigung in Deutschland. Vielleicht klappt es ja nochmal das wir ein bischen Technik hier bei uns haben und halten können. Leider ist das noch alles sehr früh und neu, das Evalboard nicht verfügbar.
FPGAzumSpass schrieb: > Sieht doch ganz interessant aus Hört sich für mich ein wenig nach SpinOff, StartUp und Forschungsgelder an. https://www.eenewsanalog.com/news/low-cost-european-fpga-launched-ipcei-support# https://www.bmwi.de/Redaktion/DE/Pressemitteilungen/2019/20190517-altmaier-eine-milliarde-fuer-die-schluesseltechnologie-mikroelektronik.html Und wenn man mal nach den Namen des Board of Directors googelt, dann sieht das irgendwie ein wenig nach "machen wir auch" aus... http://cit-edu.com/ https://www.gude.info/ Insofern finde ich die Frage nach der Langzeitverfügbarkeit schon berechtigt.
Cologne Programmable Elements (CPE)... an Selbstbewusstsein mangelt es ihnen schon mal nicht. Leider sagen sie nichts über die Designsoftware, außer "Worldclass P&R-software maps and implements the design into GateMateTM FPGA." Was auch immer das heißen mag. Aber schön dass mal jemand den Mut hat, sowas in Europa auf die Beine zu stellen, bei allem Risiko. Wenn es Trumpyboy gefällt, darf Xilinx irgendwann nur noch die Spartan3-Klasse nach Europa liefern. Da wirds Zeit, dass unsere verschnarchten short-term-fixierten Wirtschaftsdiven mal wach werden (und sich nicht jedesmal einnässen, wenn der DAX eine Delle bekommt). Wir können das, aber wir müssen es auch tun. Beim Thema RISCV sind wir schon weiter, da kommen ja gerade mächtig viele Steine ins rollen. Gefällt mir.
Gerd E. schrieb: > Was ich noch nicht so ganz verstanden habe ist die Design Software. Sehe > ich das richtig dass die sich vorstellen, dass man auch für > Neuentwicklungen für deren FPGAs eine Konkurrenz-Software wie Vivado > oder Diamond verwenden soll und den Output davon dann mit deren GateMate > auf deren FPGA konvertieren soll? > Ich habe mir gerade den design flow auf Seite 24 angeschaut. https://colognechip.com/docs/gatemate-ccgm1a-datasheet.pdf Hoffentlich eckt man da nicht bei den FPGA-Herstellern an, wenn man deren Tools verwendet um den SDF-File zu generieren und zu simulieren und dann zu deren Tool GateMate abbiegt oder kann man das Drumherum auch mit herstellerunabgängigen Tools erschlagen (Mentor HDL-Designer, ???) die aber sicher sehr teuer sind?
:
Bearbeitet durch User
Gerd E. schrieb: > Für Umsteiger und das Konvertieren bestehender Designs mag das > funktionieren, aber für Neuentwicklungen scheint mir das arg > umständlich. > > Warum tun die sich das an und setzen nicht von Anfang an z.B. auf yosys > und nextpnr, meinetwegen noch mit ner GUI von denen drübergestülpt? Die Software war schon immer bisschen die Schwaeche bei den div. FPGA-Toolchains. Gerade bei Xilinx galt schon immer der Spruch: Schuster, bleib' bei deinen Leichen (und ueberlass andern die Software). Da wuerde ich es auch begruessen, wenn ein bisschen Schotter fuer yosys-Adaption freigemacht wuerde - plus etwas aufgebrachten Mut zu OpenSource. Ansonsten sieht das Ding nach etwas viel 'network on a chip' aus, aber irgendwann muss man ja mal einfach anfangen. Das finde ich ansich prinzipiell gut, und wenn die Specs stimmen, kann man damit sicher ein paar Innovationen schaukeln. Um sich naeher mit dem Ding beschaeftigen zu wollen, muesste allerdings noch etwas Fleisch an den Knochen: - Simulationsfiles, Primitivenbeschreibung - konkrete Beschreibung des Workflows Vermutlich ist das alles noch nicht so ganz fertiggeboren..
Martin S. schrieb: > plus etwas aufgebrachten Mut zu > OpenSource. Ich würde sogar behaupten, dass das die beste Chance wäre um damit irgendwie erfolgreich zu werden. Zumindest mal den Bitstream offen legen, dann könnten sich möglicherweise ein paar mehr Leute dafür interessieren...
Wieso sollte ein FPGA Chip aus Deutschland nicht möglich sein? Wichtig ist doch dass man sich als Unternehmer von nationalistischen Ideen löst. Das heißt die Chpifertigung muss gar nicht in Deutschland stattfinden. Amerikanische Unternehmen lassen auch gerne in Asien produzieren. Man sollte das tun was jetzt gerade am sinnvollsten ist. Wieso sollte man es sich vor allem am Anfang unnötig schwer machen oder das Produkt unnötig teuer? Wenn man mal ein großer Name wird, kann man immer noch nationale Interessen fördern und bedeutende Standorte hier errichten. Man wird doch wohl in Deutschland mit einigen zehn Millionen Euro ein vernünftiges Team aufstellen dass solche Chips designen kann. Und noch eine weitere Gruppe für die Software. Was ist los mit euch? :D Viele fordern oft eine Lösung auf der EU Ebene. Die EU solle durch ihre Größe und Kapazität doch bitte eine Lösung schaffen für üblichen Defizite in der IT und Elektronik. Wisst ihr was das im Grunde ist? Der Versuch einen Mangel an Willen durch Kooperation zu kompensieren. So wie es in der EU oft passiert und zu unbefriedigenden Ergebnissen führt. Kooperation gegen mangelnde Willensstärke einzelner Akteure ist nicht besonders fruchtbar. Watten schrieb: > FPGA aus D-Land? MegaLOL. Ist nur ein Subvenstionschip. Was wäre die Steigerung von MegaLOL? SuperMegaLOL? Muss mal die Kinder fragen :D
Beitrag #6165376 wurde von einem Moderator gelöscht.
Der Markt ist gross, und wächst stark. Etwas verspätet, aber könnte klappen, wenn Preis und Verfügbarkeit gut sind.
Beitrag #6165406 wurde von einem Moderator gelöscht.
Beitrag #6165416 wurde von einem Moderator gelöscht.
Vancouver schrieb: > Cologne Programmable Elements (CPE)... an Selbstbewusstsein mangelt es > ihnen schon mal nicht. Ob denen bewusst war, woher der Name Cologne überhaupt kommt und wie das außerhalb des Rheinlands wirkt? Ich würde das mal rasch umtaufen in "Comfortably Programmable Elements".
Jürgen S. schrieb: > Ob denen bewusst war, woher der Name Cologne überhaupt kommt > Soweit ich weiss "Colonia" / Kolonie wegen den Römern. Ist das nun schlimm?
Jürgen S. schrieb: > Ob denen bewusst war, woher der Name Cologne überhaupt kommt und wie > das außerhalb des Rheinlands wirkt? Und der Deutschland-Distributor sitzt ausgerechnet in Düsseldorf... ein Schelm, wer Böses dabei denkt...
Ich komm nicht drauf ... weder bei Cologne noch bei Düsseldorf ... mag das jemand aufklären?
Bei Köln vs. Düsseldorf kann ich helfen. Frei nach den Toten Hosen (aus Düsseldorf) - 10 kleine Jägermeister: "... sieben fuhren nach Düsseldorf, einer fuhr nach Köln!" Alte Rivalität zwischen Köln und Düsseldorf: https://de.wikipedia.org/wiki/Rivalit%C3%A4t_zwischen_K%C3%B6ln_und_D%C3%BCsseldorf
Aber wehe es kommt jemand von außerhalb den Kölnern oder Düsseldorfern blöd daher. Dann halten sie zusammen wie Pech und Schwefel :-)
Jürgen S. schrieb: > Vancouver schrieb: >> Cologne Programmable Elements (CPE)... an Selbstbewusstsein mangelt es >> ihnen schon mal nicht. > > Ob denen bewusst war, woher der Name Cologne überhaupt kommt und wie > das außerhalb des Rheinlands wirkt? > > Ich würde das mal rasch umtaufen in "Comfortably Programmable Elements". Woanders steht doch bereits: Central Programmable Element. Logoa schrieb: > Viele fordern oft eine Lösung auf der EU Ebene. Die EU solle durch ihre > Größe und Kapazität doch bitte eine Lösung schaffen für üblichen > Defizite in der IT und Elektronik. Naja, die Belgier machen's doch vor, wie's geht. Dazu braucht man vermutlich keinen Oettinger, aber vielleicht ein Oettinger oder besser ein Hoegaarden, um kreativ zu werden.
Eigentlich wäre eine vollständig freie FPGA Architektur echt interessant. Vielleicht wird man als Unternehmen nicht mega reich davon. Aber man kann eine Foundation gründen und Entwickler einstellen die daran arbeiten und davon leben. Und der Weg wäre frei für eine zunehmende Unabhängigkeit von ein paar Konzernen eines Landes. Wäre das nicht genau so eine gute Idee wie RISC-V?
Nun. schrieb: > Soweit ich weiss "Colonia" / Kolonie wegen den Römern. > Ist das nun schlimm? Wir hatten im Lateinunterricht mal einen Prof von der Uni, der darstellte, dass Köln zwar indirekt von Colonia kommt, die aber nicht auf die Kolonie, wie wir sie verstehen, zurückzuführen sein, sondern aus dem Griechischen Colon, dem Darm, dem Geschklängel der Füsse an denen sich dann die "Kolonieren" im römischen Sprachgebrauch entwickelten, was die Kölner angeblich nicht so gerne hören. Im Übrigen bräuchte man für die Charakterisierung des Objektes "FPGA" auch ein Adjektiv, also sowas wie "Kölsch". Das wären dann die Colonial FPGAs. Ich halte den Begriff aber so oder so für nicht glücklich. Hört sich an wie Oxford Oszillator.
Ich hatte die Hoffnung eigentlich schon aufgegeben. Das ist einfach zwingend notwendig. Ich habe mal an einem Raumfahrt- projekt mitgemacht, das heute noch auf seinen Flug zur ISS wartet, und dort wurden Original-Virtexe verbaut, keine Virtex2, keine 2E, nein! Ur-Virtexe! In keramischen 228-pin-Flatpaks. Für flugfähige Virtex5 gab es nicht mal die Lötvorschriften, oder die Xilinx-tools für triple module redundancy, von Chips nicht zu reden. Das war nur das normale ITAR, noch lange vor Trumpet. So geht Raumfahrt mit befreundeten Ländern. Nun wartet mal, was passiert, wenn Boeing die Zehen faltet. Bei FPGAs haben uns die Amis aber sowas von voll an den *iern. Und das sind Produkte mit Breitenwirkung. Damit kann man ganze Industrien treffen. 1000 verschiedene Projekte. Immerhin ist jemand bei Siemens aufgewacht und hat Mentor gekauft. ++ Die Chinesen fangen auch mit kleinen FPGAs an, die sind z.T. schon bei Digikey im Programm. Ja, der Chinese ist helle. < https://www.digikey.de/product-detail/de/T8F81C2/2134-T8F81C2CT-ND/10222911/?itemSeq=306476158 > Gruß, Gerhard Shameless plug: Freelancer mit umfangreicher Redundancy-Erfahrung hätte durchaus Interesse an einer Neu-Implementierung einer Klassenbibliothek in zeitgenössischem VHDL. Typen wie tmr_slv, tmr_signed, Redundanz weitgehend unsichtbar unter der Haube. No ITAR hassle or ISE 9/10 :-)
Gerhard H. schrieb: > Die Chinesen fangen auch mit kleinen FPGAs an, die sind z.T. > schon bei Digikey im Programm. Ja, der Chinese ist helle. > > < > https://www.digikey.de/product-detail/de/T8F81C2/2134-T8F81C2CT-ND/10222911/?itemSeq=306476158 >> > > Gruß, > Gerhard Efinix scheint aber eine amerikanische Bude zu sein.
PCB schrieb: > Efinix scheint aber eine amerikanische Bude zu sein. Gowin dürften die bekanntesten Chinesen mit FPGAs sein. Die gibt es bisher nicht so einfach bei einem Distri, sollen wohl demnächst bei Rutronik zu bekommen sein.
Gustl B. schrieb: > Sieht gar nicht schlecht aus. Hmm... noch keine Preise, nur BGA nur Logik keine DSP Funktionalität (oder hab ich da was übersehen?) immer noch externer Konfig-Speicher Toolchain ??? sieht mir eher mittelprächtig bis altbacken aus. Was macht man mit so einem Teil? W.S.
Gerhard H. schrieb: > Ich hatte die Hoffnung eigentlich schon aufgegeben. [...] Hallo Gerhard, Brave kennst Du schon? https://www.esa.int/Enabling_Support/Space_Engineering_Technology/Shaping_the_Future/High_Density_European_Rad-Hard_SRAM-Based_FPGA-_First_Validated_Prototypes_BRAVE Mehr technische Details: https://www.edn.com/brave-new-itar-ear-free-space-grade-fpgas/ https://escies.org/download/webDocumentFile?id=67083
W.S. schrieb: > keine DSP Funktionalität (oder hab ich da was übersehen?) Nein, aber jedes CPE hat 2x2 Mul oder Add. Bei 20480 CPE kann man damit schon bisschen was machen. Aber nicht so schnell wie dedizierte DSP Slices.
Nun. schrieb: > W.S. schrieb: >> keine DSP Funktionalität (oder hab ich da was übersehen?) > > Nein, aber jedes CPE hat 2x2 Mul oder Add. > Bei 20480 CPE kann man damit schon bisschen was machen. > Aber nicht so schnell wie dedizierte DSP Slices. Ich nehmemal an, dass die sich gut kaskadieren lassen. Und spekuliere, dass da sicher auch ein Anspruch an elegante Implementierung von neuronalen Netzen im Hintergrund steht. Das koennte damit sogar besser gehen als mit den klassischen, meist nur auf einem 'Streifen' sitzenden DSP slices. Mit yosys-basierter prozeduraler Plazierung...ach, man darf das gar nicht weiterdenken.
ZF schrieb: > Hallo Gerhard, > > Brave kennst Du schon? > https://www.esa.int/Enabling_Support/Space_Engineering_Technology/Shaping_the_Future/High_Density_European_Rad-Hard_SRAM-Based_FPGA-_First_Validated_Prototypes_BRAVE > Mehr technische Details: > https://www.edn.com/brave-new-itar-ear-free-space-grade-fpgas/ > https://escies.org/download/webDocumentFile?id=67083 Oh, hochgradig interessant! Ich habe erst mal eine Download-Session gemacht. Mentor ist dann praktischerweise auch gleich im Boot. Bei den tmr-Flipflops würde mich mal die Clockverteilung im Feinen interessieren. Man macht bei diesen Redundanz- Betrachtungen immer die Annahme, dass die Clock bei allen Flipflops einer Gruppe immer gleichzeitig kommt, aber in Wirklichkeit bestehen die Clock-Bäume aus 1000 Segmenten mit eigenen Buffern die einzeln getroffen werden können. Sowas wie gleichzeitig +- skew existiert dann gar nicht. Und so ein SEU kann ganz schön lange dauern. Im Datenblatt eines strahlungsgehärteten Spannungsreglers wurde wärmstens empfohlen, den Ausgangskondensator so groß zu machen, dass es egal ist wenn der Spannungsregler mal für ein paar Millisekunden in den Berserker-Mode umschaltet. @ PCB > Efinix scheint aber eine amerikanische Bude zu sein. Ja, kann sein. Ich hatte es aus irgendeinem thread wo's hauptsaechlich um chinesische FPGAs ging und fand die Dinger von Efinix so auf die Schnelle nicht ganz verkehrt. Könnte man notfalls bei den Preisen noch hernehmen um das Löten von BGAs in der vapor phase zu üben. :-) Gruß, Gerhard
:
Bearbeitet durch User
Wollte das Thema hier mal hochpushen. Hatte inzwischen jemand die Möglichkeit, das Teil mal in der Hand zu haben?
FPGA schrieb im Beitrag #6366135: > Hatte inzwischen jemand die Möglichkeit, das Teil mal in der Hand zu > haben? Leider nein, aber hier gibts einen halbwegs aktuellen Artikel darüber: https://www.elektronikpraxis.vogel.de/interview-deutsches-fpga-mit-eingebauter-overdrive-funktion-a-952832/ Grüßle Volker
:
Bearbeitet durch User
Klingt alles sehr interessant. Bin gespannt wie sich das entwickeln wird. Mit richtigem Marketing z.B. billiges Evalboard mit OpenSource Tools könnten sie sicherlich einiges bewegen.
Ich finds auch sehr interessant bisher. Was ich ein bisschen dämlich finde sind die nur 2.5V Spannung max - gerade für so kleinere low-end Applikationen wo sich so ein kleiner FPGA lohnt wird ja doch meistens eher noch auf 3.3V basis gearbeitet. Muss man mal sehen wie sich das Teil dann preislich gegen die Lattice oder kleineren Spartans schlägt. Aber immerhin - mal wieder ein Deutscher FPGA Hersteller dann :)
Gerhard H. schrieb: > Immerhin ist jemand bei Siemens aufgewacht und hat Mentor > gekauft. ++ Davon allein kommt die Technologie auch nicht mehr nach DE zurück. Besser wäre es, strategisch in TECH zu investieren. Z.B. hätte man den Halbleiterbereich aufrechterhalten- und nicht als Infineon kaputtgehen lassen sollen. Die Siemens Infineon RAMs waren um 2002 die besten, die es am Markt gab. Stabil und übertaktbar. Genau genommmen, hätte man auch nicht die Handysparte verkaufen sollen. Als das 2005 passierte, hatte Siemens schlagartig weniger Bedarf für Bauteile und damit waren die Rabatte weg, was auch andere Dinge verteuerte, wie z.B. die Hausgeräteelektronik. Das musste alles neu durchkalkuliert werden, weswegen dann auch BSH plötzlich zu teuer und unrentabel wurde und man 2006 dort das engagement zurückgezogen wurde. Das Nächste waren dann die Telefondienste: 2007 ging es los mit Nokia Siemens Networks, die runtergefahren wurden und später ohne Siemens weitermachten. Damals hat man das UMTS und indirekt das spätere LTE aufgegeben. Das Nächste waren dann die Fujitsu-Siemens-Computer und der Ausstiegsbeschluss 2008, wo sie die ganzen FSC-Computer billig verramscht haben. Ich habe mir damals einen LAPTOP geholt. Der läuft heute noch!!! Danach kam aber nichts mehr. Nur noch Schrott. 2009 das Chaos um den Ausstieg aus der Schwer-Ionen-Medizin: Die ab 2006 teuer entwickelten Teilchenbeschleuniger wurden stillgelegt und 150 Mio verbrannt. Heute kauft man Varian, um wieder Anschluss zu bekommen! Ein Schwerz. Siemens könnte heute Computer bauen, die Chips fürs Smartphone liefern und hätte noch 10 Jahre Zeit gehabt, ein eigenes Betriebssystem zu bauen, das auf beiden läuft und zwar ein Sicheres, das nicht alle Daten zu NSA funkt. Siemens könnte heute ein Top-Konzern sein, wenn man nicht unterwegs ständig auf die Aktien geschaut hätte und die Gewinne hochhalten hätte wollen, sondern man mehr in Entwicklung investiert. Stattdessen baut man mit der 4S einen eigenen Personaldienstleister auf, zahlt schlecht und verliert Ingenieure an die Konkurrenz, die man mit Billig-Chinesen aus Shenzhen ersetzt. Nee, Siemens, das wird nichts mehr. Wer baut eigentlich noch mit Mentor? Also, ausser der Siemens?
Wir nutzen leider noch Mentor... Aber Altium wird seit Jahren schon parallel angeschaut. Aber haben jetzt erst nochmal "günstig" neue Floating Lizenzen bekommen.
Bei meiner ehemaligen Firma war auch noch Mentor Pads in Verwendung. Im Vergleich zu Altium fand ich es aber ein schreckliches Tool.
Ingenieur schrieb: > Z.B. hätte man den > Halbleiterbereich aufrechterhalten- und nicht als Infineon kaputtgehen > lassen sollen. Die Siemens Infineon RAMs waren um 2002 die besten, die > es am Markt gab. Stabil und übertaktbar. Und Infineon sourcte dann Qimonda aus, um Qimonda verhungern zu lassen und die Reste dann zum Ramschpreis wieder zu übernehmen. So in Dresden passiert. Dabei hatte Qimonda kurz vor der Insolvenz ein tollesn neues DRAM Design qualifiziert. BWL - buried wordline http://www.fabtech.org/news/_a/qimonda_to_fab_buried_wordline_dram_technology_as_replacement_to_deep_trenc/ Damit war es möglich, 20% Energie, im Vergleich zur herkömmlichen Technologie zu sparen, oder die Dinger höher zu takten - ohne die sonst notwendige Selektion. Unser Pech war nur, das wir zum falschen Zeitpunkt pleite waren. Die Bankenrettung war wichtiger. 3 Monate Zwischenfinanzierung hätten gereicht! Die Chips waren qualifiziert und hätten mit rund 100-fachem Gewinn verkauft werden können.
Volker B. schrieb: > Leider nein, aber hier gibts einen halbwegs aktuellen Artikel darüber: > https://www.elektronikpraxis.vogel.de/interview-deutsches-fpga-mit-eingebauter-overdrive-funktion-a-952832/ Übrigens findet sich dort die Aussage, dass sie wohl Yosys unterstützen wollen. Nur weil das oben im Thread angesprochen wurde.
Ingenieur schrieb: > Gerhard H. schrieb: >> Immerhin ist jemand bei Siemens aufgewacht und hat Mentor >> gekauft. ++ > Davon allein kommt die Technologie auch nicht mehr nach DE zurück. Mentor Technologie war niemals in DE. Jetzt haben sie wenigstens den Finger drauf wenn DT weiter hohldreht. > Besser wäre es, strategisch in TECH zu investieren. Z.B. hätte man den > Halbleiterbereich aufrechterhalten- und nicht als Infineon kaputtgehen > lassen sollen. Infineon kaputt? Die haben gerade IR gekauft und haben eine SEHR starke Position bei Leistungshalbleitern. Das Richtige für die neue Autoantriebstechnik. Die Siemens Infineon RAMs waren um 2002 die besten, die > es am Markt gab. Stabil und übertaktbar. Genau genommmen, hätte man auch > nicht die Handysparte verkaufen sollen. Als das 2005 passierte, hatte > Siemens schlagartig weniger Bedarf für Bauteile und damit waren die > Rabatte weg, was auch andere Dinge verteuerte, wie z.B. die > Hausgeräteelektronik. Das musste alles neu durchkalkuliert werden, > weswegen dann auch BSH plötzlich zu teuer und unrentabel wurde und man > 2006 dort das engagement zurückgezogen wurde. Aha. Der Wegfall von Mikrowellenfiltern und Snapdragons macht die Produktion von Kühlschränken unrentabel. Na, wer's glaubt. > > Das Nächste waren dann die Telefondienste: 2007 ging es los mit Nokia > Siemens Networks, die runtergefahren wurden und später ohne Siemens > weitermachten. War's wert, dass es zugrunde gehe. Damals hat man das UMTS und indirekt das spätere LTE > aufgegeben. > > Das Nächste waren dann die Fujitsu-Siemens-Computer und der > Ausstiegsbeschluss 2008, wo sie die ganzen FSC-Computer billig > verramscht haben. Ich habe mir damals einen LAPTOP geholt. Der läuft > heute noch!!! Danach kam aber nichts mehr. Nur noch Schrott. Ich war damals bei Infineon Fiber Optik in Berlin. Ich habe dort Dell Laptops kennen gelernt, und dabei bin ich bis heute geblieben. > 2009 das Chaos um den Ausstieg aus der Schwer-Ionen-Medizin: Die ab 2006 > teuer entwickelten Teilchenbeschleuniger wurden stillgelegt und 150 Mio > verbrannt. Heute kauft man Varian, um wieder Anschluss zu bekommen! Ein > Schwerz. Du beliebst wohl zu scherzen? "wieder Anschluss zu bekommen" soll wohl suggerieren, man hätte es in die Weltspitze geschafft, aber nach weniger als 3 Jahren hätte man die Ingenieure am Zeichenbrett per Dolchstoß von hinten hinweggerafft. > Siemens könnte heute Computer bauen, die Chips fürs Smartphone liefern > und hätte noch 10 Jahre Zeit gehabt, ein eigenes Betriebssystem zu > bauen, das auf beiden läuft und zwar ein Sicheres, das nicht alle Daten > zu NSA funkt. Ja. Man würde lizensierte ARM-Kerne zu einem SOC verbacken wie alle anderen auch. Da stellt sich eher die Frage, wer die Halbleiter für die Telefon HF-Teile macht. > Wer baut eigentlich noch mit Mentor? Also, ausser der Siemens? Die meisten Großfirmen in die ich reinsehen kann. Modelsim/Questasim ist immer noch der sign-off Simulator und wenn man eine Entwicklungs- umgebung braucht, die nicht Xilinx oder Intel gehört, dann hat man nicht viele Alternativen. Komme mir jetzt keiner mit Altium. Diesen !"§$% habe ich gerade in einem anderen Fenster offen. Dessen zwischendurch versprochenen FPGA-capabilities sind ja mittlerweile auf 0 eingedampft.
Uwe schrieb: > Infineon hat cypress semiconductor gekauft... > https://www.cypress.com/ Unabhängig von Cypress, baut Infineon ja durchaus recht komplexe Sachen. Den meisten hier im Forum wahrscheinlich unbekannt, aber der Infineon Aurix ist wahrscheinlich einer der komplexesten und leistungsstärksten Mikrocontrollern auf dem Markt bevor man dann die Stufe höher auf die Linux-SoC's geht.
Frank schrieb: > Den meisten hier im Forum wahrscheinlich unbekannt.. Das ist das übliche Problem von Infineon...
Georg A. schrieb: > Frank schrieb: >> Den meisten hier im Forum wahrscheinlich unbekannt.. > > Das ist das übliche Problem von Infineon... Den Namen kennt man, aber was machen die genau? Frank schrieb: > der Infineon Aurix ist wahrscheinlich einer > der komplexesten und leistungsstärksten Mikrocontrollern > auf dem Markt Hat Infineon denn auch einfache Mikrocontroller? Als billigsten habe ich bei Mouser einen für 10,60 € gefunden. Ich denke, AVR und PIC sind so bekannt, weil es billige, gut unterstützen Controller gibt. Oder braucht Infineon die Bekanntheit in der breiten Masse nicht, weil sie so gut dastehen? Ich muss zugeben, dass ich bei Controllern für ein berufliches Projekt nicht an Infineon denken würde. Einfach weil ich mit dem Namen technisch nichts verbinde.
Dussel schrieb: > Als billigsten habe ich > bei Mouser einen für 10,60 € gefunden. Such mal nach XMC1000 - da gibts auch welche für 2 Euro oder so. Die großen sind XMC4000 gibts auch ab 5 Euro... Und Cypress PSOC ist nun Infineon... Aber das ist hier nicht das Thema --> es geht in dem Thread hier eigentlich um die GateMate FPGAs.
Infineon ist schon "weit" verbreitet halt viel Automobil, teilweise Medizin usw. Eher sicherheitskritische Sachen.. Siehe Aurix.. Und da sind Mouser Preise zu ignorieren..
Es würde gar keinen Sinn machen den AURIX für Bastler attraktiv zu machen, die AURIX Familie ist nur auf den Automotive Markt ausgerichtet. Hier baut Infineon nur was Continental, Bosch und Co. brauchen, der freie Verkauf ist eher Zweitverwertung. Das gleiche trifft auch auf die klassische TriCore Familie zu und auch auf Freescale und STMs SPC Reihe. Leistungsstarke Mikrocontroller gibt es auch auf dem freien Markt, zum Beispiel i.MX RT oder STM32H7 und wer kleine Stückzahlen im Automotive Bereich benötigt, der muss halt schauen ob es was einigermaßen passendes von der Stange gibt. Zum eigentlichen Thema gibt es nicht mehr viel zu sagen, es heißt nun abwarten.
René F. schrieb: > Zum eigentlichen Thema gibt es nicht mehr viel zu sagen, es heißt nun > abwarten. Und Kölsch trinken . . . ;-)
Falk B. schrieb: > René F. schrieb: >> Zum eigentlichen Thema gibt es nicht mehr viel zu sagen, es heißt nun >> abwarten. > > Und Kölsch trinken . . . ;-) Nö, bei mir im Süden gibts richtiges Bier ;)
Kölsch ? hier trinkt man Bönsch ! :ducks: Da wo ich gearbeitet habe, hatten bei einige Modulen Aurix uC on Keramik zusammen mit anderen Komponenten gehabt, ohne Gehäuse :). Die Modulen hat Bosch entwickelt. Es gab auch einige mit SH-2A...
Ingenieur schrieb: > 2009 das Chaos um den Ausstieg aus der Schwer-Ionen-Medizin: Die ab 2006 > teuer entwickelten Teilchenbeschleuniger wurden stillgelegt und 150 Mio > verbrannt. Heute kauft man Varian, um wieder Anschluss zu bekommen! Ein > Schwerz. Siemens hat es doch niemals hinbekommen, den Teilchenstrahl hinreichend gut zu fokussieren, so dass diese Geräte sowohl aus onkologischer als auch Strahlenschutzsicht niemals zulassungsfähig waren. Eines der großen Probleme bestand wohl darin, dass in den Anlagen irgendwelche Steinzeittechnik verbaut wurde. Hier in Kiel wurde ja eine der beiden Anlagen aufgebaut und niemals in der Form in Betrieb genommen. Ich war damals selbst an den Diskussionen mit Leuten in der Radiologie bzw. einem potentiellen Investor beteiligt, ob man die von Siemens zwischenzeitlich aufgegebene Anlage doch noch irgendwie retten könne. Eines der größten Risiken war dabei, dass für etliche Komponenten die Ersatzteilversorgung nicht mehr sichergestellt war. Die in dem u.a. Artikel getroffene Aussage "Die Entscheidung von Siemens habe seiner Ansicht nach nichts mit relevanten technischen Problemen zu tun." ist nicht zutreffend, sondern gerade auf der technischen Ebene hatte Siemens komplett versagt und war nicht in der Lage, das zu beheben. https://www.aerzteblatt.de/nachrichten/47344/Aus-fuer-Partikeltherapiezentrum-in-Kiel Varian war zur damaligen Zeit hingegen schon in der Lage, solche Anlagen als Standardprodukte hinzustellen, und zwar ohne irgendwelche Hintertürchen, durch die man das Entwicklungsrisiko noch auf die Auftraggeber (der öffentlichen Hand) verlagern konnte.
Interessant. Waren die Anlagen unterschiedlich? Die hier "unten" in Heidelberg funktioniert, was ich gehört habe und es werden / wurden auch Patienten behandelt. Ich wüsste auch nicht, dass die stillgelegt worden wäre.
M. W. schrieb: > Interessant. Waren die Anlagen unterschiedlich? Die hier "unten" in > Heidelberg funktioniert, was ich gehört habe und es werden / wurden auch > Patienten behandelt. Ich wüsste auch nicht, dass die stillgelegt worden > wäre. Die Anlage in Heidelberg wurde ja auch nicht von Siemens gebaut, sondern unter Federführung der GSI Darmstadt. Die folgende Broschüre ist insbesodnere aus technischer Sicht sehr interessant: https://www.klinikum.uni-heidelberg.de/fileadmin/pressestelle/PM_neu/Bauamtsbroschuere.pdf Ab Seite 50 findet man dort die relevanten Projektbeteiligten und ausführenden Unternehmen. Siemens durfte dabei nur die Medizintechnik liefern, was die normale Krankenhausausstattung betrifft, die CTs zur Lagekontrolle des Patienten(S.41), die Patientenliegen an den Behandlungsplätzen und die Software zur Behandlungsplanung. Auf einigen Fotos ist sehr gut zu erkennen, dass es sich bei dem "Roboterarm" mit der Patienliege um ein Standardprodukt von Siemens handelt. Interessanterweise ist in der Broschüre jedoch das Siemens-Logo wegretouchiert. Die Anlage in Marburg wurde übrigens auch von Siemens völlig verkackt: https://www.aerzteblatt.de/archiv/131907/Partikeltherapie-Aus-fuer-Anlagen-in-Kiel-und-Marburg Und wie ich eben aus erster Hand weiß, hat Siemens die technischen Probleme nicht in den Griff bekommen, weil sie in den Anlagen uralten Schrott verbaut hatten, den sie ansonsten auch nicht mehr losgeworden wären. Durch den Rückzug und die Rückerstattung des Kaufpreises konnte Siemens nur noch den Kopf aus der Schlinge ziehen, denn ansonsten wären sie verklagt worden, wobei der Pfusch dann noch stärker öffentlichkeitswirksam geworden wäre: https://www.degro.org/siemens-plant-hochwertige-anlage-fuer-krebstherapie-zu-verschrotten-kaufangebot-eines-investors-in-hoehe-von-fast-100-millionen-euro-wurde-bisher-abgelehnt/ Die in dem Artikel der DEGRO erwähnte Betriebsgenehmigung bezog sich meines Erachtens nicht auf die Behandlung von Patienten, sondern die Anlage wurde nur unter dem Aspekt des betrieblichen Strahlenschutzes freigegeben, d.h. sie durfte für die Inbetriebnahme eingeschaltet werden. Dabei stellte sich dann erst heraus, dass sich die Ionenstrahlen gar nicht ordentlich fokussieren ließen. Da ich damals auch mit Mitarbeitern des mutmaßlichen Investors über die Anlage diskutiert hatte, weiß ich auch mit Sicherheit, dass nicht etwa Siemens den Rückzieher gemacht hat, sondern der Investor aus dem schon genannten Grund, dass Siemens die Wartung und Ersatzteilversorgung für den technisch veralteten Kram nicht hätte gewährleisten können. Vermutlich liefen die Gespräche wie folgt ab. Investor: "Wir kaufen Euch die Anlage für x EUR ab, aber Ihr müsst - gegen Einwurf großer Scheine - einen Wartungsvertrag anbieten." Siemens: "Nö." Zu der damaligen Zeit (2012) konnte hingegen Varian schlüsselfertige, erprobte Anlagen "ab Werk" liefern. Siemens Healthineers will derzeit übrigens gerade Varian kaufen. Und in der neuen Roadmap findet man dann auch schon "Existing Siemens Linac, no longer available for sale.", was ja nichts anderes heißt, als dass Siemens nicht nur Synchrotrone verkackt, sondern auch bei Linearbeschleunigern nicht mehr marktfähig ist. https://www.spiegel.de/wirtschaft/unternehmen/siemens-healthineers-will-varian-fuer-16-4-milliarden-dollar-kaufen-a-73d6202e-5ad8-4f74-aa1f-357eaa2ca293 https://www.siemens-healthineers.com/de/radiotherapy/varian-partnership Aber dafür gibt es dort bestimmt viele Konzernbeamte, die Powerpointfolien malen können. Das ist ja auch viel wichtiger, als die Technik zu beherrschen.
:
Bearbeitet durch User
Soweit mir damals (2007) das jemand erklärt hat, hatte Siemens die von der GSI entwickelte Technologie der Teilchenbeschleunigung gekauft, welche diese patentiert hatte. Ab dann hat Siemens die Anlagen gebaut. Geplant waren da angeblich 4 oder 5. Von der GSI hatten wir mal jemanden hier, der an den Prototypen mitentwickelt hatte: Arbeitsgrundlage waren damals C-Programme zur offline-Berechnung der Strahlsteuerung und Ermittlung der Position, die mit MATLAB und Controllern simuliert worden waren. Getestet wurde die Elektronik mit Labview! Die hatten da keine Kompetenzen in Elektronik, die ausgereicht hätte, eine größere Anlagenentwicklung aufzuziehen. Das lief alles auf Dr.-Arbeiten-Niveau an deren Forschungsanlage. Ich kann mir nicht vorstellen, dass die GSI das technische KnowHow und die Leute hatte oder sich das kurzfristig besorgen konnte, um das alles aufzubauen, ganz zu schweigen von der finanziellen Seite. Wann und wie hätte das sein sollen? Unsere Firma war damals mit der Eckelmann in Wiesbaden zugange, die einen Teil der Steuerung gemacht haben. Das passierte alles in Zusammenarbeit mit Siemensprojektleitern und Entwicklern in Erlangen. Kann mich noch an Telefonate erinnern. Die waren auch in Heidelberg an der Anlage. Was nach 2007 passierte, weiss ich nur vom Hörensagen, weil ich dann meinen Job gewechselt habe. Von Kollegen habe ich erfahren, dass so um 2010 / 2011 nochmal etwas mit Teilchen-Detektoren entwickelt wurde, um sie in Rudolstadt einzusetzen. Das weckte mein Interesse, weil ich in der Region aufgewachsen bin und bislang nichts davon mitbekommen hatte. Soweit ich informiert bin, betreibt die Siemens das dort installierte System seither als Forschungsanlage.
Aber jetzt zurück zum Thema: Hat denn die GateMate-FPGA-Landschaft auch eine Entwicklungssoftware, die man sich kostenlos runterladen und mal anschauen kann? Gibt es EVAL-Systeme für die FPGAs? Die müssten ja so etwas haben - zumindest für den hausinternen Gebrauch.
M. W. schrieb: > Soweit mir damals (2007) das jemand erklärt hat, hatte Siemens die von > der GSI entwickelte Technologie der Teilchenbeschleunigung gekauft, > welche diese patentiert hatte. Ab dann hat Siemens die Anlagen gebaut. Genau, und Siemens hat es nicht hinbekommen. Bei der funktionsfähigen(!) Anlage in Heidelberg hatte Siemens nur eine vergleichsweise kleine Rolle. > Geplant waren da angeblich 4 oder 5. Von der GSI hatten wir mal jemanden > hier, der an den Prototypen mitentwickelt hatte: Arbeitsgrundlage waren > damals C-Programme zur offline-Berechnung der Strahlsteuerung und > Ermittlung der Position, die mit MATLAB und Controllern simuliert worden > waren. Getestet wurde die Elektronik mit Labview! Die hatten da keine > Kompetenzen in Elektronik, die ausgereicht hätte, eine größere > Anlagenentwicklung aufzuziehen. Solch eine Anlage besteht nicht nur aus Elektronik, sondern sehr vielen wissenschaftlichen Disziplinen. Die reine Elektronikentwicklung vergibt man dann an ein Unternehmen, das Elektronik entwickeln und bauen kann. > Das lief alles auf Dr.-Arbeiten-Niveau > an deren Forschungsanlage. Ich kann mir nicht vorstellen, dass die GSI > das technische KnowHow und die Leute hatte oder sich das kurzfristig > besorgen konnte, um das alles aufzubauen, ganz zu schweigen von der > finanziellen Seite. Wann und wie hätte das sein sollen? Ich habe niemals behauptet, dass die Anlage in Heidelberg von der GSI gebaut worden sei, sondern sie ist unter der Federführung der GSI entstanden. Hast Du Dir überhaupt mal die von mir verlinkte Broschüre durchgelesen oder reißt Du nur die Klappe auf, ohne Dich vorher mal informiert zu haben? > Unsere Firma war damals mit der Eckelmann in Wiesbaden zugange, die > einen Teil der Steuerung gemacht haben. Das passierte alles in > Zusammenarbeit mit Siemensprojektleitern und Entwicklern in Erlangen. > Kann mich noch an Telefonate erinnern. Die waren auch in Heidelberg an > der Anlage. Genau. Für deren Anteil an der Anlage. > Was nach 2007 passierte, weiss ich nur vom Hörensagen, weil > ich dann meinen Job gewechselt habe. Von Kollegen habe ich erfahren, > dass so um 2010 / 2011 nochmal etwas mit Teilchen-Detektoren entwickelt > wurde, um sie in Rudolstadt einzusetzen. Das weckte mein Interesse, weil > ich in der Region aufgewachsen bin und bislang nichts davon mitbekommen > hatte. Soweit ich informiert bin, betreibt die Siemens das dort > installierte System seither als Forschungsanlage. Das mag schon sein. Die Anlage in Marburg sollte ja ab 2012 demontiert und siemensintern als Forschungsanlage eingesetzt werden. Das heißt aber nichts anderes, als dass Siemens die Technik einfach nicht im Griff hat(te).
M. W. schrieb: > Getestet wurde die Elektronik mit Labview! Das mag daran liegen, das der größte Experte, den ich für LabView kenne, bei der GSI arbeitet: https://forums.ni.com/t5/LabVIEW-Champions-Directory/LabVIEW-Champion-Dr-Holger-Brand/ta-p/3500494?profile.language=en > Die hatten da keine > Kompetenzen in Elektronik, die ausgereicht hätte, eine größere > Anlagenentwicklung aufzuziehen. Nunja, das sehe ich anders, aber vermutlich haben wir da einfach verschiedene Blickwinkel: https://de.wikipedia.org/wiki/Facility_for_Antiproton_and_Ion_Research#Die_Beschleuniger_und_andere_Anlagen Aber ja, eine Entwicklung für die Forschung funktioniert 'etwas' anders als eine Entwicklung für die Industrie... Duke
Nun. schrieb: > brigens findet sich dort die Aussage, dass sie wohl Yosys unterstützen > wollen. Es findet sich auch die Aussage, dass sie Xilinx Netzlisten und Designs importieren können sollen oder wollen. Ich frage mich, wie das bei den ganzen Cores funktionieren soll. Schau dir ein heutiges SOC-Design mal an: Einen Haufen Scripte, einen Haufen Blöckchen, einen Haufen Cores und für jeden Piep eine eigene IP. Das ist alles zugeschlossen und vernagelt. Da sehe ich kaum Raum, dass jemand seine Designs auf kölsche FPGAs portieren wird. Uwe schrieb: > Infineon hat cypress semiconductor gekauft... > https://www.cypress.com/ Eine kleine, aber bedeutende Randnotiv. Fragt sich, was sie damit wollen.
FPGA-Experte schrieb im Beitrag #6441111: > Es findet sich auch die Aussage, dass sie Xilinx Netzlisten und Designs > importieren können sollen oder wollen. Ich frage mich, wie das bei den > ganzen Cores funktionieren soll. Das kann durchaus klappen, tut es auch bei anderen Architekturen mit Lattice-Primitiven. Allerdings kann die Optimierung etwas auf der Strecke bleiben. FPGA-Experte schrieb im Beitrag #6441111: > Das ist alles zugeschlossen und vernagelt. Da sehe ich kaum Raum, dass > jemand seine Designs auf kölsche FPGAs portieren wird. Es gibt eine Menge offener, portabler SoC-Builder. Wer sich auf Vendor-Lock-in einlässt ist nun mal selber schuld.
Ich denke der Import ist nicht so wichtig, bzw immer irgendwie machbar. Entscheidender ist die Frage nach den Möglichkeiten der Hardware. In den Angaben zur den Daten stehen beim größten FPGA bis zu 100 PLLs. Na Danke. Hat dann jeder SERDES seine eigene? Ich vermisse z.B. Angaben über embedded Multiplier und DSP-Elemente. Dort steht, dass man jedes Köln-Element als 2x2 MUL nutzen kann. Wie werden die dann verschaltet? Mit einen weiteren Kölsch? Einmal angenommen, man muss die MULs aus Einzelelementen herstellen und braucht für die Verkettung jeweils einen weiteren zur Carry-Forschreibung, dann bekommst du einen pipeline-MUL mit einer Baumstruktur: Ein 8x8 bräuchte dann 16 dieser 2x2 + den Adder-Baum mit 7 - Stufen und demnach 25 Stück. Wie schnell ist das dann?
Weltbester FPGA-Pongo schrieb im Beitrag #6448412: > In den Angaben zur den Daten stehen beim größten FPGA bis zu 100 PLLs. > Na Danke. Hat dann jeder SERDES seine eigene? Wenn man es braucht, bspw. phased array Techniken zur elektronischen Strahlschwenkung in Radar und Sonar? https://en.wikipedia.org/wiki/Phased_array In Glasfasern scheint intensives Frequenz/Phasen-multiplex nicht unüblich zu sein. Ferner denke man auch an SDR mit FPGA's in SpreadSpectrum Verfahren zur Störunterdrückung (frequency hopping). https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8002571 https://stars.library.ucf.edu/cgi/viewcontent.cgi?article=1668&context=etd > Ich vermisse z.B. Angaben über embedded Multiplier und DSP-Elemente. > Dort steht, dass man jedes Köln-Element als 2x2 MUL nutzen kann. > > Wie werden die dann verschaltet? Mit einen weiteren Kölsch? Seite 12 zeigt die 8I2O LUT, S17 die RAM's und S.20/21 die interconnects: https://www.colognechip.com/docs/CologneChip-GateMate-Productbrief_10-2020.pdf > Einmal angenommen, man muss die MULs aus Einzelelementen herstellen und > braucht für die Verkettung jeweils einen weiteren zur > Carry-Forschreibung, dann bekommst du einen pipeline-MUL mit einer > Baumstruktur: > >. Wie schnell ist das dann? Eine weitere Design-Frage ist aber auch, ob man bei serialisiert vorliegenden Daten ohnehin nicht besser mit einem serialisierten Multiplizierer kommt. Wenn ein vollständiges Datenwort erst nach 32/16 Takten eingeschoben ist, dann kann man sich auch diese Takte Zeit zur Verarbeitung lassen. Multiplizerer in FPGA's sind ohnehin eine eher neue Erscheinung (Spartan-3 ab 2003), viele Jahrzehnte ist man bei den meisten Anwendungen komplett ohne ausgekommen oder hatte clevere Algorithmen an der Hand, die den ⊗-Bedarf reduzieren: Beitrag "IIR Bandpass ohne Multiplikation"
Ist das FPGA-Zeug nicht alles schon patentiert (in den USA) ? Wie haben die aus Köln das umgangen ? Oder haben sie etwas Neues erfunden ?
Genau schrieb: > Ist das FPGA-Zeug nicht alles schon patentiert (in den USA) ? Patente haben eine begrenzte Schutzdauer und das FPGA-Zeug ist nicht mehr soo neu (vermute das die relevanten Patente alle so 1980-1990 oder sogar früher geschrieben wurden).
Fpgakuechle K. schrieb: > Wenn man es braucht, bspw. phased array Techniken zur elektronischen > Strahlschwenkung in Radar und Sonar? Da sind die internen PLLs in nem FPGA aber eher nicht gut genug für. Die Anzahl der PLLs ergibt sich daraus, dass die eine auf dem Wafer "vereinzelbare" Struktur haben - jedes vereinzelbare Die hat 4 PLLs. Wenn man die zusammen lässt, hat man eben bis zu 5x5x4 PLLs - ob man die braucht und nicht ;-) "Daher haben wir überlegt, wie man mit einem Maskensatz FPGAs mit unterschiedlichen Größen fertigen kann. So sind wir auf ein Design gekommen, bei dem die Dies auf dem Wafer im Substrat untereinander mit jeweils über 1000 Leitungen pro Kante zum Nachbar-Die verbunden sind. Diese Leitungen liegen unterhalb der so genannten scribe line, die die Chips umgibt und an der sie per Diamantsäge vereinzelt werden. " Quelle: https://www.elektronikpraxis.vogel.de/gatemate-deutsches-fpga-mit-eingebauter-overdrive-funktion-a-952832/
Im og Link steht: Frage: "Ihre Wettbewerber haben meist mehrere Baustein-Familien für unterschiedliche Applikationsanforderungen. Was setzen Sie dem entgegen?" Antw: "Das weit skalierbare Performance-Potenzial unserer GateMate-FPGAs und unser zum Patent angemeldetes Fertigungsverfahren." Na dann ist ja klar, womit die konkurenzfähige Preise erzielen können ???
MCUA schrieb: > Na dann ist ja klar, womit die konkurenzfähige Preise erzielen können > ??? Naja weniger Produktvarianten und nur ein Maskensatz hilft dabei tatsächlich.
Fpgakuechle K. schrieb: > Multiplizerer in FPGA's sind ohnehin eine eher neue Erscheinung > (Spartan-3 ab 2003), viele Jahrzehnte ist man bei den meisten > Anwendungen komplett ohne ausgekommen Jaja, das war die Zeit, als wir in FPGAs nur die Logik untergebracht hatten, weil die nur mit 25Mhz liefen und nix konten als MULs in RAMs (z.B. der eben von dir genannte Spartan 3 machte das so). Nee Nee Nee, mit den embedded MULs ging es ja erst los, dass man bei Radar und anderen Anwendungen im Zeitbereich arbeiten konnte, weil man eben nicht den beam mit ns-Schriten formen musste, sondern die Welle subsample verschoben hat und die Filter drauf losgelassen hatte, die phasenlinere-FIR und Kaiser konnten. Serielle MULs mit 32 Takten kann keiner gebrauchen. Im Gegenteil: Mit einer schnellem FFT und angemssenene Filterung kommt man heute nur hin, wenn die MULs in einem Takt auf 300MHz laufen können, weil sie Gleichungen lösen müssen und dafür schon 20 Takte verbraten. Nun. schrieb: > Da sind die internen PLLs in nem FPGA aber eher nicht gut genug für. So ist es. Man erzeugt die eher mit einer PLL, schiebt den geformeten Beam über mehrere Kanäle dynamisch raus und holt die Daten parallel mit Wandlern ab, die ihrerseits an derselben externen PLLs hängen.
Nun. schrieb: > Die Anzahl der PLLs ergibt sich daraus, dass die eine auf dem Wafer > "vereinzelbare" Struktur haben - jedes vereinzelbare Die hat 4 PLLs. > Wenn man die zusammen lässt, hat man eben bis zu 5x5x4 PLLs - ob man die > braucht und nicht ;-) Das hört sich an, als ob man sich die FPGAs a la Ritter Sport abbrechen und in verschiedenen Konfigs ins Case backen lassen kann. Das wäre in der Tat interessant. Der Knackpunkt dabei: Logik ist schon lange nicht mehr der Kostenfaktor. Die Kunden wollen SoCs , die alles mögliche können und zahlen lieber etwas mehr, um sich die Platinenentwicklung zu sparen oder zu vereinfachen, damit man nicht Prozessoren, RAMs und FPGAs braucht, sondern alles beisammen hat. Mit den Strukturen, wie die es beschreiben, können sie nur mit den einfachen billigen FPGAs konkurrieren und deren Preis ist überwiegend von den Kosten für Marketing, Packaging und Vertrieb geprägt und nicht von den Waferkosten. Das wird schwierig.
Weltbester FPGA-Pongo schrieb im Beitrag #6449436: > Das hört sich an, als ob man sich die FPGAs a la Ritter Sport abbrechen > und in verschiedenen Konfigs ins Case backen lassen kann. Das wäre in > der Tat interessant. Im Umkehrschluss bedeutet das aber auch, dass man sich schon bei recht kleinen Designs ggf. mit den Problemen von Multichip-FPGA herumschlagen muss, ähnlich wie bei Xilinx SSI: https://www.xilinx.com/products/silicon-devices/3dic.html So etwas liest sich in Hochglanz-Werbeprospekten ganz toll, bedeutet aber auch, dass eine Taktdomäne ggf. auf einem Chip bleiben muss. Sobald man auf einen der anderen Chips wechseln will, bricht entweder der maximale Takt ein oder man muss irgendwelche Synchronisierungsstufen einbauen.
> Multiplizerer in FPGA's sind ohnehin eine eher neue Erscheinung > (Spartan-3 ab 2003), viele Jahrzehnte ist man bei den meisten > Anwendungen komplett ohne ausgekommen Altera hatte aber seit Mitte der 90er auch EBR, was über Logic hinausgehende Funktionen ermöglichte. >Mit den Strukturen, wie die es beschreiben, können sie nur mit den >einfachen billigen FPGAs konkurrieren Muss ich stark bezweifeln.
Es ist ja klar, dass ein kleines Unternehmen technisch nicht mit Unternehmen mit einem Jahresumsatz im Milliardenbereich mithalten kann. Es ist aber trotzdem gut, wenn es FPGAs gibt, die nicht (direkt) den Wirtschaftskontrollmechanismen ("Exportregularien") der USA unterliegen. Mit GateMate kann man sicher nicht alles direkt lösen, aber vielleicht schonmal in manchen Bereichen. Kann man die jetzt eigentlich irgendwo kaufen? Beim deutschen Distributor habe ich gar nichts gefunden und beim österreichischen nur, dass man anfragen kann.
Dussel schrieb: > Es ist aber trotzdem gut, wenn es FPGAs gibt, die nicht (direkt) den > Wirtschaftskontrollmechanismen ("Exportregularien") der USA unterliegen. Ja. Darum gibt es zwei europäische Initiativen die da Geld einfüllen. Nach meinen Quellen geht das alles nach Frankreich. Hat mich sogar gewundert, dass für den GateMate noch nichts bekannt ist, wer der erste Kunde ist oder wer/ob da Fördergelder drin sind. 1. ESA: https://www.esa.int/Enabling_Support/Space_Engineering_Technology/Shaping_the_Future/High_Density_European_Rad-Hard_SRAM-Based_FPGA-_First_Validated_Prototypes_BRAVE https://nanoxplore.com/ 2. EU Horizon Programm: https://www.european-processor-initiative.eu/accelerator/ https://sipearl.com/index_en.php
Christoph Z. schrieb: > Hat mich sogar > gewundert, dass für den GateMate noch nichts bekannt ist, wer der erste > Kunde ist oder wer/ob da Fördergelder drin sind. Es steht zumindest da, dass es 'unterstützt' ("supported") wird. https://www.colognechip.com/programmable-logic/gatemate/
Möglicherweise ist das eine Backup-Technologie für wichtige Industriebereiche, falls mal was passieren sollte. Also nicht für den Bastler.
Wenig tragfähig. Wir brauchen kein Geld in Firmen stecken, die in 95% der Fälle keinen Erfolg haben und in den anderen 5% der Fälle unter US-Kontrolle geraten. Bei den Initiativen habe ich den Eindruck, es geht darum dass sich irgendeine europäische Firma(Firmengruppe) irgendetwas unter den Nagel reist oder zugesprochen kommt. Da wir keine/kaum derartige Firmen haben, wäre der logische Schritt, insofern es sich um wirtschaftlich kritische Komponenten handelt, diese Opensource zu machen und den Markt eher "kaputt zu machen". Es kann keinen Erfolg haben, diesbezüglich marktwirtschaftlich konkurrenzfähige Produkte, sprich Produkte mit attraktiver Marge in irgendeiner Art, zu entwickeln und zu vertreiben. Dafür ist der Vorsprung zu groß, nicht nur technologisch. Genau schrieb: > Möglicherweise ist das eine Backup-Technologie für wichtige > Industriebereiche, falls mal was passieren sollte. Also nicht für den > Bastler. Gerade mit den Bastlern müsste man anfangen, so wie es die Chinesen machen. Wer legt sich schon solche FPGAs in die Firma? Die bereits millionenfach verwendeten Bausteine und Tools sind unausgereift genug. Diesbezüglich benötige ich nicht extra noch ein unausgereiftes Nischenprodukt. Noch dazu mit nicht-monolithischer Architektur bzgl. der Logik, schlechte Portierbarkeit.
abc schrieb: > Noch > dazu mit nicht-monolithischer Architektur bzgl. der Logik, schlechte > Portierbarkeit. Das musste mal erläutern, das ist unverständlich. FPGA's sind ohnehin nur schlecht portierbar und eh nur soweit wie man es zulässt. wer seine eigne 'Bibliothek' schreibt und eine modulares Architektur durchzieht ist da auf der 'weniger schlechten' Seite.
Beitrag #6450738 wurde von einem Moderator gelöscht.
Weltbester FPGA-Pongo schrieb im Beitrag #6449436: > Mit den Strukturen, wie die es beschreiben, können sie nur mit den > einfachen billigen FPGAs konkurrieren und deren Preis ist überwiegend > von den Kosten für Marketing, Packaging und Vertrieb geprägt und nicht > von den Waferkosten. Also hier fehlen IMHO die Softwarekosten und die machten zumindest zeitweise einen Grossteil der (Entwicklungs-)kosten für Xilinx aus. Klar kann man den FPGA-Nutzer durch Kaufsoftware daran beteiligen, aber das funktioniert eher schlecht. Da muss man schon seine GB-grosse Software Suite und den Support dazu verschenken, damit sich überhaupt einer dafür interessiert und der kauft dann auch nur für 10k FPGA's für ne Kleinserie. Wenn man dagegen die (selbstgeschrieben) Software schon hat und den FPGA hauptsächlich als In-House Entscheidung einführt, kann sich das ganze schon rechnen. Verkauf an Dritte ist dann unerwartetes Nebengeschäft.
abc schrieb: > Wenig tragfähig. Eigentlich durchgehend Full-ACK zu deinen Kommentaren. Die ESA BRAVE FPGA Geschichte ist ja eigentlich eine Wiederholung vom Atmel FPGA. Atmel ist ja jetzt schon länger Microchip (USA)... Trotzdem bleiben die "Atmel Chips" made in France ITAR frei (Keine US Exportkontrolle, ev. EU Exportkontrolle). Diese Petaflop Supercomputer Initiative finde ich leicht besser, weil da schon ganz viel von LLVM und RISC-V gequasselt wird. Also immerhin Investitionen in Open Source, was ich persönlich angemessen finde, wenn Steuergelder im Spiel sind.
Sobald für die Entwicklung irgendeiner Technologie öffentliche Fördergelder angekündigt werden, kommt es oft schlagartig zum Stillstand. Die einen Akteure machen dann keinen Finger mehr krumm, ohne Fördergelder erhalten zu haben, und die anderen lamentieren herum, dass sie ohne Fördermittel gegenüber Mitbewerbern benachteiligt würden. Außerdem begibt man sich auf eine ziemliche Gratwanderung: auf der einen Seite muss man schon ein gewisses Know-How vorweisen können, um überhaupt Aussicht auf solche Zuwendungen zu haben, aber auf der anderen Seite darf man mit der Entwicklung noch nicht begonnen haben, denn in den Vergaberichtlinien fast aller Fördergelder steht ausdrücklich, dass noch keine Vorleistungen erbracht worden sein dürfen. Also steckt man im Zweifelsfall schon Geld in Konzepte und wartet dann jahrelang auf eine Genehmigung oder Ablehnung der Anträge. So etwas leisten sich aber nur irgendwelche trägen Großkonzerne. Wer jedoch wirklich frischen Wind in eine Branche bringen will, sucht sich lieber andere Geldgeber. Oder am besten gleich einen Entwicklungsstandort in einem Land, in dem es eine wesentlich offenere Geschäftskultur gibt. Eine weitere Möglichkeit besteht darin, Förderanträge für beliebige Themen nach der Gießkannenmethode zu stellen. Gelegentlich wird dann doch mal einer bewilligt. Ich kenne eine Unternehmerin, deren Geschäftsbetrieb ausschließlich aus solch einer Vorgehensweise bestand. Verkaufsfähige Produkte oder Leistungen sind dabei aber natürlich niemals herausgekommen; das war aber wohl auch nie die Absicht. Glücklicherweise ist der Laden dann aber doch pleite gegangen. Nachtrag: Ich habe gerade festgestellt, dass es den Laden doch wieder gibt. Derzeit wird beliebige Blabla-Beratung und Kundenakquise angeboten.
:
Bearbeitet durch User
Schoen in dem Zusammenhang waere auch Unterstuetzung fuer die offenen FPGA Entwicklung mit Yosys and friends
abc schrieb: > Wenig tragfähig. Wir brauchen kein Geld in Firmen > stecken, die in 95% der Fälle keinen Erfolg haben > und in den anderen 5% der Fälle unter US-Kontrolle geraten. Mit anderen Worten: Strom kommt aus der Steckdose, Chips aus Asien und die Patente aus den USA, also müssen wir uns darum nicht mehr kümmern. > Da wir keine/kaum derartige Firmen haben, wäre der > logische Schritt, insofern es sich um wirtschaftlich > kritische Komponenten handelt, diese Opensource zu > machen und den Markt eher "kaputt zu machen". Wer sollte denn das als Open Source machen können? Wenn das wirklich marktrelevant wird, dann fängt ein Qualcomm an, die Entwickler in Grund und Boden zu klagen, während ein Intel oder ein Google die gegen gutes Gehalt einstellt. Und schon war's das. (Außerdem ist es extrem schwierig, ein Open Source-Produkt in einen streng regulierten Markt einzuführen.) Wenn das eine Chance haben soll, dann braucht sowas zumindest eine Firmenstruktur und Unterstützer. > Gerade mit den Bastlern müsste man anfangen, > so wie es die Chinesen machen. Tun sie das? Ich sehe da eigentlich nur Projekte, die zwar für Bastler zugänglich sind (Alibaba sei dank), aber eigentlich für irgendwelche Groß-bis-Riesig-Stückzahlen entwickelt wurden, z.B. bei Padauk oder Allwinner. > Wer legt sich schon solche FPGAs in die Firma? Mit anderen Worten: Niemand wird dafür gefeuert, IBM gekauft zu haben.
Fpgakuechle K. schrieb: > abc schrieb: >> Noch >> dazu mit nicht-monolithischer Architektur bzgl. der Logik, schlechte >> Portierbarkeit. > > Das musste mal erläutern, das ist unverständlich. Das zusammengestückelte Silizium. S. R. schrieb: > abc schrieb: >> Wenig tragfähig. Wir brauchen kein Geld in Firmen >> stecken, die in 95% der Fälle keinen Erfolg haben >> und in den anderen 5% der Fälle unter US-Kontrolle geraten. > > Mit anderen Worten: Strom kommt aus der Steckdose, Chips aus Asien und > die Patente aus den USA, also müssen wir uns darum nicht mehr kümmern. Blinder, zum Scheitern verurteilter Aktionismus bringt nichts. Welche Vorteile hat man als Kunde beim Kauf einer vermutlich teureren Neuentwicklung xyz gegenüber den Alteingesessenen? Natürlich kann ich US-Export-Restriktionen befürchten. Aber bei so einer kleinen Klitsche muss ich mich fragen, ob es die Teile in 15 Jahren überhaupt noch gibt. Irgendeine Spezialarchitektur on top ist da nicht gerade förderlich für das Vertrauen. Wenn die Kunden/Abnahme nicht zusammen kommt, dann trägt es sich prinzipiell nicht marktwirtschaftlich. Dann bleibt nur noch, dass es sich irgendwie anders tragen muss. >> Da wir keine/kaum derartige Firmen haben, wäre der >> logische Schritt, insofern es sich um wirtschaftlich >> kritische Komponenten handelt, diese Opensource zu >> machen und den Markt eher "kaputt zu machen". > > Wer sollte denn das als Open Source machen können? Die Kunden der bisherigen Produkte. Diejenigen, die es nutzen. Universitäten. Linux wurde nicht von Sun oder Microsoft entwickelt. Android wurde nicht von Samsung oder Nokia entwickelt. Kicad wurde nicht von Cadsoft entwicket. Risc-V wurde nicht von ARM entwickelt. IsoTP für Linux wird nicht von Vector entwickelt. Bei Software gibt es Opensource schon länger. Bei PCBs hat Opensource auch schon Einzug gehalten. Das Problem ist nicht, dass bei großen FPGA-Nutzern nicht mehrere Millionen dafür verfügbar wären. Das Problem ist, dass von den FPGA-Kunden keiner mehrere Millionen in ein Opensource-Projekt steckt, von dem die Konkurrenz (ebenfalls FPGA-Nutzer) dann kostenlos profitiert. Der Unterschied zur Software und zu PCBs ist, dass hier aufgrund der Fertigungskosten die "Einstiegsschwelle" hoch ist und man nicht auf geringer Flamme, unverbindlich oder im Universitätsbastelkeller zusammen findet um einen ersten Nutzen zu generieren. Es bräuchte also ein mit mehreren Millionen Euro (pro Jahr) ausgestattetes Konsortium, dass die Fertigungskosten (möglichst nur diese) übernimmt und später die gefertigten Teile zum Selbstkostenpreis abgibt. Später könnte es verschiedene Fertiger geben, so wie das jetzt für ARM-Cores auch geht. Peanuts im Vergleich zu GEZ, (indirekter) Solarpaneele-Förderung und vielem anderen. Mit dem deutschen Giesskannen-Prinzpip bei der Förderung der Universitäten, und dann möglichst nur Personalkosten, wird das nichts. Und mit der klassischen Förderung von Unternehmen (wollen wir die kleine Bäckerei mal bei der Investition oder dem Schaffen eines neuen Jobs unterstützen) wird das auch nichts. >> Gerade mit den Bastlern müsste man anfangen, >> so wie es die Chinesen machen. > > Tun sie das? Ja. > Ich sehe da eigentlich nur Projekte, die zwar für Bastler > zugänglich sind (Alibaba sei dank), aber eigentlich für irgendwelche > Groß-bis-Riesig-Stückzahlen entwickelt wurden, z.B. bei Padauk oder > Allwinner. z.B. Espressif >> Wer legt sich schon solche FPGAs in die Firma? > > Mit anderen Worten: Niemand wird dafür gefeuert, IBM gekauft zu haben. Mit anderen Worten: Etwas Gutes tun wollen, kann jeder. Etwas Nutzbringendes zustande bringen, kann nicht jeder.
abc schrieb: > Blinder, zum Scheitern verurteilter Aktionismus bringt nichts. Das sehe ich ein. Eine Firma zu gründen, eine sinnvolle Alternative zu entwickeln und zu fertigen, und damit auf dem Markt zu erscheinen empfinde ich aber nicht als blinden Aktionismus. > Welche Vorteile hat man als Kunde beim Kauf einer vermutlich > teureren Neuentwicklung xyz gegenüber den Alteingesessenen? Wenn ich als Kunde mit den Teilen der alteingesessenen Hersteller zufrieden bin, dort meine Expertise und vorherigen Projekte gemacht habe und zu meinen Wunschkonditionen zuverlässig versorgt werde, dann habe ich sicherlich keinen Vorteil von einem Wechsel. Ist dem nicht so, sollte man immer überlegen, ob ein Wechsel sinnvoll sein kann. Auch dann, wenn man nicht wechselt. Ob die europäischen FPGAs teurer sind, lässt sich spontan nicht sagen und hängt sicher auch von der Anwendung ab. > Natürlich kann ich US-Export-Restriktionen befürchten. Richtig, aber das ist eher eine Frage persönlicher Paranoia. > Aber bei so einer kleinen Klitsche muss ich mich fragen, > ob es die Teile in 15 Jahren überhaupt noch gibt. Ich frage mich eher, ob ich mein Produkt in 15 Jahren mit der gleichen Technik überhaupt noch verkaufen kann oder muss. Und was mein nächstes Projekt ist, welche Technik dort sinnvoll ist usw. Die zukünftige Version meines Produktes wird wahrscheinlich neue Funktionen haben, und ob ein jetzt aktueller, aber in 15 Jahren vollständig veralteter Chip das dann noch bieten können wird, weiß ich nicht. Aber ich kann in 12 Jahren nachschauen, ob es die zukünftigen Versionen von deren Chips gibt. > Irgendeine Spezialarchitektur on top ist da nicht > gerade förderlich für das Vertrauen. Alle existierenden Standardarchitekturen waren mal Spezialarchitekturen. Und jetzt erzähle mir nicht, dass die großen Hersteller zu jeder Zeit kompatibel zu sich selbst waren. Da habe ich genug Toolchain-Flüche hier im Forum und anderswo im Netz gelesen. abc schrieb: > Wenn die Kunden/Abnahme nicht zusammen kommt, dann trägt es sich > prinzipiell nicht marktwirtschaftlich. Kleine Unternehmen arbeiten mit kleineren Märkten und kleineren Kundenstämmen noch immer wirtschaftlich. Ein Selbständiger mit Kleinserien arbeitet schlicht auf anderen Skalen als ein internationaler Großkonzern mit jahrzehntelangen Liefergarantien. abc schrieb: >> Wer sollte denn das als Open Source machen können? > > Die Kunden der bisherigen Produkte. Ich gebe dir deine Frage von oben zurück: Welche Vorteile hat man als Kunde von einer kompletten Eigenentwicklung xyz gegenüber den Alteingesessenen? Und warum sollte ich mir als Kunde die Risiken einer Klage antun, wenn ich nicht sowieso unter NDA leide? > Diejenigen, die es nutzen. Warum sollte ich als Nutzer etwas von Grund auf neu entwickeln, was ich schon habe? > Universitäten. Universitäten werden mit öffentlichen Geldern finanziert und haben es daher äußerst schwer, konkurrenzfähige Projekte kommerziell zu betreiben. Ohne den kommerziellen Ansatz - sei es durch Entwicklung oder Support - trägt sich das nicht. Deine Rechnung geht nicht auf. abc schrieb: > Linux wurde nicht von Sun oder Microsoft entwickelt. Wäre aber ohne die Unterstützung von großen und kleinen Unternehmen heute auch nur ein Nischenprodukt. > Android wurde nicht von Samsung oder Nokia entwickelt. Android wurde von Google entwickelt, Windows von Microsoft und MacOS von Apple. Alle drei gehören zu den größten Konzernen der Welt. Und Samsung entwickelt sehr wohl an Android mit (wie auch alle anderen OEMs). > Risc-V wurde nicht von ARM entwickelt. RISC-V ist nur ein Standard, keine Implementation. Auf konkurrenzfähige Implementationen der Snapdragon 835-Leistungsklasse warte ich noch.
Andreas S. schrieb: > Sobald man auf einen der anderen Chips wechseln will, bricht entweder > der maximale Takt ein oder man muss irgendwelche > Synchronisierungsstufen einbauen. Synchstufen braucht und hat man auch im FPGA, für uns in Form von FFs aus Sicht des Herstellers in Form von Kompensationsstufen, die wir nicht sehen. Natürlich ist ein Takt um so schwieriger schnell zu halten, je länger der Pfad und der Baum ist, aber mit entsprechenden Strukturen ist das dann nur budget limitierend. So arg bricht der nicht ein, meine ich.
Dussel schrieb: > Christoph Z. schrieb: >> Hat mich sogar >> gewundert, dass für den GateMate noch nichts bekannt ist, wer der erste >> Kunde ist oder wer/ob da Fördergelder drin sind. > Es steht zumindest da, dass es 'unterstützt' ("supported") wird. > https://www.colognechip.com/programmable-logic/gatemate/ Da frag ich mich sofort, warum es supported wird und was die sich davon versprechen. Muss ja dann was dran sein, oder? abc schrieb: > Wer legt sich schon solche FPGAs in die Firma? Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden, die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in die USA telefonieren muss, um support zu bekommen. Seit dem "SCAN"-Skandal gibt es eine Reihe von Bestrebungen, deutsche Technologie und Entwicklungen von den USA abzuschotten. Es gibt dann auch noch das Thema "FPGA-to-ASIC". Wenn man Prototype-FPGA und finalized Chip aus einer Hand in DE erhalten könnte, eröffnet das ganz andere Perspektiven was man auslagern kann. Gerade im MIL-Bereich darf vieles nichts in Ausland geliefert werden.
S. R. schrieb: > Ob die europäischen FPGAs teurer sind, lässt sich spontan nicht sagen > und hängt sicher auch von der Anwendung ab. Doch, das lässt sich spontan sagen: Wird teurer sein, wenn der Staat nicht die Fertigungskosten (dh. pro verkauftem Stück) subventioniert. usw. > Die zukünftige Version meines Produktes wird wahrscheinlich neue > Funktionen haben, und ob ein jetzt aktueller, aber in 15 Jahren > vollständig veralteter Chip das dann noch bieten können wird, weiß ich > nicht. Es geht nicht darum, für neue Produkte alte FPGAs zu nehmen. Es geht darum, dass Redesigns teuer sind und dass ich mir bevorzugt nicht x Bausteine für die nächsten 20 Jahre in den Schrank legen möchte, weil ich auch nicht weis, wie gut das Produkt in 18 Jahren noch geht. >> Irgendeine Spezialarchitektur on top ist da nicht >> gerade förderlich für das Vertrauen. > > Alle existierenden Standardarchitekturen waren mal Spezialarchitekturen. Ja, waren. Und jetzt funktionieren sie ganz gut. > Und jetzt erzähle mir nicht, dass die großen Hersteller zu jeder Zeit > kompatibel zu sich selbst waren. Wenn das Design auf das gestückelte Silizium hin optimiert werden muss und das nicht vollautomatisch funktioniert, dann ist das kein Vorteil für den Kunden. Da brauche ich nicht noch ein Designservice vom Hersteller dazu. Nein, ich nehme einen FPGA mit dem das nicht erforderlich ist. > abc schrieb: >> Wenn die Kunden/Abnahme nicht zusammen kommt, dann trägt es sich >> prinzipiell nicht marktwirtschaftlich. > > Kleine Unternehmen arbeiten mit kleineren Märkten und kleineren > Kundenstämmen noch immer wirtschaftlich. Ein Selbständiger mit > Kleinserien Das funktioniert bei der Chipherstellung mit halbwegs aktueller Technologie nicht. Oder wie viele Selbständige kennst Du, die Chips mit 40nm oder besser verkaufen? > > abc schrieb: >>> Wer sollte denn das als Open Source machen können? >> >> Die Kunden der bisherigen Produkte. > Ich gebe dir deine Frage von oben zurück: Welche Vorteile hat man als > Kunde von einer kompletten Eigenentwicklung xyz gegenüber den > Alteingesessenen? Und warum sollte ich mir als Kunde die Risiken einer > Klage antun, wenn ich nicht sowieso unter NDA leide? Opensource hat folgende Vorteile: . auch jemand anderes kann es produzieren, was die Abhängigkeit/das Risiko reduziert. . ich kann Bugs in der SW selbst beheben oder im Auftrag für wenig Geld beheben lassen . Die SW kann unabhängig vom Hersteller weiter entwickelt werden. Der Schwerpunkt kann dann mehr auf die Bedürfnisse aktueller Nutzer ausgerichtet werden und wird weniger dadurch getrieben, neue Märkte/Kundenkreise erschliessen "zu müssen". Schnittstellen können tendenziell länger stabil bleiben. >> Diejenigen, die es nutzen. > Warum sollte ich als Nutzer etwas von Grund auf neu entwickeln, was ich > schon habe? Wenn es Vorteile bringt. Darum geht es doch hier. >> Universitäten. > Universitäten werden mit öffentlichen Geldern finanziert und haben es > daher äußerst schwer, konkurrenzfähige Projekte kommerziell zu > betreiben. Ohne den kommerziellen Ansatz - sei es durch Entwicklung oder > Support - trägt sich das nicht. > > Deine Rechnung geht nicht auf. Nein, deine Rechnung geht nicht auf. Ich sage von vornherein, dass es konkurrenzfähig nicht geht. Die Uni soll auch nicht auf ewig den Support machen, sondern den FPGA-Chip designen. Support so, wie bei opensource-community-Projekten üblich (zB. Linux Kernel). > abc schrieb: >> Linux wurde nicht von Sun oder Microsoft entwickelt. > Wäre aber ohne die Unterstützung von großen und kleinen Unternehmen > heute auch nur ein Nischenprodukt. Spricht ja nichts dagegen. Nur bringt es nichts, einem einzelnen kleinen Unternehmen ein paar Euro zu geben auf dass es ganz allein den Linux-Kernel maintainen und weiterentwickeln möge. Nach meinem Verständnis ist das aber hier beim FPGA aus Köln der Fall. >> Android wurde nicht von Samsung oder Nokia entwickelt. > Android wurde von Google entwickelt, Windows von Microsoft und MacOS von > Apple. Alle drei gehören zu den größten Konzernen der Welt. Ja, inzwischen. Mein Argument war, Google war kein Smartphone-Hersteller, sondern als Internet-Firma ein Nutzniesser der Smartphone-Technologie. Smartphone-OS hatten zum damaligen Zeitpunkt im Wesentlichen nur die Smartphone-Hersteller entwickelt. Erst später hat Google dann auch mal im Auftrag ein Smartphone fertigen lassen. > Und Samsung > entwickelt sehr wohl an Android mit (wie auch alle anderen OEMs). Ja, eben. Und ja, inzwischen. Da sieht man, was halt draus werden kann. >> Risc-V wurde nicht von ARM entwickelt. > RISC-V ist nur ein Standard, keine Implementation. Auf konkurrenzfähige > Implementationen der Snapdragon 835-Leistungsklasse warte ich noch. Da verwechselst Du etwas. Das ist zunächst zum Selbermachen für diejenigen, die es benötigen können (z.B. FPGA-Hersteller als Hardmakro oder diejenigen, die ohnehin Kerne in ihren eigenen ICs einsetzten oder als Softmakro im FPGA). Man kann einen stabilen, Hersteller-unabhängigen (opensource)-Standard her nehmen und teilt sich die Aufwände bei der Entwicklung der Toolchain. Die typischen, auf Marge angewiesenen MCU-Verkäufer haben doch kein Interesse an und kaum einen Vorteil von RISC-V. Das passiert erst langsam, wenn der Kunde danach fragt. Weltbester FPGA.Pongo schrieb im Beitrag #6452810: > abc schrieb: >> Wer legt sich schon solche FPGAs in die Firma? > Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden, > die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in > die USA telefonieren muss, um support zu bekommen. Eben. Und bekommst Du das mit dem patentierten FPGA aus Köln? Ich denke halt, da braucht es opensource und mehr finanziellen Aufwand. > Es gibt dann auch noch das Thema "FPGA-to-ASIC". Wenn man Prototype-FPGA > und finalized Chip aus einer Hand in DE erhalten könnte, eröffnet das > ganz andere Perspektiven was man auslagern kann. Gerade im MIL-Bereich > darf vieles nichts in Ausland geliefert werden. Du willst ein Produkt das seit 0 Jahren am Markt erfolgreich vertrieben wird von einem KMU mit ein paar Mitarbeitern in solche Projekte einbauen? Ist das ein kleiner Scherz? Das ist doch keine Spezial-Funktionalität. Nach 10...20 Jahren, schon klar. Aber initial, wer soll's denn kaufen und benutzen? Woher soll die erfolgreiche, non-confidential Historie kommen von so einem Nischen-COTS?
abc schrieb: >> Ob die europäischen FPGAs teurer sind, lässt sich spontan nicht >> sagen und hängt sicher auch von der Anwendung ab. > Doch, das lässt sich spontan sagen: Wird teurer sein, wenn der Staat > nicht die Fertigungskosten (dh. pro verkauftem Stück) subventioniert. > usw. Das unterscheidet sich jetzt von den anderen auch nicht. Die Subvention kommt da nur aus einem anderen Topf, z.B. dem Militärbudget. > Es geht nicht darum, für neue Produkte alte FPGAs zu nehmen. [...] Sondern darum, das alte Design für die nächsten 250 Jahre mit den alten Chips noch liefern zu können, ist mir schon klar. Nur betrifft das die meisten Produkte nicht - und falls doch, dann nimmt man eben nicht diesen FPGA sondern einen anderen. >>> Irgendeine Spezialarchitektur on top ist da nicht >>> gerade förderlich für das Vertrauen. >> Alle existierenden Standardarchitekturen >> waren mal Spezialarchitekturen. > Ja, waren. Und jetzt funktionieren sie ganz gut. Warum sollen heutige Spezialarchitekturen das zukünftig nicht können? >> abc schrieb: > Das funktioniert bei der Chipherstellung mit halbwegs > aktueller Technologie nicht. Oder wie viele Selbständige > kennst Du, die Chips mit 40nm oder besser verkaufen? Einige. Aber die produzieren die Chips nicht selbst. ;-) > Opensource hat folgende Vorteile: [...] Das ist mir bekannt, aber damit bekomme ich garantiert kein konkurrenzfähiges Produkt hin, solange ich nicht eine enorme Wirtschaftsmacht aus Freiwilligen hinter mir habe. Als Unternehmen mit Gewinnabsicht ist eine Strategie sinnvoll, bei der ich jegliche Standardtechnologie mit Open Source fahre (in beide Richtungen), aber meine Differentiatoren proprietär halte. Du argumentierst, dass die Konkurrenz ja ohnehin bessere Chips, funktionierende Architekturen und ausreichende Infrastruktur haben, möchtest denen aber zusätzlich noch deine eigene Technologie zur Verfügung stellen. Da wird nie ein konkurrenzfähiges Produkt draus. Schau dir die Windows-vs-Linux-Diskussionen an. > Nein, deine Rechnung geht nicht auf. Ich sage von vornherein, > dass es konkurrenzfähig nicht geht. Die Uni soll auch nicht > auf ewig den Support machen, sondern den FPGA-Chip designen. Designs gibt es viele. Wer fertigt das dann? Als Universität kann man problemlos ein paar Prototypen in High-End bauen, aber eine Serienfertigung mit Verkauf fällt aus. Wer verhindert, dass Xilinx das offene Design nimmt, ein bisschen erweitert und einfach günstiger fertigt? Extend, embrace, extinguish? Oder ist das dein Ziel? > Support so, wie bei opensource-community-Projekten > üblich (zB. Linux Kernel). Welche Firma soll den bitte den Support machen, wenn der Markt vom Platzhirsch gefressen wurde? Ein RedHat kann nur da überleben, wo auch RedHat-Produkte eingesetzt werden. >>> Android wurde nicht von Samsung oder Nokia entwickelt. >> Android wurde von Google entwickelt, Windows von Microsoft und MacOS von >> Apple. Alle drei gehören zu den größten Konzernen der Welt. > > Ja, inzwischen. Nö, die waren das auch vorher schon. Android ist von Beginn an ein Google-Produkt. > Mein Argument war, Google war kein Smartphone-Hersteller, sondern > als Internet-Firma ein Nutzniesser der Smartphone-Technologie. Richtig. Und hatte als Riesenkonzern die Möglichkeiten, da einfach mal so lange Geld reinzupumpen, bis es als Apple-Alternative funktionierte. Im Gegensatz zu AOSP ist und war Android nie offen, auch wenn Google das gerne so erzählt. Das ist knallharte Geschäftspolitik. >> Und Samsung entwickelt sehr wohl an Android >> mit (wie auch alle anderen OEMs). > Ja, eben. Und ja, inzwischen. > Da sieht man, was halt draus werden kann. Die haben von Anfang an daran mitentwickelt. Wenn du dir frühe Android-Geräte anschaust, dann stellst du fest, dass die sich wesentlich mehr voneinander unterscheiden als aktuelle Geräte. Weil die Hersteller einen Großteil der Entwicklung selbst gemacht haben und das Android nur als Basis nutzten - ähnlich wie Android den Kernel nutzt. Solche Geräte würden heute nicht mehr zertifiziert werden und - wie gesagt - das System ist eben nicht offen. > Weltbester FPGA.Pongo schrieb im Beitrag #6452810: >> Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden, >> die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in >> die USA telefonieren muss, um support zu bekommen. > > Eben. Und bekommst Du das mit dem patentierten FPGA aus Köln? Ich denke > halt, da braucht es opensource und mehr finanziellen Aufwand. Mit einem GateMate aus Köln bekommt man wesentlich eher einen USA-freien FPGA als mit der weiteren Nutzung von Xilinx, Altera oder Lattice. Insofern: Ja sicher.
S. R. schrieb: >>>> Irgendeine Spezialarchitektur on top ist da nicht >>>> gerade förderlich für das Vertrauen. >>> Alle existierenden Standardarchitekturen >>> waren mal Spezialarchitekturen. >> Ja, waren. Und jetzt funktionieren sie ganz gut. > > Warum sollen heutige Spezialarchitekturen das zukünftig nicht können? Ich dachte, es geht um FPGAs aus Europa. Da braucht es nicht noch zusätzliche Risiken. So viele "Spezialarchitekturen" sind schon gescheitert. >>> abc schrieb: >> Das funktioniert bei der Chipherstellung mit halbwegs >> aktueller Technologie nicht. Oder wie viele Selbständige >> kennst Du, die Chips mit 40nm oder besser verkaufen? > > Einige. Aber die produzieren die Chips nicht selbst. ;-) Und deshalb taugt das Beispiel des Selbständigen nicht und meiner Ansicht nach ist auch ein Kleinunternehmen zu wenig. >> Opensource hat folgende Vorteile: [...] > > Das ist mir bekannt, aber damit bekomme ich garantiert kein > konkurrenzfähiges Produkt hin > [...]Da wird nie ein konkurrenzfähiges Produkt draus. Wie schon ein paar mal geschrieben: Ich glaube nicht, dass ein konkurrenzfähiges Produkt auf absehbare Zeit überhaupt möglich ist. > Du argumentierst, dass die Konkurrenz ja ohnehin bessere Chips, > funktionierende Architekturen und ausreichende Infrastruktur haben, > möchtest denen aber zusätzlich noch deine eigene Technologie zur > Verfügung stellen. Ja. > Designs gibt es viele. Wer fertigt das dann? Ein (Semi-)staatliches Konsortium treibt die besten Ansätze voran und bezahlt die Fertigung, wie ich schon schrieb. > Wer verhindert, dass Xilinx das offene Design nimmt, ein bisschen > erweitert und einfach günstiger fertigt? Niemand. > Extend, embrace, extinguish? > Oder ist das dein Ziel? Spielt keine Rolle. Mein Ziel wäre nicht, eine FPGA-Firma aufzubauen, sondern die Abhängigkeit der hiesigen Firmen von den aktuellen FPGA-Herstellern zu reduzieren. Wenn dann Xilinx das Opensource-Design billiger nachbaut, dann lässt das weiter oben von mir erwähnte Konsortium eben keine ICs mehr fertigen. Unter entsprechende Lizenz gestellt müssten auch Verbesserungen am Design wieder opensource sein. Was bleibt ist die Möglichkeit, bei Bedarf das FPGA-IC-Design relativ schnell von jemand anderem fertigen. >> Support so, wie bei opensource-community-Projekten >> üblich (zB. Linux Kernel). > > Welche Firma soll den bitte den Support machen, wenn der Markt vom > Platzhirsch gefressen wurde? Wir sind inzwischen bei kompletten opensource-toolchains von reverse-engineered FPGAs. >> Eben. Und bekommst Du das mit dem patentierten FPGA aus Köln? Ich denke >> halt, da braucht es opensource und mehr finanziellen Aufwand. > > Mit einem GateMate aus Köln bekommt man wesentlich eher einen USA-freien > FPGA als mit der weiteren Nutzung von Xilinx, Altera oder Lattice. > Insofern: Ja sicher. Das Problem ist die Single-Supplier-Abhängigkeit "alle Firmen in den USA mit den Risiken von Exportbeschränkung" vs. "ein deutsches Startup mit den entsprechenden Risiken". Bei letzterem mache ich mir eher sorgen. Wo Support und SW besser sind, das müsste sich auch erst einmal zeigen. Mit einem Opensource-Design sind die Risiken wesentlich reduziert, bzw. spielen keine Rolle mehr. Ich habe kein Problem mit dem Bezug von Produkten aus den USA. Wenn die Gefahr der US-Exportbeschränkung als hoch eingeschätzt wird, dann gehört das Thema auf europäischer Seite ohnehin nicht in die Hände eines Startups.
S. R. schrieb: > abc schrieb: >> Wenig tragfähig. Wir brauchen kein Geld in Firmen >> stecken, die in 95% der Fälle keinen Erfolg haben >> und in den anderen 5% der Fälle unter US-Kontrolle geraten. > > Mit anderen Worten: Strom kommt aus der Steckdose, Chips aus Asien und > die Patente aus den USA, also müssen wir uns darum nicht mehr kümmern. Nein, aber aus meiner Sicht ist es Geldverschwendung Projekte zu fördern die 20-30 Jahre zu spät versuchen technologischen Anschluss zu finden. Jetzt noch Geld z. B. in europäische KI Beschleuniger zu stecken könnte Zeitlich noch knapp aufgehen. Förderung in Bereichen, wo ich noch keine Milliardenschwere Konkurenz habe, ja. Weltbester FPGA.Pongo schrieb im Beitrag #6452810: > abc schrieb: >> Wer legt sich schon solche FPGAs in die Firma? > Also da kenne ich mehrere, die sehr gerne eigene tools verwenden würden, > die nicht von Xilinx oder anderen gesteuert sind und wo man ständig in > die USA telefonieren muss, um support zu bekommen. Ja, es gibt schon FPGA Anwender die diesen Weg gerne gehen würden. Ich war ja sehr enttäuscht von der ESA, dass sie NanoXplore nicht gleich gezwungen haben, Open Source Software anzubieten oder wenigstens die Bitstream Details offenzulegen, damit Open Source dann darauf aufsetzen kann. (ESA hat eine lange Open Source Tradition z. B. mit dem LEON und fördert offene Standards)
Christoph Z. schrieb: > Nein, aber aus meiner Sicht ist es Geldverschwendung > Projekte zu fördern die 20-30 Jahre zu spät versuchen > technologischen Anschluss zu finden. Wenn es primär darum geht, möglichst schnell kommerziell erfolgreich zu sein, dann hast du vollkommen recht. Darum geht es aber aus meiner Sicht nicht. Die Chinesen hätten mit deiner Argumentation nie etwas selbst entwickeln müssen, "der Westen" war überall schon vorher da. Ähnlich wie bei den Japanern vorher und der Erfolg gibt ihnen recht.
S. R. schrieb: > Die Chinesen hätten mit deiner Argumentation nie etwas selbst entwickeln > müssen, "der Westen" war überall schon vorher da. Ähnlich wie bei den > Japanern vorher und der Erfolg gibt ihnen recht. Sehr richtig. Der Unterschied aus meiner Sicht ist aber, dass es in Japan eine Wirtschaftspolitische Grundhaltung ist, die seit der Meji Restauration 1868 gelebt wird. Japan hat das Ziel alles selber machen zu können und nur vorübergehend Technologien zu importieren. Ihre ganze Wirtschaftspolitik, Ministerien, Universitäten, Firmen Joint-Ventures sind darauf ausgerichtet. Natürlich kombiniert mit der Suche nach passenden Nischen, wo die frühen Produkte abgesetzt werden können (Transistorradios, Taschenrechner, Fotokameras). High-End Produkte sind in Japan auch unter Exportkontrolle, z. B. Lithographiemaschinen für die LCD Produktion. Dieses langsame, einen Schritt nach dem Anderen, vorgehen hat sich als sehr erfolgreich erwiesen und dient vermutlich/offensichtlich als Vorbild für China. Die ist eine Art Planwirtschaft, die im "Westen" halt böse ist. Frankreich und der Gaulismus sind dem gegenüber aufgeschlossen und haben das in der Vergangenheit auch offen so gemacht (Habe mal den Eurofighter Artikel auf Wikipedia begonnen, diese Geschichte war sogar mir zu lang zum lesen :-) Da sind dazu auch Anekdoten drin.) und sich immer mal wieder deswegen zerstritten. Meine Kritik, und so wie ich es interpretiere auch die von abc und Andreas S., richtet sich gegen diese one-off Projekt wo mal was teuer gefördert wird ohne das passende Rahmenbedingungen herrschen oder dafür gesorgt wird, dass diese zuerst gefördert werden, bzw. ein Gesamtkonzept ersichtlich ist.
Du bevorzugst also die totale Abhängigkeit von anderen. Gut, mit der Aussage kann ich leben. ;-)
Christoph Z. schrieb: > Meine Kritik, und so wie ich es interpretiere auch die von abc und > Andreas S., richtet sich gegen diese one-off Projekt wo mal was teuer > gefördert wird ohne das passende Rahmenbedingungen herrschen oder dafür > gesorgt wird, dass diese zuerst gefördert werden, bzw. ein Gesamtkonzept > ersichtlich ist. Nein, das ist so gar nicht meine obige Aussage.
S. R. schrieb: > Du bevorzugst also die totale Abhängigkeit von anderen. > Gut, mit der Aussage kann ich leben. ;-) Bevorzugen nicht, aber da ich kein Bauer bin und keinen Garten habe... Sorry, ich drifte ab, hier gehts um technische Abhängigkeit. Ich habe nie gesagt dass ich eine totale Abhängigkeit gut fände. Ich hasse das, wenn ich ein Gerät nicht aufmachen kann oder keine Datenblätter ohne NDA bekomme :-) Ich bin seit 2002 Open Source Anhänger und bin heute so unabhängig wie noch nie zuvor (Jedenfalls bei allem das Software mit drin hat). Dazu muss ich auch sagen, dass ich in der Schweiz lebe. Die Illusion von der wirtschaftlich/industriell unabhängigen Schweiz ist auch in den Köpfen der Politiker/Militärs seit Ende der 60er tot, nach dem die Grossprojekte zum eigenen Kampfjet und eigenen Atomkraftwerk gescheitert sind. Seither ist bei uns eher das internationale Teamplay der Ansatz, besetzen und Ausbauen von Nischen etc. Auf der anderen Seite bin ich selber ja auch Steuerzahler und möchte schon auch mitreden wo und wie gefördert wird. Ist halt scheisse, wenn mein Geld in ein Produkt gesteckt wird, dass dann am Schluss auf meinem Schreibtisch liegt und nix tut, weil irgendwo im mitgelieferten verschlüsselten IP Core ein Bug drin ist, den der Hersteller vielleicht bis Weihnachten fixed. So ist der schöne NanoXplore NG-MEDIUM im Moment ein Briefbeschwerer und fliegt wegen zu hoher Risiken vielleicht auch aus dem Produkt (und es kommt wieder ein FPGA aus USA zum Einsatz). Mal sehen, ich geb dem Teil beim nächsten Projekt gerne nochmals eine Chance aber mit mehr Open Source würde es definitiv mehr Spass machen.
Beitrag #6458872 wurde von einem Moderator gelöscht.
Christoph Z. schrieb: > Mal sehen, ich geb dem Teil beim nächsten Projekt gerne nochmals eine > Chance aber mit mehr Open Source würde es definitiv mehr Spass machen. Was Neues zu dem Thema?
Immerhin ist jetzt das Evalboard verfügbar: https://www.schukat.com/schukat/schukat_cms_de.nsf/index/warengruppe?OpenDocument&wg=Y1711 Ich drücke den Jungs und Mädels aus Köln die Daumen. Das ist genau das, was Europa jetzt braucht. Aber sie müssten dann jetzt in die Puschen kommen und ihr Zeug unters Volk bringen. Der nächste logische Schritt wäre ein Ultra-Lowpower Zynq-Konkurrent mit RISC-V Cores.
> Der nächste logische Schritt > wäre ein Ultra-Lowpower Zynq-Konkurrent mit RISC-V Cores. UltraLowPower und FPGA passen nicht zusammen. RISC-V ist absolute Nische, was die Welt braucht ist ein SoC mit verbreiteter und bewährter Controller-Architectur wie eben ARM. Und RISC-V gilt insbesonders für Speichersensitive (On-Chip RAM v. SoC-FPGA) Anwendungen im Embedded Bereich als ungeeignet: https://www.elektroniknet.de/halbleiter/risc-v-fuer-embedded-anwendungen-eher-nicht.179223.html
Mcn schrieb: > UltraLowPower und FPGA passen nicht zusammen. Ideal ist das nicht, stimmt schon. Aber man kann trotzdem FPGA bauen, die deutlich weniger Verlustleistung haben als die heute verfügbaren. > RISC-V ist absolute Nische, was die Welt braucht ist ein SoC mit > verbreiteter und bewährter Controller-Architectur wie eben ARM. Das war vor 5 Jahren der Fall. RISC-V-Projekte schießen heute wie Pilze aus dem Boden, die "Nische" wird immer breiter. > Und RISC-V gilt insbesonders für Speichersensitive (On-Chip RAM v. > SoC-FPGA) Anwendungen im Embedded Bereich als ungeeignet: > https://www.elektroniknet.de/halbleiter/risc-v-fuer-embedded-anwendungen-eher-nicht.179223.html Ich kenne diesen Artikel und halte ihn für etwas unsachlich. Nur weil der RV bei einer bestimmten Operation mehr Takte benötigt als der ARM, ihm gleich einen ganzen Anwendungsbereich abzusprechen, ist an den Haaren herbeigezogen. Der Befehlssatz des RV ist zudem keine 30 Jahre alt. Er wurde von Berkley neu designed, nachdem sie sich eine riesige Menge Anwendungen angeschaut und untersucht hatten, welche Maschinenbefehle wie oft verwendet werden und wieviel Chipfläche und Energie sie benötigen. Das Ergebnis ist natürlich ein Kompromiss, und ja, an einigen Stellen ist RV zwangsläufig unterlegen. Das trifft auf jede General-Purpose-Architektur zu, auch auf ARM.
Mcn schrieb: > Und RISC-V gilt insbesonders für Speichersensitive (On-Chip RAM v. > SoC-FPGA) Anwendungen im Embedded Bereich als ungeeignet: > https://www.elektroniknet.de/halbleiter/risc-v-fuer-embedded-anwendungen-eher-nicht.179223.html Ist soweit ein interessanter Artikel in dem Sinne, das er mal wieder vor Augen führt, wieso 2022 die grösste Menge an verkaufter Mikrocontrollern immer noch 8 bitter sind. Zum Speicherverbrauch von Risc-V code habe ich andere Zahlen gefunden: https://www2.eecs.berkeley.edu/Pubs/TechRpts/2011/EECS-2011-63.html Da wird von 2% grösserem Code gegenüber Thumb2 gesprochen. Solche Vergleiche sind natürlich immer Abhängig vom Code/Algorithmen die Untersucht werden. Bleibt also spannend das Thema. vancouver schrieb: > Ultra-Lowpower Zynq-Konkurrent mit RISC-V Cores. Du meinst sowas wie den PolarFire-SoC aber einfach aus Europa? Nicht low-power aber high-performance-computing und aus Europa: https://www.european-processor-initiative.eu/accelerator/ Weiter unten wird erwähnt, dass im SGA2 dann auch ein eFPGA von Menta (Frankreich) drin sein soll. Mcn schrieb: > RISC-V ist absolute Nische, was die Welt braucht ist ein SoC mit > verbreiteter und bewährter Controller-Architectur wie eben ARM. NG-Ultra in Frankreich produziert (ST), in einem Prozess der in Frankreich entwickelt wurde (FD-SOI 28 nm), von einer französischen Firma entwickelt (nanoXplore) mit eigenen Entwicklungstools (NXmap).
Jürgen S. schrieb: > Christoph Z. schrieb: >> Mal sehen, ich geb dem Teil beim nächsten Projekt gerne nochmals eine >> Chance aber mit mehr Open Source würde es definitiv mehr Spass machen. > > Was Neues zu dem Thema? Von Seiten OpenSource ist mir bei nanoXplore nichts neues bekannt. Zu dem angesprochenen Bug im IP core auch nicht, weil wir nicht mehr nachgefragt haben (das Projekt schlept sich so dahin und der NG-Medium wird uns zu klein). Von der Tool Seite ist es so, dass Siemens/Mentor Graphics nun vollen Support für den NG-Medium hat und mit Kunden am Testen ist, um den NG-Ultra auch vollständig zu unterstützen. Heisst HDL Designer, Precision RTL (inkl. high-reliability Erweiterungen), Catapult HLS. Ist für uns hier weit ausserhalb unseres derzeitigen Budgets...
Christoph Z. schrieb: Christoph Z. schrieb: > Da wird von 2% grösserem Code gegenüber Thumb2 gesprochen. Da schau an... > Bleibt also spannend das Thema. Auf jeden Fall. Man muss auch klar sagen, dass ARM in einigen Dingen die Nase noch weit vorn hat, z.B. bei Security. Da ist RV noch ziemlich blank, mal abgesehen von eingen Ansätzen wie https://opentitan.org/ > Du meinst sowas wie den PolarFire-SoC aber einfach aus Europa? Exakt. Wobei 5 RV64-Kerne für den Anfang mal Overkill sein dürften. Christoph Z. schrieb: > Nicht low-power aber high-performance-computing und aus Europa: > https://www.european-processor-initiative.eu/accelerator/ Wobei low-Power bei EPI schon auch eine entscheidende Rolle spielt. Die Cluster werden später tausende solcher Chips enthalten, jeder mit hunderten CPUs. Mach einen Fehler von einem Microwatt, und du brauchst später eine doppelt so große Kühlanlage.... Menta verfolgt eine etwas andere Strategie. Sie verkaufen IP-Cores, deren Größe der Kunde (innerhalb gewisser Grenzen) frei wählen kann. Man kann ihnen sogar ein FPGA-Design geben, und sie erzeugen dann ein FPGA-IP der passenden Größe. Aber fertig gepackagte Menta-FPGAs wird es wohl keine geben.
>> Da wird von 2% grösserem Code gegenüber Thumb2 gesprochen. > > Da schau an... Wenn nicht glatt gelogen, dann ist der genannte Unterschied von lediglich zwei Prozent eine unrealistische Aussage aus Fanboy/Marketing-Abteilung: Mit Open-Source Tools beträgt der Unterschied Faktor 4, lediglich kommerzielle tools kommen in die Nähe der Cortex-M Reihe:https://blog.segger.com/code-size-closing-the-gap-between-risc-v-and-arm-for-embedded-applications/
Mcn schrieb: > Marketing-Abteilung Wie kommst du darauf, dass die RISC-V-Community eine Marketingabteilung besitzt? Man könnte genauso argumentieren, dass ARM der Allerwerteste gerade auf Grundeis geht und sie deswegen Unsinn in die Welt setzen (was sie vor einiger Zeit schoneinmal getan und sich damit endlos blamiert haben). Aber ja, wer will, darf sich darüber freuen, dass ARM bei manchen Anwendungen 10% weniger Speicher braucht, und das gesparte Geld dann in die Lizenzkosten für den ARM-Core stecken.
vancouver schrieb: > Mcn schrieb: >> Marketing-Abteilung > > Wie kommst du darauf, dass die RISC-V-Community eine Marketingabteilung > besitzt? Ich schrieb ja auch "Fanboy/Marketing-Abteilung:" Und ja, ich bin der Meinung das es bezüglich der Beeinflußung der Märkte durch alle legitimen Mittel keinen Unterschied zwischen Communities oder Kommerz gibt. Höchstens im Budget. -- > dass ARM bei manchen Anwendungen 10% weniger Speicher braucht Naja bei embedded uns besonders wenn das Ganze im engen On-Chip Speichers eines FPGA'a laufen soll können 10% (meist sind es deutlich mehr) schon den Wechsel auf den nächstgrößeren 100€uro teuren Chip ausmachen (falls der überhaupt im package-Migrationspfad liegt, bei SoCs keine Selbstverständlichkeit). Man kann die freien Resourcen auch für Kunden-feature/Debug-code nutzen.
Von wegen 2..10%! Wie es ausieht, ist RISC-V nichts weiter als eine ganz billige LD-ST-Architektur. Da erübrigt sich doch jeder Kommentar.
MCUA schrieb: > Wie es ausieht, ist RISC-V nichts weiter als eine ganz billige > LD-ST-Architektur. Und trotzdem springen gerade viele auch große Firmen (Intel/Microchip/Qualcomm/...) auf den Zug auf, geben teilweise echt viel Zaster aus um Chips zu entwerfen und fertigen zu lassen. Anscheinend ist da trotz der hier attestierten grottigen Qualität ein großes Geschäftsfeld.
MCUA schrieb: > Wie es ausieht, ist RISC-V nichts weiter als eine ganz billige > LD-ST-Architektur. Messerscharf beobachtet. So wie das nun mal eben ist bei RISC-Architekturen. Deswegen sind sie so effizient, das schon seit über 40 Jahren bekannt. Und deswegen verwenden Intel und AMD schon seit langem intern RISC-basierte Microcode-Engines, mit denen sie dem Benutzer ihre altbekannten x86-Befehle vorgaukeln, damit Windows98 auch morgen noch läuft. > Da erübrigt sich doch jeder Kommentar. So ist es.
> Deswegen sind sie so effizient..
Von Wegen.
Brauchen Speicher ohne Ende.
Eine CPU mit RISC-basierter Microcode-Engine bezieht nicht! den vielen
Speicher aus'm Hauptspeicher.
Eine zu billige Architektur (was reine LD-ST ist) ist zu teuer im
Speicherverbrauch.
MCUA schrieb: > Eine zu billige Architektur (was reine LD-ST ist) ist zu teuer im > Speicherverbrauch. Das sehen gerade einige große Hersteller anders. Was weißt du was die nicht wissen?
MCUA schrieb: > Eine zu billige Architektur (was reine LD-ST ist) ist zu teuer im > Speicherverbrauch. Dass RSIC-Programme etwas mehr Speicher brauchen, ist eine Binsenweisheit. Dafür sind Steuerwerk und Datenpfad massiv einfacher und schneller, besonders bei mehrstufigem Pipelining. Die parallele Ausführung von CISC-Befehlen, möglichst auch noch mit verschiedenen Befehlslängen, Ausführungszeiten und mit Out-of-Order-Execution ist schlichtweg ein Albtraum. Der Prozessor verplempert mehr Energie damit, die internen Abläufe zu organisieren, als mit der eigentlichen Ausführung des Befehls. Prominentes Beispiel war Intel's Itanium, und der ist sang- und klanglos verschwunden. Die superkomplexen Instruktionen, die 5 Sachen auf einmal machen, haben nur begrenzte Nutzbarkeit und werden umso seltener benutzt, je komplizierter sie sind. Die meisten Compiler verwenden sie kaum, weil sie meistens nicht "passen", außer man optimiert sie Software so, dass sie zum Befehlssatz passt, aber dann kann man auch gleich Intrinsics verwenden. Macht halt keiner. Somit werden in einem durchschnittlichen CISC-Programm in 90-95% der Zeit auch nur die Befehle ausgeführt, die eine RISC-CPU kennt. Dazu gibts Paper zuhauf, aber die suchst du bitte selber. Bei General-Purpose-CPUs ist RISC fast immer die bessere Wahl, das wissen alle Prozessorhersteller (aktuelles Beispiel: Apples M1). CISC ist hingegen sinnvoll bei Spezialarchitekturen wie etwa HPC. Z.B. gibt es im weiter oben erwähnten EPI-Projekt eine Application-Specific-CPU für Stencil-Operationen. Die basiert intern auf VLIW-Befehlen, eine CISC-Architektur in Reinform, obwohl die Speicherzugriffe auch dort nur über Load/Store-Befehle erfolgen. Den wieviel-auch-immer Prozent höheren Speicherbedarf bei Load/Store-Architekturen nimmt man gerne in Kauf, denn Speicher ist billig, Zeit und Energie hingen nicht.
vancouver schrieb: > Dass RSIC-Programme etwas mehr Speicher brauchen, ist eine > Binsenweisheit. Und Speicher braucht ziemlich viel Energie und ist sehr teuer, vor allem wenn es um den schnellen L1/L2 Cache geht. Der L1/L2 Cache bestimmt heute maßgeblich die Geschwindigkeit! Alle anderen Verbesserungen kommen weit hinten, da die CPUs heute irrsinnig schnell sind im Vergleich zu DRAM. Dafür sind Steuerwerk und Datenpfad massiv einfacher und > schneller, besonders bei mehrstufigem Pipelining. Die parallele > Ausführung von CISC-Befehlen, möglichst auch noch mit verschiedenen > Befehlslängen, Ausführungszeiten und mit Out-of-Order-Execution ist > schlichtweg ein Albtraum. Hast du dir schon mal einen modernen Prozessor angeschaut? Da wirst du das Dekodierwerk nicht finden, so winzig ist es... Das Dekodierwerk war auch noch nie im kritischen Datenpfad. > Die superkomplexen Instruktionen, die 5 Sachen auf einmal machen, haben > nur begrenzte Nutzbarkeit und werden umso seltener benutzt, je > komplizierter sie sind. Die meisten Compiler verwenden sie kaum, weil Gerade heute erleben wir wieder ein Revival der komplizierten Befehle. Bevor du dich weiter lächerlich machst, schau Dir die AVX-512 AI Befehlserweiterung eines Ryzen Zen-4 an... > sie meistens nicht "passen", außer man optimiert sie Software so, dass > sie zum Befehlssatz passt, aber dann kann man auch gleich Intrinsics > verwenden. Macht halt keiner. Machen aber trotzdem alle wichtigen Programme so. Etwa dein Browser. > Bei General-Purpose-CPUs ist RISC fast immer die bessere Wahl, das RISC ist immer die schlechtere Wahl. CISC (richtig implementiert) führt immer zu kürzeren Programmen, die weniger Energie brauchen UND schneller sind. Es kostet halt Hirnschmalz, aber das nur einmalig. Gruss, Udo
udok schrieb: > Gerade heute erleben wir wieder ein Revival der komplizierten Befehle. > Bevor du dich weiter lächerlich machst, schau Dir die AVX-512 AI > Befehlserweiterung eines Ryzen Zen-4 an... Dieses 'Revival' gibt's schon seit >20 Jahren. Nur, dass im Embedded Bereich diese Befehlserweiterungen gerade mal die DSP-Nische abdecken. Hat aber mit dem eigentlichen Thema nicht viel zu tun. Die Gatemate-Architektur hat recht Potential was Multiplier-Kaskaden angeht, leider scheinen die klassischen Probleme der Software-Entwicklung zugeschlagen zu haben, da muss von seiten yosys-Synthese deutlich mehr Butter bei die Fische. Was gar nicht gut lief: komplexere bestehende VHDL-Designs zu portieren. Kann sich inzwischen verbessert haben, auf jeden Fall hoffe ich, dass aus der LUT-Optimierung was geworden ist und sich das Thema mit der TDP-Inference (True Dual Port) endlich erledigt hat - das war eine recht harzige OpenSource-Baustelle bei yosysHQ. Gar nicht up to date bin ich betreffend PnR, vielleicht darf ja jemand was dazu sagen. Im Trockendock (ohne Evalboard) habe ich RISC-V und JPEG-Pipelines (Encoder) ausprobiert, musste aber sehr viel auf einem alternativen Weg prozedural synthetisieren, in der HDL-Variante haette das alles nicht auf den absehbar verfuegbaren Chip gepasst. Musste da leider den Stecker ziehen. Was sehr gut aussah, war die eigentliche DSP-Pipeline, Multiplier im Fabric zu haben ist eine echte Wohltat fuer manche Anwendungen. Es braucht aber neue Ansaetze, um diese Pipelines dediziert zu designen, in V*-HDL macht das keinen Spass mehr.
udok schrieb: > Der L1/L2 Cache bestimmt > heute maßgeblich die Geschwindigkeit! Alle anderen Verbesserungen > kommen weit hinten, da die CPUs heute irrsinnig schnell sind im > Vergleich zu DRAM. Richtig, aber die Caches sind SRAMs und damit in der gleichen Technologie aufgebaut wie die CPU. Du kannst dir also dann überlegen, ob es sich lohnt, den Speicher kleiner zu machen und dafür Platz und Energie in einer komplexeren CPU zu verbraten, die X Piplinestufen hat damit du auf einen brauchbare Tekfrequenz kommst. Die meisten Hersteller machen das eher nicht, außer dass sie dem RISC eine große Anzahl Register verpassen, um Speicherzugriffe zu sparen, indem Daten in der CPU gehalten werden. > Da wirst du das Dekodierwerk nicht finden, so winzig ist es... > Das Dekodierwerk war auch noch nie im kritischen Datenpfad. Der I-Decoder ist auch nur kleiner Teil des Steuerwerks. Viel problematischer ist der Dispatcher, der festlegt, was wann auf welcher Einheit gerechnet wird. Der muss die Ressourcenanforderungen und Ausführungsdauer jeder Instruktion kennen, die OOO-x festlegen, die Verhersage der Branch Prediction berücksichtigen usw. Das ist der komplexeste Teil des Steuerwerks und verbrät ein Menge Platz und Energie. Da bei RISC alle Instructionen die gleiche Länge und Ausfährungszeit haben, vereinfacht sich das Steuerwerk erheblich. > Gerade heute erleben wir wieder ein Revival der komplizierten Befehle. > Bevor du dich weiter lächerlich machst, schau Dir die AVX-512 AI > Befehlserweiterung eines Ryzen Zen-4 an... AVX ist im Prinzip ein SIMD-Coprozessor für Vektoroperationen. Die kannst du auch an einen RISC-Prozessor dranhängen. Es gibt auch für RISC-V auch eine Vektor-Extension im Standard, aber der wird dadurch nicht zu einem CISC-Prozessor sondern bleibt eine Load/Store-Architektur. Siehe dazu auch https://www.heise.de/news/ARM-Alternative-Apple-entwickelt-RISC-V-Hardware-6183047.html > RISC ist immer die schlechtere Wahl. CISC (richtig implementiert) führt > immer zu kürzeren Programmen, die weniger Energie brauchen UND schneller > sind. Es kostet halt Hirnschmalz, aber das nur einmalig. Ich schätze mal, dass in Zukunft hauptsächlich CPUs mit vielen RISC-Kernen und anwendungsspezifischen Beschleunigern gebaut werden. Der klassische CISC-Dinosaurier wird aussterben (bis auf bestimmte Anwendungen wie HPC) oder durch schnelle und schlanke RISCs emuliert. We'll see.
Gustl B. schrieb: > https://www.colognechip.com/programmable-logic/gatemate > > Sieht gar nicht schlecht aus. Bei sowas immer die Toolchain anschauen. Die heutigen FPGAs können im Grunde alle das gleiche aber wenn die Toolchain Murks ist wirst du beim entwickeln wahnsinnig.
Es geht weiter mit RISC-V: https://www.golem.de/news/cpu-google-nimmt-risc-v-support-offiziell-in-android-auf-2210-169214.html
1 | Google nimmt RISC-V-Support offiziell in Android auf |
Christoph Z. schrieb: > Catapult HLS Oh, gibt es das noch? Das ist aber nichts für kleine effiziente FPGAs.
Jürgen S. schrieb: > Christoph Z. schrieb: >> Catapult HLS > Oh, gibt es das noch? Das ist aber nichts für kleine effiziente FPGAs. Das ganze bezog sich ja auch auf die nanoXplore FPGAs. Der NG-LARGE und NG-ULTRA sind nicht von der kleinen Sorte :-) Keine Ahnung von Catapult, habe nur von unserem Mentor Verkäufer gehört, das meine "Kollegen" am anderen Standort Lizenzen davon haben. Ich weiss weder was die tun noch könnte ich ihre Lizenzen mitnutzen.
Christoph Z. schrieb: > Keine Ahnung von Catapult, habe nur von unserem Mentor Verkäufer gehört, > das meine "Kollegen" am anderen Standort Lizenzen davon haben. Ich weiss > weder was die tun noch könnte ich ihre Lizenzen mitnutzen. Du sollst doch nur weitere Lizenzen kaufen, aber nicht benutzen. Der Mentor-Verkäufer versucht doch nur, Dir oder Euch einen gewissen Neid auf andere Abteilungen einzureden, damit Ihr dann auch die entsprechende Beschaffung veranlasst. Derartige kollektive Verhaltensweisen konnte ich schon häufiger in Großunternehmen beobachten, glücklicherweise mit einer gewissen Distanz.
> Bin gespannt wie sich das entwickeln wird. Und jetzt? Kann man diese FPGAs nun (in Stückzahlen) kaufen, bzw was kostet das?
Gibt es jemanden hier, der mit diesen FPGAs baut und gebaut hat und einen Bericht anfertigen könnte im Stil eines Artikels?
Nachfrage schrieb: > Gibt es jemanden hier, der mit diesen FPGAs baut und gebaut hat > und einen Bericht anfertigen könnte im Stil eines Artikels? Es gibt. Der Jemand hat aber wenig Interesse daran, anonymen Nachfragern kostenlose Marktanalyse oder Knowhow zu liefern. Vielleicht richtest du einfach besser deine Fragen selbst ganz offiziell an die Kölner Entwickler, die sind nämlich ehrlich und responsiv.
Quarkteilchen-Beschleuniger schrieb: > Vielleicht richtest du > einfach besser deine Fragen selbst ganz offiziell an die Kölner > Entwickler, die sind nämlich ehrlich und responsiv. Mag sein, aber die sind befangen ;-)
Quarkteilchen-Beschleuniger schrieb: > Es gibt. Der Jemand hat aber wenig Interesse daran, anonymen Nachfragern > kostenlose Marktanalyse oder Knowhow zu liefern. Vielleicht richtest du > einfach besser deine Fragen selbst ganz offiziell an die Kölner > Entwickler, die sind nämlich ehrlich und responsiv. Wieviel Knowhow gibst du den preis, wenn du eine Note dazu verfasst, wie einfach oder wie schwer das Einarbeiten in die Software, wie betriebssicher die Chips, wie stabil die PLL und vor allem, wie defektfrei die Test-Hardware von denen ist? Duke Scarring schrieb: > Mag sein, aber die sind befangen ;-) Ich habe gerade bei Xilinx nachgefragt: Alle Funktionen von Vivado laufen fehlerrei Alle Cores in Production und funktionieren Alle Entwicklungsboards sind perfekt designed Ich muss der einzige Kunde weltweit sein, der einen bug in der Software und einen in deren Cores gefunden hat und bei dem das Eval-board trotz REV "4" immer noch zickt und nach einem reconfig der Transceiver abtaucht.
Klausi schrieb: > Wieviel Knowhow gibst du den preis, wenn du eine Note dazu verfasst, Es geht weniger um die KnowHow-Weitergabe als die vergeudete Zeit, einen solchen Artikel zu verfassen und die Nerven, einen mglw. einsetzenden Shitstorm zu ertragen. Sagen wir mal, es kostet einen Stunde - das sind unter Freiberufler mindestens 60€. Warum sol man die opfrern nur das so ein paar Dahergelaufene dann doch maulen, das sie sich doch nur das billigste China-board leisten können?! Wenn dann so ein Artikel auf der eigenen Website oder in einem Fachmagazin, dann hat man wenigstens Werbung in eigener Sache. > Ich habe gerade bei Xilinx nachgefragt: Du lügst, übertreibst und hast einen sarkastischen Unterton, noch mehr Gründe dir keinen kostenlosen Bericht zu schreiben.
Naja, hier opfern viele ihre Freizeit um die Probleme anderer Leute zu lösen. Das ist die ureigene Daseinsberechtigung dieses Forums, da finde ich die Posts von Quarkteilchen und kalinkarifek in der Tat etwas befremdlich.
Kann es sein das Trion denen auch das Wasser abgräbt? Die anderen FPGA Firmen haben nach wie vor eine schlechte Verfügbarkeit. Latticesemi meinte ja selber schon dass sie in das mittlere Segment gepushed wurden (sie das aber eigentlich nicht vor hatten) Trion wird wohl das untere Segment ausfüllen. Habe hier selber einige Trion boards (also Endprodukte).
Wühlhase schrieb: > Naja, hier opfern viele ihre Freizeit um die Probleme anderer Leute zu > lösen. Das ist die ureigene Daseinsberechtigung dieses Forums, Die gemeinsame Beschäftigung ist die Daseinsberechtigung. Die ist gegeben von man das Problem löst egal auf welchen Tisch es liegt, weil irgendwann wird auch selbst damit konfrontiert. Aber diese Berechtigung ist nicht mehr gegeben, wenn einer seine Arbeit, und sei es das Durchlesen von Dokumantation oder einfache Messungen sich spart weil er dieses Problem anderen aufhalst. Insbesonders wenn es nicht wirklich ein akutes Problem des Fragestellers ist sonder quasi auf Vorrat. Oder seine Hausaufgabe. "Learning by doing", nicht 'by copying". Man muß den Leute zur Eigeninitiative anhalten, sonst hat man sie zukünftig als Forumsschmarotzer an der Backe.
Mcn schrieb: > Sagen wir mal, es kostet einen Stunde - das sind unter Freiberufler > mindestens 60€. Dann biste aber zu billig. Das wären bei Vollzeit gerade mal 100.000 Umsatz im Jahr, nach Kosten 90.000 Gewinn. Ein Angestellter der was taugt, kriegt meistens schon mehr und dazu noch die Hälfte der Sozialabgaben. Da müssen eher 80,- genommen werden, weil du mehr Aufwand hast und nicht alles bezahlt bekommst. > Warum soll man die opfrern nur das so ein paar Dahergelaufene Das nennt man Geben und Nehmen. Als Freiberufler hättest du zudem die Chance, dein Wissen mit deinem Namen darzustellen. >> Ich habe gerade bei Xilinx nachgefragt: > Du lügst, übertreibst und hast einen sarkastischen Unterton, noch mehr > Gründe dir keinen kostenlosen Bericht zu schreiben. Das nennt man Satire! Lies es nochmals :-) Die Aussage dahinter ist, dass bei Xilinx sehr viel Löchriges vorliegt. Und die Aussage dahinter wiederum ist, dass ich die Hoffnugn habe, dass das bei GateMate eventuell anders sein könnte. (?) Du verstehen?
Mork vom Ork schrieb: > Mcn schrieb: >> Sagen wir mal, es kostet einen Stunde - das sind unter Freiberufler >> mindestens 60€. > Dann biste aber zu billig. Entscheidend ist nicht die Kalkulation oder Gewinnerwartung, sondern der tatsächliche Markt. Und da gibt es eben Freiberufler, die ihre Leistungen schon für 60 EUR/h oder deutlich weniger anbieten.
Mcn schrieb: > Wühlhase schrieb: >> Naja, hier opfern viele ihre Freizeit um die Probleme anderer Leute zu >> lösen. Das ist die ureigene Daseinsberechtigung dieses Forums, > > Die gemeinsame Beschäftigung ist die Daseinsberechtigung. Die ist > gegeben von man das Problem löst egal auf welchen Tisch es liegt, weil > irgendwann wird auch selbst damit konfrontiert. Nö. Wie oft schlagen hier z.B. Leute mit Fragen zu Altium auf. Oder kommen mit ihrem ersten Platinendesign rein und wollen "Best Practices" lernen. Mal als Beispiel, wo ich eher auf der Geberseite stehe. Nichts davon ist irgendwelches Geheimwissen, das nicht irgendwo stehen würde. Es ist aber trotzdem ein großer Vorteil, wenn man jemanden fragen kann und eine Antwort in drei Absätzen bekommen kann, ohne 100 Seiten Doku lesen oder den ein oder anderen Fehlschlag erst selber untersuchen zu müssen. Und oft habe ich (oder auch andere) unvermutet aus solchen Hilfsthreads selber noch etwas mitnehmen können. Völlig umsonst ist das also nicht, und insofern mache ich das auch gerne. Insofern wäre ein Artikel wie "Projekt vwx mit Xilinx und GateMate - Verlgeich" durchaus interessant und genau im Sinne dieses Forums. Oder eine Kurzanleitung, um sich die Toolchain zurechtzufrickeln. Wenn jeder das Rad neu erfinden müßte würden wir, wie gesagt, heute noch in Höhlen hausen. Mcn schrieb: > Man muß den Leute zur Eigeninitiative anhalten, sonst hat man sie > zukünftig als Forumsschmarotzer an der Backe. Es sagt niemand, daß du jedem Maker bis zur Rente seine Arbeit abnehmen sollst. Wenn du die Hand gibst und dein Gegenüber nimmt den ganzen Arm, muß man halt rechtzeitig nein sagen können.
Andreas S. schrieb: > Entscheidend ist nicht die Kalkulation oder Gewinnerwartung, sondern der > tatsächliche Markt. Und da gibt es eben Freiberufler, die ihre > Leistungen schon für 60 EUR/h oder deutlich weniger anbieten. Moin Andreas, das mag sein. Ich bezog mich wegen des thread-Themas auf FPGAs. Wenn sich jemand für 60,- verkauft, dann kann es sich nur um einen Anfänger handeln und bei denen müsste man eigentlich annehmen, dass sie sich gar nicht verkaufen können, weil das, was sie können, die Anfänger in den beauftragenden Firmen nach meiner Erfahrung auch können und die sind aus den unterschiedlichsten Gründen billiger.
Wühlhase schrieb: > eine Kurzanleitung, um sich die Toolchain zurechtzufrickeln. DAS wäre aber nun wirklich eine Aufgabe für die Herstellerfirma, oder? In einem bewertenden Artikel würde ich nur gerne 2-3 kurze Sätze dazu lesen wollen, wie einfach ein Anfänger oder ein Fortgeschrittener sich aufgrund dieser Anleitungen einarbeiten kann - wie gut also die Anleitungen sind. Die vielen Problemlösungen rund um die Tool-Defizite an sich muss niemand kostenlos liefern. Das ist das ureigenste Knowhow des Entwicklers. Oder des Freiberuflers.
Mork vom Ork schrieb: > Wühlhase schrieb: >> eine Kurzanleitung, um sich die Toolchain zurechtzufrickeln. > DAS wäre aber nun wirklich eine Aufgabe für die Herstellerfirma, oder? Das ist ja wohl das Mindeste, haben sie aber auch erledigt: https://www.colognechip.com/docs/ug1002-toolchain-install-latest.pdf Anscheinend gibt es auch fertige Pakete, so dass man sich das Gefrickel hoffentlich sparen kann.
> Kann es sein das Trion denen auch das Wasser abgräbt?
Das gibts ja nicht.
Tausende an Lager.
Tachyum und Cologne Chip wollen zusammenarbeiten: https://www.eenewseurope.com/en/tachyum-teams-up-with-cologne-chip-on-fpga-ai/
Andreas S. schrieb: > Entscheidend ist nicht die Kalkulation oder Gewinnerwartung, sondern der > tatsächliche Markt. Und da gibt es eben Freiberufler, die ihre > Leistungen schon für 60 EUR/h oder deutlich weniger anbieten. Wobei zu differenzieren wäre, was das für Leistungen sind. Gerade beim hier diskutierten Thema FPGA ist die Bandbreite bekanntlich gewaltig. Es reicht vom einfachen Zusammenklicken und Einkopieren von Cores die dann verschaltet werden, bis hin zum Ersatz von Hardware durch VHDL, um die Funktionen in ASICs zu bringen. Für ersteres würde ich als Kunden z.B. keine 60,- ausgeben wollen, für letzteres zahlt man fast dreistellig. Zwischendrin liegt dann irgendwo noch die Signalverarbeitung, wo man nicht nur die konkrete Funktion beherrschen muss, sondern mitunter auch effektive Schaltungen erdenken muss, deren Lösungen nicht auf dem Tisch liegen, um z.B. überfrachtete oder mangelhafte arbeitende Xilinx-Cores rauszuwerfen, sodass es in kleine FPGAs passt. Mork vom Ork schrieb: > Die vielen Problemlösungen rund um die Tool-Defizite an sich muss > niemand kostenlos liefern. > Das ist das ureigenste Knowhow des Entwicklers. > Oder des Freiberuflers. An dieser Stelle sei der Firma Xilinx für die Qualtiät ihrer Cores gedankt.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.