Mittlerweile gibt es ja schon einige KI-Codegeneratoren und mit bestimmten Einschränkungen kann man sie nutzbringend verwenden. Ich habe zwei davon ausprobiert: https://chatgpt.com/ https://www.codeconvert.ai/python-code-generator Leider gibt es ja für für die freie Version eine Beschränkung der Anzahl der Anfragen und man muss überlegen, eines der Abo-Modelle zu verwenden. Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?
:
Verschoben durch Moderator
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI. > und was bezahlt ihr dafür? Hin und wieder muss muss er mit ein paar Süßigkeiten gefüttert werden, damit seine volle Leistungsfähigkeit erhalten bleibt. PS: Auch die KI-Codegeneratoren sind mittlerweile erstaunlich gut, aber noch nicht so gut, dass ich bereit wäre, dafür Geld auszugeben.
:
Bearbeitet durch Moderator
Yalu X. schrieb: > Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI. Oh, Du bist noch so jung? 8-O
Alexander (alecxs)
>Ist das Forum kaputt?
Nein, hier geht es um die konkrete Frage, für welche KI es sich lohnt zu
zahlen.
Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model
für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der
Zwischenzeit einen viel besseren Generator gibt. Man muss also
vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es
vielleicht lokal laufende Modelle gibt.
Christoph M. schrieb: > ... , könnte es gut sein, dass es in der Zwischenzeit einen viel besseren > Generator gibt. Den gibt es immer. Sitzt meistens vor dem Monitor aka Touchscreen. Sich auf fremd generierten Code zu verlassen, naja. Und wie sieht es mit der Code Pflege und Verwaltung aus? Blackbird
Christoph M. schrieb: > Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model > für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der > Zwischenzeit einen viel besseren Generator gibt. Man muss also > vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es > vielleicht lokal laufende Modelle gibt. Die KI kann dir super "Hello world" und "Blinky"-Programme in allen möglichen Sprachen schreiben. Das funktioniert super aber ob man mit diesem Code Geld verdienen kann ist fraglich. Die Fehler aus dem KI Code zu entfernen ist genauso aufwendig wie das Programm gleich selbst zu schreiben.
:
Bearbeitet durch User
Obelix X. schrieb: > Die KI kann dir super "Hello world" und "Blinky"-Programme in allen > möglichen Sprachen schreiben. Den passenden Code für jeden beliebigen Mikrocontroller?
Georg M. schrieb: > Den passenden Code für jeden beliebigen Mikrocontroller? Ich habe nicht jeden MC den es gibt zur Verfügung. Ich konnte es also nicht testen. Wenn dir das möglich ist, hält dich keiner davon ab dies zu testen und deine Ergebnisse hier zu posten. Ansonsten verstehe ich zwar deine Frage aber denn Sinn dieser nicht. Was soll ich / man darauf antworten? Ein simples "Ja" wird es wohl nicht sein.
:
Bearbeitet durch User
Georg M. schrieb: > Obelix X. schrieb: >> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen >> möglichen Sprachen schreiben. > > Den passenden Code für jeden beliebigen Mikrocontroller? Wenn die KI im Internet eine KI-verständliche Beschreibung findet, ja. Wenn es da nichts zum Kopieren gibt, pech für die KI. Einen Mitarbeiter aus Fleich und Blut kann man noch zum Selbststudium bewegen. > Ist das Forum kaputt? > Beitrag "KI und code generierung" Eben ! Aber da ist es mit den KI-Spackos wie bei manchen Wahlen, wenn das Ganze nicht passt, wird halt solange wiederholt, bis der gewünschte Ergebniss erzwungen ist.
Obelix X. (obelix) >Die KI kann dir super "Hello world" und "Blinky"-Programme in allen >möglichen Sprachen schreiben. Das funktioniert super aber ob man mit >diesem Code Geld verdienen kann ist fraglich. Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben. Gib mal folgende Spezifikation
1 | Can you write a Pyhton script to display data? |
2 | It shall read and display data from a csv-file named "data.csv". |
3 | |
4 | The csv file contains 3 columns. |
5 | the first row contains the name of the data rows. |
6 | |
7 | The data shall be displayed as line plot. |
8 | The data from column 1 shall be used as X-axis. |
9 | The data from coumn 2 and 3 shall be da Y-vales. |
10 | There shall be a legend displayed in the graph. |
hier ein: https://www.codeconvert.ai/python-code-generator und erzähl mal was über das "Blink" Programm.
>
1 | > Can you write a Pyhton script to display data? |
2 | > It shall read and display data from a csv-file named "data.csv". |
3 | > |
4 | > The csv file contains 3 columns. |
5 | > |
6 | |
7 | > |
Toll, die KI kann nicht mal bis drei zählen, der muss man explizit sagen wieviel Kommas pro Zeile in file stehen. Aber vielleicht liegt es ja am Prompt-Guru, der offensichtlich nicht den Unterschied zwischen "column" und "coloumn" kennt ... .
:
Bearbeitet durch User
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür? Ich verwende generell nur Open Source Software, die Gratis ist, keine Online Services voraussetzt, keine Abos voraussetzt, und wo es auch keine Zusatzfunktionen oder Plugins gibt, bei denen dies nicht erfüllt ist. Mein einziges Abo ist mein Mobilfunk Abo, ohne das gings dann doch nicht. Es gibt LLMs die OSS sind und lokal laufen können. Wie es da mit Code Generierung aussieht, kann ich aber nicht sagen. Meine Programme sind 100% KI Frei. Des springende Punkt ist aber, das ist auch nur ein Programm, lasst euch nicht von Firmen, die euch nur das Geld aus der Tasche ziehen wollen, verarschen. Bleibt in Kontrolle von eurem eigenen Kram, schliesst keine Abos ab!
> Forum: Offtopic > 24.09.2024 13:31: Verschoben durch Moderator Offtopic ist Offtopic. Jetzt hat es natürlich keinen Sinn mehr, über die AI-generated Codes für konkrete Mikrocontroller zu sprechen.
:
Bearbeitet durch User
Bradward B. schrieb: > Toll, die KI kann nicht mal bis drei zählen Lol, noch während ich so Christoph M. (mchris) "Spezifikation" überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)
Christoph M. schrieb: > Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben. Dein Beispiel ist auch nicht viel mehr wie ein Hello World. Stell der KI mal eine Aufgabe, bei der ein Logik-Problem gelöst werden soll. Ich habe schon versuch ein Programm mit Hilfe einer KI zu schreiben, kam aber auch sehr schnell an die Grenze der KI. Einige Fehler hat die KI nach Nachfrage beheben können aber dann fing sie an zu halluzinieren. Es können also schon einfachste Dinge von der KI nicht gelöst werden.
Gerade für die "einfachsten Dinge" ist so eine KI schon ganz praktisch. Zeigt beim Tippen in der IDE gleich (mal mehr, mal weniger) sinnvolle Vorschläge an, die man direkt per Enter übernehmen kann... oder auch nicht, dann tippt man einfach selber weiter. Reduziert die reine Tipparbeit ohne Gehirnbeteiligung beim Programmieren. Braucht aber leider enorm viel Rechenleistung damit die Vorschläge auch zeitnah erscheinen, und nicht erst dann, wenn du die Funktion schon selber zuende getippt hast. Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum, mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange nix zu reißen.
Alexander (alecxs) Bradward B. schrieb: >> Toll, die KI kann nicht mal bis drei zählen >Lol, noch während ich so Christoph M. (mchris) "Spezifikation" >überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :) Das kann man auch als Herausforderung sehen, die Spezifikation besser machen und in den KI-Codegnerator einspeisen. Zeig mal, wie's geht.
>Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum, >mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange >nix zu reißen. Ich wäre mir da nicht so sicher. Letzte Woche hat mir ein Kumpel auf seinem alten I5 Laptop seine zusammengeflickte, lokale KI gezeigt (verwendet ein frei verfügbares Modell von Microsoft, habe vergessen welches). Das ganze war mit Spracherkennung und Sprachausgabe. Zwischen zuhören und reden waren zwar ca. 30-60 Sekunden, aber ich fand das nicht so schlecht für einen alten Laptop. Das war ein allgemeine KI die verschiedene menschlich Sprachen beherrschte. Wenn man das ganze Primborium da raus lässt und einen reinen Codegenerator trainiert hat, könnte da einiges an Potential drinn stecken.
:
Bearbeitet durch User
Beitrag #7741587 wurde vom Autor gelöscht.
Christoph M. schrieb: > hier ein: > https://www.codeconvert.ai/python-code-generator > > und erzähl mal was über das "Blink" Programm. Ich hab dem Ding gerade mal gesagt, mach mir ne topologische Sortierung. Soweit kein Problem, Input Paare von abhängigen Elementen, Output eine Liste. Aber sobald man ein klein wenig was komplexeres will als das Standard Problem, kommt nur noch misst raus. Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können. Für mich kein Problem umzusetzen, aber für die "KI"? Die gibt immer den selben Algorithmus aus, und packt manchmal noch etwas nicht funktionierenden Quatsch dazu.
KI hilft einem totalen Anfänger beim Programmieren. Ein erfahrener Entwickler muss da aber auf jeden Fall noch mal drüber schauen, und zwar sehr aufmerksam. Denn KI neigt dazu Fehler zu machen, die man übersieht. Bis KI den erfahrenen Entwickler überflüssig macht oder ihm wesentliche Teile der Arbeit abnimmt, wird noch viel Wasser den Rhein herunter fließen.
Monk schrieb: > Denn KI neigt dazu Fehler zu machen, die man übersieht. Prinzipbedingt. Die KI wurde darauf trainiert, "richtig aussehenden" Code zu erzeugen. Nicht "tatsächlich richtigen" Code. Gibt da oft genug Überschneidungen, die das Ganze trotzdem nützlich machen. Aber: Wenn die KI falsch liegt, ist der Fehler gut versteckt, denn genau das war ja auch das Trainingsziel...
Hallo Christoph, Christoph M. schrieb: >
1 | > Can you write a Pyhton script to display data? |
2 | > It shall read and display data from a csv-file named "data.csv". |
3 | > |
4 | > The csv file contains 3 columns. |
5 | > the first row contains the name of the data rows. |
6 | > |
7 | > The data shall be displayed as line plot. |
8 | > The data from column 1 shall be used as X-axis. |
9 | > The data from coumn 2 and 3 shall be da Y-vales. |
10 | > There shall be a legend displayed in the graph. |
11 | > |
> > hier ein: > https://www.codeconvert.ai/python-code-generator Ergebnis: import pandas as pd import matplotlib.pyplot as plt data = pd.read_csv('data.csv') plt.plot(data.iloc[:, 0], data.iloc[:, 1], label=data.columns[1]) plt.plot(data.iloc[:, 0], data.iloc[:, 2], label=data.columns[2]) plt.xlabel(data.columns[0]) plt.ylabel('Values') plt.title('Data Line Plot') plt.legend() plt.show() Wow, ist ja irre, der Output! Da wäre ich nie drauf gekommen. Jetzt mal im Ernst: Ja, solche Generatoren sind sehr gut geeignet, um schnell einen Überblick über eine API (in diesem Fall Mathplotlib) zu erhalten oder um sich Anregungen zu holen, wie man eine bestimmte Aufgabe lösen könnte (API-Auswahl etc.) Aber man hat danach halt keine große Ahnung, wie die entsprechende API zu verwenden ist. Und wenns nicht läuft, muss man eh in die Doku schauen. Von Fehlerbehandlung etc. mal ganz zu schweigen. OK OK, ich denke, das könnte mit besserem Input auch möglich sein. Und: die eigentliche Arbeit macht in Deinem Beispiel Mathplotlib, nicht die KI. Die Komplexität Deines Beispiels ist außerdem nicht größer als ein HalloWelt-Programm für einen Microcontroller. Sehr interessant wird es dann, wenn die KI sowas wie Mathplotlib ausspucken kann! ;-) > > und erzähl mal was über das "Blink" Programm. Done. ciao Marci
Marci W. schrieb: > ein HalloWelt-Programm für einen Microcontroller
1 | #define F_CPU 3333333
|
2 | #include <avr/io.h> |
3 | #include <util/delay.h> |
4 | #include <string.h> |
5 | |
6 | void USART0_sendString(const char *str) |
7 | {
|
8 | for(size_t i = 0; i < strlen(str); i++) |
9 | {
|
10 | while(!(USART0.STATUS & USART_DREIF_bm)){} |
11 | USART0.TXDATAL = str[i]; |
12 | }
|
13 | }
|
14 | |
15 | int main(void) |
16 | {
|
17 | PORTA.DIRSET = PIN6_bm; // USART0 TxD pin |
18 | USART0.BAUD = 1389; // 9600 Bd @ 3.33MHz |
19 | USART0.CTRLB = USART_TXEN_bm; // enable Transmitter |
20 | |
21 | while(1) |
22 | {
|
23 | USART0_sendString("Hello World!\r\n"); |
24 | _delay_ms(1000); |
25 | }
|
26 | }
|
Georg M. schrieb: > ein HalloWelt-Programm für einen Microcontroller Offenbar von https://www.avrfreaks.net/s/topic/a5C3l000000UkDzEAK/t190771?comment=P-1571454 kopiert Experiment auf ChatGPT: > The following program shall be modified to support > 50 times higher clock frequency Dann habe ich dein Programmbeispiel zitiert. Als Ergebnis kommt die gängige Formel samt Erklärung, wie die Zahl für das Baudraten-Register bei klassischen AVR zu berechnen ist. Dann dieses Beispiel:
1 | #define F_CPU 166666650 // Updated for 50x higher clock
|
2 | ...
|
3 | PORTA.DIRSET = PIN6_bm; // USART0 TxD pin |
4 | USART0.BAUD = 1084; // Recalculated 9600 Bd @ 166.67MHz |
5 | USART0.CTRLB = USART_TXEN_bm; // Enable Transmitter |
Ich hoffe ich irre mich nicht, aber hinter der Zahl 166666650 fehlt ein "UL" und USART0.BAUD müsste 69444 sein, der Wert passt aber nicht in das Register. Was für ein Fail! Der Chatbot führt einen zuerst in die Irre, indem er eine Erklärung für falsche Modelle liefert. Und dann liefert er auch noch ein kaputtes Beispiel.
:
Bearbeitet durch User
Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype wird von den ganzen hirnlosen Trotteln verbreitet und befeuert, die selbst keine Ahnung vom Programmieren haben, dafür aber umso mehr genauestens wissen, dass sowas ja gar nicht so schwer sein kann und das bestimmt bald eine AI übernehmen wird. Der Grund, warum sie es nicht können ist, weil sie sich mit so banalen Dingen halt nicht abgeben. Das sind ja auch keine kleinen Entwickler, sondern wichtige Entscheider!!!!11 Ich denke, wir haben viel zu viele dieser sogenannten Entscheider auf dieser Welt, die neuerdings Atomkraftwerke für AI[1] bauen lassen oder von Kriegen[2] sprechen, wenn Rechenpower nicht günstiger wird. Wie lange sollen diese sog. Entscheider noch entscheiden dürfen? [1] https://www.seattletimes.com/business/microsoft-hungry-for-ai-power-spurs-revival-of-three-mile-island-nuclear-plant [2] https://www.heise.de/news/OpenAI-Chef-sagt-Zeitalter-der-Intelligenz-voraus-9951125.html
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür? Keinen und folglich nichts. Mein Arbeitgeber bezahlt mich.
Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert
haben.
Christian (dragony)
>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype
Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet
wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen.
Das Ergebnis findet sich im mp3.
Dafür ist mir meine Lebenszeit zu schade. Alexa! Fasse das .mp3 in 2 Sätzen Text zusammen und poste es hier!
Christoph M. schrieb: > Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert > haben. > > Christian (dragony) >>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype > > Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet > wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen. > Das Ergebnis findet sich im mp3. Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch erstaunlich, was die KI da ausspuckt! Welche KIs hast Du denn bemüht, um das mp3 zu erhalten? Da würde ich auch gerne ein wenig damit spielen. :-) Im Übrigen gibt es schon Anwendungen, die ich wirklich erstaunlich finde: als Beispiel nenne ich hier mal das Generieren von Bildern. Auch wenn es manchmal nicht passt (Hände mit sieben Fingern, falsche Sichtbarkeit von Objekten etc.) finde ich es schon faszinierend, wie man mit ein paar passenden Tokens im Handumdrehen Bilder erzeugen lassen kann. Vor allem, weil ich ehrlich gesagt keine Ahnung habe, wie solche Systeme realisiert werden können. Bei Textsystemen hat man als Entwickler wenigstens eine klitzekleine Idee, wie das umgesetzt werden könnte. So jedenfalls geht es mir. Ich sollte wohl mal die Bücher über KI, die bei mir im Regal stehen, lesen...) Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale Netze" geschlummert hat. Ich habe hier ein Buch, das vermutlich von Anfang der 2000er Jahre stammt (mit exakt dem genannten Titel). Damals war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter. ;-) ciao Marci
Christoph M. schrieb: > Wenn man das ganze > Primborium da raus lässt und einen reinen Codegenerator trainiert hat, > könnte da einiges an Potential drinn stecken. Na ja, für die hier im Thread gezeigten Beispiele hätte eine kurze Anfrage an Google wohl auch zum Ziel geführt. Aber Du hast recht! Interessant ist das Thema KI auf jeden Fal! Die Medien sollten halt einfach mal die Kirche im Dorf lassen, und das Thema nicht so dermaßen "overhypen"(*) Aber inzwischen ist es ja wieder ein wenig ruhiger und sachlicher geworden um das Thema KI (jedenfalls nach meiner Einschätzung). Genau so wie um das Thema autonomes Fahren. Ist halt alles doch nicht ganz so einfach wie viele gedacht haben. ciao Marci (*) Gibt's das Wort schon? Ist mir gerade eingefallen. Ganz ohne KI ;-)
Marci W. schrieb: > Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch > erstaunlich, was die KI da ausspuckt! nicht erstaunlich finde ich die Unwiss-Einheit wie Kieh und Aye Guy konsequent falsch ausgesprochen werden ;)
Alexander schrieb: > Bradward B. schrieb: >> Toll, die KI kann nicht mal bis drei zählen > > Lol, noch während ich so Christoph M. (mchris) "Spezifikation" > überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :) Da haben sich ja die richtigen "Geistesgrößen" getroffen...
Daniel A. schrieb: > Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas > wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können. Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.
Christoph M. schrieb: > Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür? Versucht mal Cursor, das ist ein VSCode Fork mit einer etwas mächtigeren "AI" als github Copilot. Das LLM ist wählbar und mit dem kostenlosen Angebot kommt man schon recht weit. https://www.cursor.com
Ein T. schrieb: > Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet: > Garbage in, Garbage out. Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte auch Dir schon mal aufgefallen sein.
Ein T. schrieb: > Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine > KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out. Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein, wenn man weiss, was Topologische Sortierung ist. Lies mal https://en.wikipedia.org/wiki/Topological_sorting Man macht da aus einem gerichteten Graph aus Abhängigkeiten eine Liste. Also aus Relationen wie "für B brauch ich A", macht man "Zuerst mach ich A, dann B, dann C...". Und was ich wollte ist eine Variation davon. "Zuerst mach ich A und X, dann B und Y, dann C, ...". Das ist doch nicht so schwer zu verstehen.
Leute, ihr sollt die KI nicht überbelasten. https://www.cio.de/a/openai-chef-will-5-gigawatt-rechenzentren,3743289
> Ein T. schrieb: >> Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine >> KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out. > > Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen > erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein, > wenn man weiss, was Topologische Sortierung ist. Lies mal > https://en.wikipedia.org/wiki/Topological_sorting Ich weiß, was topologische Sortierung ist und habe sicherheitshalber den Wikipedia-Artikel gelesen, aber auch ich habe deine Problembeschreibung nicht verstanden, sondern allenfalls eine vage Vorstellung davon, was du von dem Algorithmus erwartest. Hier ist eine knappe (wenn auch immer noch sehr unpräzise) englisch Umschreibung dessen, was dir vermutlich vorschwebt:
1 | Input: List of pairs of numbers, each of them representing the order of |
2 | two numbers |
3 | |
4 | Output: Topologically sorted list, where adjacent elements of the result |
5 | are collected in sublists |
Ich habe genau diesen Text in den Python-Codegenerator eingegeben mit folgendem Ergebnis:
1 | from collections import defaultdict, deque |
2 | |
3 | def topological_sort(pairs): |
4 | graph = defaultdict(list) |
5 | in_degree = defaultdict(int) |
6 | |
7 | for a, b in pairs: |
8 | graph[a].append(b) |
9 | in_degree[b] += 1 |
10 | if a not in in_degree: |
11 | in_degree[a] = 0 |
12 | |
13 | queue = deque([node for node in in_degree if in_degree[node] == 0]) |
14 | sorted_list = [] |
15 | |
16 | while queue: |
17 | current_level = [] |
18 | for _ in range(len(queue)): |
19 | node = queue.popleft() |
20 | current_level.append(node) |
21 | for neighbor in graph[node]: |
22 | in_degree[neighbor] -= 1 |
23 | if in_degree[neighbor] == 0: |
24 | queue.append(neighbor) |
25 | sorted_list.append(current_level) |
26 | |
27 | return sorted_list |
28 | |
29 | # Example usage |
30 | pairs = [(1, 2), (1, 3), (2, 4), (3, 4)] |
31 | result = topological_sort(pairs) |
32 | print(result) |
Interessanterweise hat die KI sogar dasselbe Minimalbeispiel wie Daniel gefunden, so dass das vom Algorithmus gelieferte Ergebnis direkt mit Daniels Erwartung verglichen werden kann: Daniel A. schrieb: > [[1],[2,3],[4]] Also los:
1 | $ python test.py |
2 | [[1], [2, 3], [4]] |
Noch Fragen? Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion entfernt, aber bereits um Größenordnungen besser als das, was ihnen viele (wie bspw. der Obelix) zutrauen: Obelix X. schrieb: > Die KI kann dir super "Hello world" und "Blinky"-Programme in allen > möglichen Sprachen schreiben. Ok, zur Zeit der Gallier und Römer war die KI vielleicht noch nicht ganz so weit ;-) Alexander schrieb: > Es ist aber tatsächlich so, dass LLM nicht zählen können. ChatGPT kann das meiner Erfahrung nach schon. PS: ich habe oben geschrieben: "Output: Topologically sorted list, where adjacent elements of the result are collected in sublists" Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann zusammengefasst werden sollen, wenn sie nicht in Relation zueinander stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und den Satz richtig interpretiert.
:
Bearbeitet durch Moderator
Yalu X. schrieb: > PS: ich habe oben geschrieben: > > "Output: Topologically sorted list, where adjacent elements of the > result are collected in sublists" > > Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann > zusammengefasst werden sollen, wenn sie nicht in Relation zueinander > stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und > den Satz richtig interpretiert. Das hatte ich versucht, aber irgendwie hatte das bei mir nicht funktioniert...
ich habe heute meine erste größere Erfahrung mit ChatGPT gemacht. Dieser Beitrag von mir: Beitrag "Re: VisualStudio2022, C#8, WPF, XAML Messkurven als Diagramm darstellen" treibt mich noch zur Verzweiflung. Die Datenbindung funktioniert zur Entwurfs- aber nicht zur Lauzeit. Vorweg: Das Problem ist immer noch nicht gelöst, aber ich war tief beeindruckt. Auf meine verbale Schilderung des Problems kamen sofort Codeansätze, die meinen schon ähnlich sahen. Als ich meine Sourcen postete, kamen durchaus sehr gute Hilfestellungen, bis zur Feststellung, dass eine ObservableCollection<Point> die Datenaktualisierung duch Add() schon mitbringt, während die vom Polygon erwartete PointCollection das nicht macht. Da hat mir der digitale Kollege sogar eine Converter-Klasse geschrieben! Er hatte nur nicht gemerkt, daß ich den Versuch mit der ObservableCollection schon gemacht hatte. Nachdem das auch nicht ging, habe ich es nur auskommentiert. Kommentare scheint er zu ignorieren.
Alexander schrieb: > Ein T. schrieb: >> Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet: >> Garbage in, Garbage out. > > Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte > auch Dir schon mal aufgefallen sein. Ich bin nicht so dumm, das zu erwarten.
Marci W. schrieb: > Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale > Netze" geschlummert hat. So lange, bis jemand 200 Milliarden Euro (oder so ähnlich) auf das Problem geworfen hat.
:
Bearbeitet durch User
Marci W. schrieb: > Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale > Netze" geschlummert hat. Das Thema war schon öfter in einem Schlummerstadium. Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum Synonym für "KI" geworden sind) war die Forschung schon seit den 50er Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung begleitet: https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung Derzeit befinden wir uns wieder in einer Phase der Euphorie, getrieben vor allem durch die Verfügbarkeit riesiger Rechenleistungen (bspw. in Form von GPUs und TPUs), ohne die ein neuronales Netz zu kaum mehr als einfacher Mustererkennung taugt, die zwar (je nach Definition) als "intelligent" bezeichnet werden kann, sich aber einem Intelligenzniveau bewegt, das maximal dem von Insekten entspricht. Inzwischen ist die Forschung allerdings ein großes Stück vorangekommen. Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem automatisierten Autofahren, schnell an seine Grenzen stößt Bis in 20 Jahren wird aber mittels neuer Technologien (vielleicht basierend auf Quantencomputing) auch das möglich sein, was dann die nächste Euphoriephase einleiten wird. Euphorie unter den Forschern lockt Geldgeber an, was den Fortschritt beflügelt und die Euphorie weiter steigert. Ernüchterung unter den Forschern hingegen schreckt Geldgeber ab, was den Fortschritt bremst und die Ernüchterung weiter steigert. Man hat es hier also wie in vielen anderen Bereichen mit einem selbstverstärkenden Effekt zu tun, der das ständige Auf und Ab zusätzlich begünstigt.
:
Bearbeitet durch Moderator
Yalu X. schrieb: > Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum > Synonym für "KI" geworden sind) war die Forschung schon seit den 50er > Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung > begleitet: > > https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung Ja, siehe dazu auch [1] für die deutsch- und [2] für die englischsprachigen Teilnehmer des Forums. [1] https://de.wikipedia.org/wiki/KI-Winter [2] https://en.wikipedia.org/wiki/AI_winter > Derzeit befinden wir uns wieder in einer Phase der Euphorie, > [...] > Die Ernüchterung wird dennoch bald folgen, Ja, höchstwahrscheinlich, denn letzten Endes ist es aus meiner Sicht weniger eine Ernüchterung als eine Enttäuschung. Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele Menschen die KI maßlos überschätzen. Die hoffen darauf, daß KI-Maschinen ihnen künftig dieses lästige und hochgradig anstrengende Denken abnehmen können. Wenn diese Menschen dann merken, daß die Maschinen das in absehbarer Zukunft allerhöchstens in wenigen Bereichen tun können und das zudem auch noch mit erheblichen Kosten verbunden ist, dann reagieren sie mit Frustration und wenden sich enttäuscht ab. Und alldieweil Entscheider sich in diesem Punkt nur wenig von den Teilnehmern dieses Forums unterscheiden, beeinflußt das auch die Investitionsentscheidungen. Dennoch finden sich in jedem "KI-Sommer" viele Anwendungsfälle, die nicht einfach verschwinden, nur weil weniger in die Entwicklung investiert wird. Diese Anwendungsfälle werden bleiben, auch wenn die Leute in einigen Jahren vergessen haben werden, daß da eine KI drinsteckt.
In dem neuen Radstudio 12.2 von Emba ist eine Schnittstelle vorhanden, die mehere KI-Generatoren einbinden kann. Mit dabei ist Ollama, eine KI-Engine, die lokal auf der Workstation läuft und beim Coden helfen soll, genau wie Chatgpt oder Claude, die dann aber alles ins Netz übertragen. Wer ist schon bereit, seine "Ergüsse" ins Netz zu übertragen, außer hier im Forum natürlich? Ich darf zur Zeit nur ne Stunde täglich den PC benutzen (ich hatte ne Gehirnerschütterung), wenn ich dann mehr Zeit bekomm, werd ich dann mal probieren und im Forum berichten. mfg
Ein T. (ein_typ) > Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele > Menschen die KI maßlos überschätzen. Das sehe ich deutlich anders. Hier im Thread tummeln zwar wenige aber doch ein paar experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber aufgeschlossen sind. Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern. Das wird schon alleine aufgrund des ökonomischen Drucks auf die Entwicklungskosten passieren. Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit einem Physiker, der die Meinung vertrat, dass ein Computer niemals den besten Menschen im Schach schlagen wird. Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt und Kasparow wurde von Deep Blue geschlagen: https://de.wikipedia.org/wiki/Deep_Blue Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren Armbanduhr den Weltmeister. Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe dazu ( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu zeigen versucht habe ).
Yalu X. schrieb: > Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der > letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des > menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem > automatisierten Autofahren, schnell an seine Grenzen stößt Naja, wenn wir ehrlich sind, kommt schon manches echtes menschliche Gehirn beim normalen Autofahren an seine Grenzen.
Christoph M. schrieb: > Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit > einem Physiker, der die Meinung vertrat, dass ein Computer niemals den > besten Menschen im Schach schlagen wird. > Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt > und Kasparow wurde von Deep Blue geschlagen: Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall überlegene menschliche Intellekt zeigen. Ja nun. Alles weitere ist Geschichte.
Yalu X. schrieb: > war die Forschung schon seit den 50er > Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung > begleitet: Genau. Wie ich bereits geschrieben hatte: Marci W. schrieb: > Damals > war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter. ciao Marci
:
Bearbeitet durch User
Christoph M. schrieb: > Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit > einem Physiker, der die Meinung vertrat, dass ein Computer niemals den > besten Menschen im Schach schlagen wird. Das war schon in den 80ern eine sehr gewagte Aussage! Jedenfalls, wenn man etwas Ahnung von der Materie hatte. Cyblord -. schrieb: > Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an > seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall > überlegene menschliche Intellekt zeigen. Und das war schon wieder eine sehr kurzsichtige Annahme, vor allem, da die Sache mit Schach ja inzwischen gegessen war. ;-) ciao Marci
Christoph M. schrieb: > Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe > dazu welche denn genau? ( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich > erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu > zeigen versucht habe ). Da stimme ich dir voll zu! Erstaunlich, wie gut das inzwischen funktioniert. Auch wenn er sich ab und zu mal verschwurbelt. ;-) ciao Marci
Yalu X. schrieb: > Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion > entfernt, aber bereits um Größenordnungen besser als das, was ihnen > viele (wie bspw. der Obelix) zutrauen: Vielleicht ist die KI bereits schon viel besser trainiert, als alle glauben. Wenn alle die KI zum Programmieren nutzen, dann würde ich doch diese dazu trainieren bei den Nutzern nebenbei meine Backdoors auch mit unterzubringen. Das wäre dann mal eine echte Win-Win-Situation. ;o) Und wie viele sind auch schon auf diese Idee gekommen? Und wem habe ich jetzt damit das Patent versaut?
Christoph M. schrieb: > Ein T. (ein_typ) >> Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele >> Menschen die KI maßlos überschätzen. > > Das sehe ich deutlich anders. Das glaube ich nicht, denn... > Hier im Thread tummeln zwar wenige aber doch ein paar > experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber > aufgeschlossen sind. > > Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner > Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern. > Das wird schon alleine aufgrund des ökonomischen Drucks auf die > Entwicklungskosten passieren. Die Codegenerierung ist einer jener Anwendungsfälle, die ich in meinem letzten Absatz angesprochen hatte. Denn wenn ich mir den Pythoncode ansehe, der weiter oben gepostet wurde, unterscheidet der sich nur wenig von dem, was ich selbst zur Lösung solcher Aufgaben geschrieben hätte. Insofern bin ich überzeugt, daß die KI-gestützte Codegenerierung in Zukunft zweifellos noch besser werden, und sich zu einem etablierten Werkzeug entwickeln wird. Trotzdem sehe ich am Horizont bisher noch keine KI, die uns das Denken und die Kreativität bei den harten Problemen abnehmen wird -- und hinzu kommt, daß die Beschreibung und die Kontrolle dessen, was die KI tun soll und was sie daraus letzlich erzeugt, ja immer noch von fähigen Entwicklern gemacht werden muß. Da sehe ich zwar den Traum realisiert, unendlich viel Boilerplate-Code nicht mehr selbst entwickeln, debuggen, pflegen und warten zu müssen -- aber einer KI zu sagen "schreib mir eine Tabellenkalkulation" und zu erwarten, daß dabei etwas wie Libreoffice Calc oder MS Excel herauskommt...
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.