Forum: Offtopic KI Code Generatoren


von Christoph M. (mchris)


Lesenswert?

Mittlerweile gibt es ja schon einige KI-Codegeneratoren und mit 
bestimmten Einschränkungen kann man sie nutzbringend verwenden.

Ich habe zwei davon ausprobiert:
https://chatgpt.com/
https://www.codeconvert.ai/python-code-generator

Leider gibt es ja für für die freie Version eine Beschränkung der Anzahl 
der Anfragen und man muss überlegen, eines der Abo-Modelle zu verwenden.
Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

: Verschoben durch Moderator
von Yalu X. (yalu) (Moderator)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr

Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI.

> und was bezahlt ihr dafür?

Hin und wieder muss muss er mit ein paar Süßigkeiten gefüttert werden,
damit seine volle Leistungsfähigkeit erhalten bleibt.

PS: Auch die KI-Codegeneratoren sind mittlerweile erstaunlich gut, aber
noch nicht so gut, dass ich bereit wäre, dafür Geld auszugeben.

: Bearbeitet durch Moderator
von Alexander (alecxs)


Lesenswert?

Ist das Forum kaputt?

Beitrag "KI und code generierung"

von Ein T. (ein_typ)


Lesenswert?

Yalu X. schrieb:
> Brain 4.1, basierend auf der neuesten Bleeding-Edge-NI.

Oh, Du bist noch so jung? 8-O

von Christoph M. (mchris)


Lesenswert?

Alexander (alecxs)
>Ist das Forum kaputt?

Nein, hier geht es um die konkrete Frage, für welche KI es sich lohnt zu 
zahlen.
Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model 
für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der 
Zwischenzeit einen viel besseren Generator gibt. Man muss also 
vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es 
vielleicht lokal laufende Modelle gibt.

von Lothar J. (black-bird)


Lesenswert?

Christoph M. schrieb:
> ... , könnte es gut sein, dass es in der Zwischenzeit einen viel besseren
> Generator gibt.

Den gibt es immer. Sitzt meistens vor dem Monitor aka Touchscreen.

Sich auf fremd generierten Code zu verlassen, naja.
Und wie sieht es mit der Code Pflege und Verwaltung aus?

Blackbird

von Obelix X. (obelix)


Lesenswert?

Christoph M. schrieb:
> Ein Problem ist ein wenig die Zukunftssicherheit: Wenn man ein Abo-Model
> für sagen wir 1 Jahr abschließt, könnte es gut sein, dass es in der
> Zwischenzeit einen viel besseren Generator gibt. Man muss also
> vielleicht nach Größe der Firma entscheiden. Die Frage wäre auch, ob es
> vielleicht lokal laufende Modelle gibt.

Die KI kann dir super "Hello world" und "Blinky"-Programme in allen 
möglichen Sprachen schreiben. Das funktioniert super aber ob man mit 
diesem Code Geld verdienen kann ist fraglich.

Die Fehler aus dem KI Code zu entfernen ist genauso aufwendig wie das 
Programm gleich selbst zu schreiben.

: Bearbeitet durch User
von Georg M. (g_m)


Lesenswert?

Obelix X. schrieb:
> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
> möglichen Sprachen schreiben.

Den passenden Code für jeden beliebigen Mikrocontroller?

von Obelix X. (obelix)


Lesenswert?

Georg M. schrieb:
> Den passenden Code für jeden beliebigen Mikrocontroller?

Ich habe nicht jeden MC den es gibt zur Verfügung. Ich konnte es also 
nicht testen. Wenn dir das möglich ist, hält dich keiner davon ab dies 
zu testen und deine Ergebnisse hier zu posten.

Ansonsten verstehe ich zwar deine Frage aber denn Sinn dieser nicht. Was 
soll ich / man darauf antworten? Ein simples "Ja" wird es wohl nicht 
sein.

: Bearbeitet durch User
von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

Georg M. schrieb:
> Obelix X. schrieb:
>> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
>> möglichen Sprachen schreiben.
>
> Den passenden Code für jeden beliebigen Mikrocontroller?

Wenn die KI im Internet eine KI-verständliche Beschreibung findet, ja.
Wenn es da nichts zum Kopieren gibt, pech für die KI. Einen Mitarbeiter 
aus Fleich und Blut kann man noch zum Selbststudium bewegen.

> Ist das Forum kaputt?
> Beitrag "KI und code generierung"

Eben ! Aber da ist es mit den KI-Spackos wie bei manchen Wahlen, wenn 
das Ganze nicht passt, wird halt solange wiederholt, bis der gewünschte 
Ergebniss erzwungen ist.

von Christoph M. (mchris)


Lesenswert?

Obelix X. (obelix)
>Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
>möglichen Sprachen schreiben. Das funktioniert super aber ob man mit
>diesem Code Geld verdienen kann ist fraglich.

Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben.

Gib mal folgende Spezifikation
1
Can you write a Pyhton script to display data?
2
It shall read and display data from a csv-file named "data.csv".
3
4
The csv file contains 3 columns.
5
the first row contains the name of the data rows.
6
7
The data shall be displayed as line plot.
8
The data from column 1 shall be used as X-axis.
9
The data from coumn 2 and 3 shall be da Y-vales.
10
There shall be a legend displayed in the graph.

hier ein:
https://www.codeconvert.ai/python-code-generator

und erzähl mal was über das "Blink" Programm.

von Bradward B. (Firma: Starfleet) (ltjg_boimler)


Lesenswert?

>
1
> Can you write a Pyhton script to display data?
2
> It shall read and display data from a csv-file named "data.csv".
3
> 
4
> The csv file contains 3 columns.
5
> 
6
7
>


Toll, die KI kann nicht mal bis drei zählen, der muss man explizit sagen 
wieviel Kommas pro Zeile in file stehen.

Aber vielleicht liegt es ja am Prompt-Guru, der offensichtlich nicht den 
Unterschied zwischen "column" und "coloumn" kennt ... .

: Bearbeitet durch User
von Daniel A. (daniel-a)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

Ich verwende generell nur Open Source Software, die Gratis ist, keine 
Online Services voraussetzt, keine Abos voraussetzt, und wo es auch 
keine Zusatzfunktionen oder Plugins gibt, bei denen dies nicht erfüllt 
ist.
Mein einziges Abo ist mein Mobilfunk Abo, ohne das gings dann doch 
nicht.

Es gibt LLMs die OSS sind und lokal laufen können. Wie es da mit Code 
Generierung aussieht, kann ich aber nicht sagen. Meine Programme sind 
100% KI Frei.

Des springende Punkt ist aber, das ist auch nur ein Programm, lasst euch 
nicht von Firmen, die euch nur das Geld aus der Tasche ziehen wollen, 
verarschen. Bleibt in Kontrolle von eurem eigenen Kram, schliesst keine 
Abos ab!

von Georg M. (g_m)


Lesenswert?

> Forum: Offtopic
> 24.09.2024 13:31: Verschoben durch Moderator

Offtopic ist Offtopic.
Jetzt hat es natürlich keinen Sinn mehr, über die AI-generated Codes für 
konkrete Mikrocontroller zu sprechen.

: Bearbeitet durch User
von Alexander (alecxs)


Lesenswert?

Bradward B. schrieb:
> Toll, die KI kann nicht mal bis drei zählen

Lol, noch während ich so Christoph M. (mchris) "Spezifikation" 
überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)

von Obelix X. (obelix)


Lesenswert?

Christoph M. schrieb:
> Du scheinst nicht sonderlich viel in der Richtung gemacht zu haben.

Dein Beispiel ist auch nicht viel mehr wie ein Hello World. Stell der KI 
mal eine Aufgabe, bei der ein Logik-Problem gelöst werden soll.

Ich habe schon versuch ein Programm mit Hilfe einer KI zu schreiben, kam 
aber auch sehr schnell an die Grenze der KI. Einige Fehler hat die KI 
nach Nachfrage beheben können aber dann fing sie an zu halluzinieren. Es 
können also schon einfachste Dinge von der KI nicht gelöst werden.

von Εrnst B. (ernst)


Lesenswert?

Gerade für die "einfachsten Dinge" ist so eine KI schon ganz praktisch.

Zeigt beim Tippen in der IDE gleich (mal mehr, mal weniger) sinnvolle 
Vorschläge an, die man direkt per Enter übernehmen kann... oder auch 
nicht, dann tippt man einfach selber weiter.

Reduziert die reine Tipparbeit ohne Gehirnbeteiligung beim 
Programmieren.

Braucht aber leider enorm viel Rechenleistung damit die Vorschläge auch 
zeitnah erscheinen, und nicht erst dann, wenn du die Funktion schon 
selber zuende getippt hast.

Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum, 
mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange 
nix zu reißen.

von Christoph M. (mchris)


Lesenswert?

Alexander (alecxs)
Bradward B. schrieb:
>> Toll, die KI kann nicht mal bis drei zählen
>Lol, noch während ich so Christoph M. (mchris) "Spezifikation"
>überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)

Das kann man auch als Herausforderung sehen, die Spezifikation besser 
machen und in den KI-Codegnerator einspeisen. Zeig mal, wie's geht.

von Christoph M. (mchris)


Lesenswert?

>Deshalb ist da Self-Hosted oder lokal am Rechner eher ein Wunschtraum,
>mit zwei RTX4090 im Rechner und 1kW aus der Steckdose ist da noch lange
>nix zu reißen.

Ich wäre mir da nicht so sicher. Letzte Woche hat mir ein Kumpel auf 
seinem alten I5 Laptop seine zusammengeflickte, lokale KI gezeigt 
(verwendet ein frei verfügbares Modell von Microsoft, habe vergessen 
welches).
Das ganze war mit Spracherkennung und Sprachausgabe. Zwischen zuhören 
und reden waren zwar ca. 30-60 Sekunden, aber ich fand das nicht so 
schlecht für einen alten Laptop. Das war ein allgemeine KI die 
verschiedene menschlich Sprachen beherrschte. Wenn man das ganze 
Primborium da raus lässt und einen reinen Codegenerator trainiert hat, 
könnte da einiges an Potential drinn stecken.

: Bearbeitet durch User
Beitrag #7741587 wurde vom Autor gelöscht.
von Daniel A. (daniel-a)


Lesenswert?

Christoph M. schrieb:
> hier ein:
> https://www.codeconvert.ai/python-code-generator
>
> und erzähl mal was über das "Blink" Programm.

Ich hab dem Ding gerade mal gesagt, mach mir ne topologische Sortierung. 
Soweit kein Problem, Input Paare von abhängigen Elementen, Output eine 
Liste.
Aber sobald man ein klein wenig was komplexeres will als das Standard 
Problem, kommt nur noch misst raus.

Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas 
wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können.

Für mich kein Problem umzusetzen, aber für die "KI"?
Die gibt immer den selben Algorithmus aus, und packt manchmal noch etwas 
nicht funktionierenden Quatsch dazu.

von Monk (roehrmond)


Lesenswert?

KI hilft einem totalen Anfänger beim Programmieren. Ein erfahrener 
Entwickler muss da aber auf jeden Fall noch mal drüber schauen, und zwar 
sehr aufmerksam. Denn KI neigt dazu Fehler zu machen, die man übersieht.

Bis KI den erfahrenen Entwickler überflüssig macht oder ihm wesentliche 
Teile der Arbeit abnimmt, wird noch viel Wasser den Rhein herunter 
fließen.

von Εrnst B. (ernst)


Lesenswert?

Monk schrieb:
> Denn KI neigt dazu Fehler zu machen, die man übersieht.

Prinzipbedingt.
Die KI wurde darauf trainiert, "richtig aussehenden" Code zu erzeugen. 
Nicht "tatsächlich richtigen" Code. Gibt da oft genug Überschneidungen, 
die das Ganze trotzdem nützlich machen.
Aber: Wenn die KI falsch liegt, ist der Fehler gut versteckt, denn genau 
das war ja auch das Trainingsziel...

von Marci W. (marci_w)


Lesenswert?

Hallo Christoph,

Christoph M. schrieb:
>
1
> Can you write a Pyhton script to display data?
2
> It shall read and display data from a csv-file named "data.csv".
3
> 
4
> The csv file contains 3 columns.
5
> the first row contains the name of the data rows.
6
> 
7
> The data shall be displayed as line plot.
8
> The data from column 1 shall be used as X-axis.
9
> The data from coumn 2 and 3 shall be da Y-vales.
10
> There shall be a legend displayed in the graph.
11
>
>
> hier ein:
> https://www.codeconvert.ai/python-code-generator

Ergebnis:

import pandas as pd
import matplotlib.pyplot as plt

data = pd.read_csv('data.csv')
plt.plot(data.iloc[:, 0], data.iloc[:, 1], label=data.columns[1])
plt.plot(data.iloc[:, 0], data.iloc[:, 2], label=data.columns[2])
plt.xlabel(data.columns[0])
plt.ylabel('Values')
plt.title('Data Line Plot')
plt.legend()
plt.show()

Wow, ist ja irre, der Output! Da wäre ich nie drauf gekommen.
Jetzt mal im Ernst: Ja, solche Generatoren sind sehr gut geeignet, um 
schnell einen Überblick über eine API (in diesem Fall Mathplotlib) zu 
erhalten oder um sich Anregungen zu holen, wie man eine bestimmte 
Aufgabe lösen könnte (API-Auswahl etc.) Aber man hat danach halt keine 
große Ahnung, wie die entsprechende API zu verwenden ist. Und wenns 
nicht läuft, muss man eh in die Doku schauen. Von Fehlerbehandlung etc. 
mal ganz zu schweigen. OK OK, ich denke, das könnte mit besserem Input 
auch möglich sein.
Und: die eigentliche Arbeit macht in Deinem Beispiel Mathplotlib, nicht 
die KI. Die Komplexität Deines Beispiels ist außerdem nicht größer als 
ein HalloWelt-Programm für einen Microcontroller. Sehr interessant wird 
es dann, wenn die KI sowas wie Mathplotlib ausspucken kann! ;-)


>
> und erzähl mal was über das "Blink" Programm.

Done.

ciao

Marci

von Georg M. (g_m)


Lesenswert?

Marci W. schrieb:
> ein HalloWelt-Programm für einen Microcontroller
1
#define F_CPU 3333333
2
#include <avr/io.h>
3
#include <util/delay.h>
4
#include <string.h>
5
6
void USART0_sendString(const char *str)
7
{
8
  for(size_t i = 0; i < strlen(str); i++)
9
  {
10
    while(!(USART0.STATUS & USART_DREIF_bm)){}
11
    USART0.TXDATAL = str[i];
12
  }
13
}
14
15
int main(void)
16
{
17
  PORTA.DIRSET = PIN6_bm;            // USART0 TxD pin
18
  USART0.BAUD = 1389;                // 9600 Bd @ 3.33MHz
19
  USART0.CTRLB = USART_TXEN_bm;      // enable Transmitter
20
21
  while(1)
22
  {
23
    USART0_sendString("Hello World!\r\n");
24
    _delay_ms(1000);
25
  }
26
}

von Monk (roehrmond)


Lesenswert?

Georg M. schrieb:
> ein HalloWelt-Programm für einen Microcontroller

Offenbar von 
https://www.avrfreaks.net/s/topic/a5C3l000000UkDzEAK/t190771?comment=P-1571454 
kopiert

Experiment auf ChatGPT:
> The following program shall be modified to support
> 50 times higher clock frequency

Dann habe ich dein Programmbeispiel zitiert.

Als Ergebnis kommt die gängige Formel samt Erklärung, wie die Zahl für 
das Baudraten-Register bei klassischen AVR zu berechnen ist. Dann 
dieses Beispiel:
1
#define F_CPU 166666650  // Updated for 50x higher clock
2
...
3
PORTA.DIRSET = PIN6_bm;            // USART0 TxD pin
4
USART0.BAUD = 1084;                // Recalculated 9600 Bd @ 166.67MHz
5
USART0.CTRLB = USART_TXEN_bm;      // Enable Transmitter

Ich hoffe ich irre mich nicht, aber hinter der Zahl 166666650 fehlt ein 
"UL" und USART0.BAUD müsste 69444 sein, der Wert passt aber nicht in das 
Register.

Was für ein Fail! Der Chatbot führt einen zuerst in die Irre, indem er 
eine Erklärung für falsche Modelle liefert. Und dann liefert er auch 
noch ein kaputtes Beispiel.

: Bearbeitet durch User
von Christian (dragony)


Lesenswert?

Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype wird von 
den ganzen hirnlosen Trotteln verbreitet und befeuert, die selbst keine 
Ahnung vom Programmieren haben, dafür aber umso mehr genauestens wissen, 
dass sowas ja gar nicht so schwer sein kann und das bestimmt bald eine 
AI übernehmen wird.

Der Grund, warum sie es nicht können ist, weil sie sich mit so banalen 
Dingen halt nicht abgeben. Das sind ja auch keine kleinen Entwickler, 
sondern wichtige Entscheider!!!!11

Ich denke, wir haben viel zu viele dieser sogenannten Entscheider auf 
dieser Welt, die neuerdings Atomkraftwerke für AI[1] bauen lassen oder 
von Kriegen[2] sprechen, wenn Rechenpower nicht günstiger wird. Wie 
lange sollen diese sog. Entscheider noch entscheiden dürfen?

[1] 
https://www.seattletimes.com/business/microsoft-hungry-for-ai-power-spurs-revival-of-three-mile-island-nuclear-plant

[2] 
https://www.heise.de/news/OpenAI-Chef-sagt-Zeitalter-der-Intelligenz-voraus-9951125.html

von Harald K. (kirnbichler)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

Keinen und folglich nichts. Mein Arbeitgeber bezahlt mich.

von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert 
haben.

Christian (dragony)
>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype

Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet 
wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen. 
Das Ergebnis findet sich im mp3.

von Christian (dragony)


Lesenswert?

Dafür ist mir meine Lebenszeit zu schade. Alexa! Fasse das .mp3 in 2 
Sätzen Text zusammen und poste es hier!

von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Vielen Dank an alle, die konstrukiv die Codegeneratoren ausprobiert
> haben.
>
> Christian (dragony)
>>Der ganze "AI wird in Zukunft Entwickler ersetzen!!!111"-Hype
>
> Es kann schon sein, dass von den KI's im Momente etwas zu viel erwartet
> wird. Ich habe deine Aussagen mal von ein paar KI's analysieren lassen.
> Das Ergebnis findet sich im mp3.

Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch 
erstaunlich, was die KI da ausspuckt! Welche KIs hast Du denn bemüht, um 
das mp3 zu erhalten? Da würde ich auch gerne ein wenig damit spielen. 
:-)

Im Übrigen gibt es schon Anwendungen, die ich wirklich erstaunlich 
finde: als Beispiel nenne ich hier mal das Generieren von Bildern. Auch 
wenn es manchmal nicht passt (Hände mit sieben Fingern, falsche 
Sichtbarkeit von Objekten etc.) finde ich es schon faszinierend, wie man 
mit ein paar passenden Tokens im Handumdrehen Bilder erzeugen lassen 
kann. Vor allem, weil ich ehrlich gesagt keine Ahnung habe, wie solche 
Systeme realisiert werden können. Bei Textsystemen hat man als 
Entwickler wenigstens eine klitzekleine Idee, wie das umgesetzt werden 
könnte. So jedenfalls geht es mir. Ich sollte wohl mal die Bücher über 
KI, die bei mir im Regal stehen, lesen...)

Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale 
Netze" geschlummert hat. Ich habe hier ein Buch, das vermutlich von 
Anfang der 2000er Jahre stammt (mit exakt dem genannten Titel). Damals 
war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter. 
;-)

ciao

Marci

von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Wenn man das ganze
> Primborium da raus lässt und einen reinen Codegenerator trainiert hat,
> könnte da einiges an Potential drinn stecken.

Na ja, für die hier im Thread gezeigten Beispiele hätte eine kurze 
Anfrage an Google wohl auch zum Ziel geführt. Aber Du hast recht! 
Interessant ist das Thema KI auf jeden Fal! Die Medien sollten halt 
einfach mal die Kirche im Dorf lassen, und das Thema nicht so dermaßen 
"overhypen"(*)
Aber inzwischen ist es ja wieder ein wenig ruhiger und sachlicher 
geworden um das Thema KI (jedenfalls nach meiner Einschätzung).

Genau so wie um das Thema autonomes Fahren. Ist halt alles doch nicht 
ganz so einfach wie viele gedacht haben.

ciao

Marci

(*) Gibt's das Wort schon? Ist mir gerade eingefallen. Ganz ohne KI ;-)

von Alexander (alecxs)


Lesenswert?

Marci W. schrieb:
> Auch wenn die Analyse teilweise völlig falsch ist, so ist es doch
> erstaunlich, was die KI da ausspuckt!

nicht erstaunlich finde ich die Unwiss-Einheit wie Kieh und Aye Guy 
konsequent falsch ausgesprochen werden ;)

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Bradward B. schrieb:
>> Toll, die KI kann nicht mal bis drei zählen
>
> Lol, noch während ich so Christoph M. (mchris) "Spezifikation"
> überfliege, denke ich mir genau das! Und dann schreibst Du es aus. :)

Da haben sich ja die richtigen "Geistesgrößen" getroffen...

von Ein T. (ein_typ)


Lesenswert?

Daniel A. schrieb:
> Sagen wir z.B. ich will bei 1->2 1->3 2->4 3->4 statt [1,2,3,4] sowas
> wie [[1],[2,3],[4]], wo die inneren Listen gleichzeitig "laufen" können.

Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine 
KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.

von Kolja L. (kolja82)


Lesenswert?

Christoph M. schrieb:
> Welchen Codegenerator nutzt ihr und was bezahlt ihr dafür?

Versucht mal Cursor, das ist ein VSCode Fork mit einer etwas mächtigeren 
"AI" als github Copilot.

Das LLM ist wählbar und mit dem kostenlosen Angebot kommt man schon 
recht weit.

https://www.cursor.com

von Alexander (alecxs)


Lesenswert?

Ein T. schrieb:
> Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet:
> Garbage in, Garbage out.

Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte 
auch Dir schon mal aufgefallen sein.

von Daniel A. (daniel-a)


Lesenswert?

Ein T. schrieb:
> Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine
> KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.

Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen 
erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein, 
wenn man weiss, was Topologische Sortierung ist. Lies mal 
https://en.wikipedia.org/wiki/Topological_sorting

Man macht da aus einem gerichteten Graph aus Abhängigkeiten eine Liste. 
Also aus Relationen wie "für B brauch ich A", macht man "Zuerst mach ich 
A, dann B, dann C...".

Und was ich wollte ist eine Variation davon. "Zuerst mach ich A und X, 
dann B und Y, dann C, ...".

Das ist doch nicht so schwer zu verstehen.

von Georg M. (g_m)


Lesenswert?

Leute, ihr sollt die KI nicht überbelasten.

https://www.cio.de/a/openai-chef-will-5-gigawatt-rechenzentren,3743289

von Yalu X. (yalu) (Moderator)


Lesenswert?

> Ein T. schrieb:
>> Nicht einmal verstehe, was Du haben willst. Kaum verwunderlich, daß eine
>> KI dann nach dem GIGO-Prinzip arbeitet: Garbage in, Garbage out.
>
> Der KI hab ich natürlich versucht, es genauer zu erklären. Bei Menschen
> erwarte ich aber etwas mehr. Was ich will sollte eigentlich klar sein,
> wenn man weiss, was Topologische Sortierung ist. Lies mal
> https://en.wikipedia.org/wiki/Topological_sorting

Ich weiß, was topologische Sortierung ist und habe sicherheitshalber den
Wikipedia-Artikel gelesen, aber auch ich habe deine Problembeschreibung
nicht verstanden, sondern allenfalls eine vage Vorstellung davon, was du
von dem Algorithmus erwartest. Hier ist eine knappe (wenn auch immer
noch sehr unpräzise) englisch Umschreibung dessen, was dir vermutlich
vorschwebt:
1
Input: List of pairs of numbers, each of them representing the order of
2
two numbers
3
4
Output: Topologically sorted list, where adjacent elements of the result
5
are collected in sublists

Ich habe genau diesen Text in den Python-Codegenerator eingegeben mit
folgendem Ergebnis:
1
from collections import defaultdict, deque
2
3
def topological_sort(pairs):
4
    graph = defaultdict(list)
5
    in_degree = defaultdict(int)
6
7
    for a, b in pairs:
8
        graph[a].append(b)
9
        in_degree[b] += 1
10
        if a not in in_degree:
11
            in_degree[a] = 0
12
13
    queue = deque([node for node in in_degree if in_degree[node] == 0])
14
    sorted_list = []
15
16
    while queue:
17
        current_level = []
18
        for _ in range(len(queue)):
19
            node = queue.popleft()
20
            current_level.append(node)
21
            for neighbor in graph[node]:
22
                in_degree[neighbor] -= 1
23
                if in_degree[neighbor] == 0:
24
                    queue.append(neighbor)
25
        sorted_list.append(current_level)
26
27
    return sorted_list
28
29
# Example usage
30
pairs = [(1, 2), (1, 3), (2, 4), (3, 4)]
31
result = topological_sort(pairs)
32
print(result)

Interessanterweise hat die KI sogar dasselbe Minimalbeispiel wie Daniel
gefunden, so dass das vom Algorithmus gelieferte Ergebnis direkt mit
Daniels Erwartung verglichen werden kann:

Daniel A. schrieb:
> [[1],[2,3],[4]]

Also los:
1
$ python test.py 
2
[[1], [2, 3], [4]]

Noch Fragen?

Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion
entfernt, aber bereits um Größenordnungen besser als das, was ihnen
viele (wie bspw. der Obelix) zutrauen:

Obelix X. schrieb:
> Die KI kann dir super "Hello world" und "Blinky"-Programme in allen
> möglichen Sprachen schreiben.

Ok, zur Zeit der Gallier und Römer war die KI vielleicht noch nicht ganz
so weit ;-)


Alexander schrieb:
> Es ist aber tatsächlich so, dass LLM nicht zählen können.

ChatGPT kann das meiner Erfahrung nach schon.


PS: ich habe oben geschrieben:

"Output: Topologically sorted list, where adjacent elements of the
result are collected in sublists"

Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann
zusammengefasst werden sollen, wenn sie nicht in Relation zueinander
stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und
den Satz richtig interpretiert.

: Bearbeitet durch Moderator
von Daniel A. (daniel-a)


Lesenswert?

Yalu X. schrieb:
> PS: ich habe oben geschrieben:
>
> "Output: Topologically sorted list, where adjacent elements of the
> result are collected in sublists"
>
> Ich wollte eigentlich schreiben, dass benachbarte Elemente genau dann
> zusammengefasst werden sollen, wenn sie nicht in Relation zueinander
> stehen. Trotzdem hat die KI offensichtlich meine Gedanken gelesen und
> den Satz richtig interpretiert.

Das hatte ich versucht, aber irgendwie hatte das bei mir nicht 
funktioniert...

von Gunnar F. (gufi36)


Lesenswert?

ich habe heute meine erste größere Erfahrung mit ChatGPT gemacht. Dieser 
Beitrag von mir:
Beitrag "Re: VisualStudio2022, C#8, WPF, XAML Messkurven als Diagramm darstellen"
treibt mich noch zur Verzweiflung. Die Datenbindung funktioniert zur 
Entwurfs- aber nicht zur Lauzeit. Vorweg: Das Problem ist immer noch 
nicht gelöst, aber ich war tief beeindruckt. Auf meine verbale 
Schilderung des Problems kamen sofort Codeansätze, die meinen schon 
ähnlich sahen. Als ich meine Sourcen postete, kamen durchaus sehr gute 
Hilfestellungen, bis zur Feststellung, dass eine 
ObservableCollection<Point> die Datenaktualisierung duch Add() schon 
mitbringt, während die vom Polygon erwartete PointCollection das nicht 
macht. Da hat mir der digitale Kollege sogar eine Converter-Klasse 
geschrieben!
Er hatte nur nicht gemerkt, daß ich den Versuch mit der 
ObservableCollection schon gemacht hatte. Nachdem das auch nicht ging, 
habe ich es nur auskommentiert. Kommentare scheint er zu ignorieren.

von Ein T. (ein_typ)


Lesenswert?

Alexander schrieb:
> Ein T. schrieb:
>> Kaum verwunderlich, daß eine KI dann nach dem GIGO-Prinzip arbeitet:
>> Garbage in, Garbage out.
>
> Es ist aber tatsächlich so, dass LLM nicht zählen können. Das sollte
> auch Dir schon mal aufgefallen sein.

Ich bin nicht so dumm, das zu erwarten.

von Monk (roehrmond)


Lesenswert?

Marci W. schrieb:
> Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale
> Netze" geschlummert hat.

So lange, bis jemand 200 Milliarden Euro (oder so ähnlich) auf das 
Problem geworfen hat.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Marci W. schrieb:
> Erstaunlich ist auch, wie lange z.B. das Thema "Künstliche Neuronale
> Netze" geschlummert hat.

Das Thema war schon öfter in einem Schlummerstadium.

Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum
Synonym für "KI" geworden sind) war die Forschung schon seit den 50er
Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung
begleitet:

  https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung

Derzeit befinden wir uns wieder in einer Phase der Euphorie, getrieben
vor allem durch die Verfügbarkeit riesiger Rechenleistungen (bspw. in
Form von GPUs und TPUs), ohne die ein neuronales Netz zu kaum mehr als
einfacher Mustererkennung taugt, die zwar (je nach Definition) als
"intelligent" bezeichnet werden kann, sich aber einem Intelligenzniveau
bewegt, das maximal dem von Insekten entspricht. Inzwischen ist die
Forschung allerdings ein großes Stück vorangekommen.

Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der
letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des
menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem
automatisierten Autofahren, schnell an seine Grenzen stößt

Bis in 20 Jahren wird aber mittels neuer Technologien (vielleicht
basierend auf Quantencomputing) auch das möglich sein, was dann die
nächste Euphoriephase einleiten wird.

Euphorie unter den Forschern lockt Geldgeber an, was den Fortschritt
beflügelt und die Euphorie weiter steigert. Ernüchterung unter den
Forschern hingegen schreckt Geldgeber ab, was den Fortschritt bremst und
die Ernüchterung weiter steigert. Man hat es hier also wie in vielen
anderen Bereichen mit einem selbstverstärkenden Effekt zu tun, der das
ständige Auf und Ab zusätzlich begünstigt.

: Bearbeitet durch Moderator
von Ein T. (ein_typ)


Lesenswert?

Yalu X. schrieb:
> Bei den künstlichen neuronalen Netzen (die ja inzwischen praktisch zum
> Synonym für "KI" geworden sind) war die Forschung schon seit den 50er
> Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung
> begleitet:
>
> 
https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Geschichtliche_Entwicklung

Ja, siehe dazu auch [1] für die deutsch- und [2] für die 
englischsprachigen Teilnehmer des Forums.

[1] https://de.wikipedia.org/wiki/KI-Winter
[2] https://en.wikipedia.org/wiki/AI_winter

> Derzeit befinden wir uns wieder in einer Phase der Euphorie,
> [...]
> Die Ernüchterung wird dennoch bald folgen,

Ja, höchstwahrscheinlich, denn letzten Endes ist es aus meiner Sicht 
weniger eine Ernüchterung als eine Enttäuschung. Wir sehen doch schon 
hier in den Threads zu diesem Thema, wie viele Menschen die KI maßlos 
überschätzen. Die hoffen darauf, daß KI-Maschinen ihnen künftig dieses 
lästige und hochgradig anstrengende Denken abnehmen können. Wenn diese 
Menschen dann merken, daß die Maschinen das in absehbarer Zukunft 
allerhöchstens in wenigen Bereichen tun können und das zudem auch noch 
mit erheblichen Kosten verbunden ist, dann reagieren sie mit Frustration 
und wenden sich enttäuscht ab. Und alldieweil Entscheider sich in diesem 
Punkt nur wenig von den Teilnehmern dieses Forums unterscheiden, 
beeinflußt das auch die Investitionsentscheidungen.

Dennoch finden sich in jedem "KI-Sommer" viele Anwendungsfälle, die 
nicht einfach verschwinden, nur weil weniger in die Entwicklung 
investiert wird. Diese Anwendungsfälle werden bleiben, auch wenn die 
Leute in einigen Jahren vergessen haben werden, daß da eine KI 
drinsteckt.

von Lotta  . (mercedes)


Lesenswert?

In dem neuen Radstudio 12.2 von Emba ist eine Schnittstelle
vorhanden, die mehere KI-Generatoren einbinden kann.
Mit dabei ist Ollama, eine KI-Engine, die lokal
auf der Workstation läuft und beim Coden helfen soll,
genau wie Chatgpt oder Claude, die dann aber alles ins Netz
übertragen.
Wer ist schon bereit, seine "Ergüsse" ins Netz zu übertragen,
außer hier im Forum natürlich?

Ich darf zur Zeit nur ne Stunde täglich den PC benutzen
(ich hatte ne Gehirnerschütterung), wenn ich dann mehr Zeit
bekomm, werd ich dann mal probieren und im Forum berichten.

mfg

von Christoph M. (mchris)


Angehängte Dateien:

Lesenswert?

Ein T. (ein_typ)
> Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele
> Menschen die KI maßlos überschätzen.

Das sehe ich deutlich anders.
Hier im Thread tummeln zwar wenige aber doch ein paar 
experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber 
aufgeschlossen sind.

Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner 
Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern. 
Das wird schon alleine aufgrund des ökonomischen Drucks auf die 
Entwicklungskosten passieren.

Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit 
einem Physiker, der die Meinung vertrat, dass ein Computer niemals den 
besten Menschen im Schach schlagen wird.
Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt 
und Kasparow wurde von Deep Blue geschlagen:

https://de.wikipedia.org/wiki/Deep_Blue

Heutzutage schlägt wahrscheinlich jedes Schachprogramm eine besseren 
Armbanduhr den Weltmeister.
Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe 
dazu ( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich 
erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu 
zeigen versucht habe ).

von Walter T. (nicolas)


Lesenswert?

Yalu X. schrieb:
> Die Ernüchterung wird dennoch bald folgen, nämlich dann, wenn auch der
> letzte Optimist erkannt hat, dass ein extrem vereinfachtes Modell des
> menschlichen Gehirns schon bei vielen Alltagsaufgaben, wie bspw. dem
> automatisierten Autofahren, schnell an seine Grenzen stößt

Naja, wenn wir ehrlich sind, kommt schon manches echtes menschliche 
Gehirn beim normalen Autofahren an seine Grenzen.

von Cyblord -. (cyblord)


Lesenswert?

Christoph M. schrieb:
> Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit
> einem Physiker, der die Meinung vertrat, dass ein Computer niemals den
> besten Menschen im Schach schlagen wird.
> Im Jahr 1996 war es dann soweit, meine Voraussicht hatte sich bestätigt
> und Kasparow wurde von Deep Blue geschlagen:

Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an 
seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall 
überlegene menschliche Intellekt zeigen.
Ja nun. Alles weitere ist Geschichte.

von Marci W. (marci_w)


Lesenswert?

Yalu X. schrieb:
> war die Forschung schon seit den 50er
> Jahren von einem ständigen Wechsel zwischen Euphorie und Ernüchterung
> begleitet:

Genau. Wie ich bereits geschrieben hatte:

Marci W. schrieb:
> Damals
> war das Thema noch eine absolute Nische. Halt noch im tiefen KI-Winter.

ciao

Marci

: Bearbeitet durch User
von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Ich hatte schon Ende der 80ziger Jahre eine intensive Diskussion mit
> einem Physiker, der die Meinung vertrat, dass ein Computer niemals den
> besten Menschen im Schach schlagen wird.

Das war schon in den 80ern eine sehr gewagte Aussage! Jedenfalls, wenn 
man etwas Ahnung von der Materie hatte.

Cyblord -. schrieb:
> Ja und dann hielt sich die Mär, dass wenigstens bei GO jedes Programm an
> seine Grenzen stoßen würde. Bei GO würde sich dann der in jedem Fall
> überlegene menschliche Intellekt zeigen.

Und das war schon wieder eine sehr kurzsichtige Annahme, vor allem, da 
die Sache mit Schach ja inzwischen gegessen war. ;-)

ciao

Marci

von Marci W. (marci_w)


Lesenswert?

Christoph M. schrieb:
> Im Anhang noch die sehr begründete Meinung einer KI mit Sprachausgabe
> dazu

welche denn genau?

( Und ja, auch die Sprachausgabe hat in den letzten Jahren wirklich
> erhebliche Fortschritte gemacht, wie ich in dem vorhergehenden MP3 zu
> zeigen versucht habe ).

Da stimme ich dir voll zu! Erstaunlich, wie gut das inzwischen 
funktioniert.
Auch wenn er sich ab und zu mal verschwurbelt. ;-)

ciao

Marci

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Yalu X. schrieb:
> Fazit: Diese Codegeneratoren sind zwar noch weit von der Perfektion
> entfernt, aber bereits um Größenordnungen besser als das, was ihnen
> viele (wie bspw. der Obelix) zutrauen:

Vielleicht ist die KI bereits schon viel besser trainiert, als alle 
glauben. Wenn alle die KI zum Programmieren nutzen, dann würde ich doch 
diese dazu trainieren bei den Nutzern nebenbei meine Backdoors auch mit 
unterzubringen. Das wäre dann mal eine echte Win-Win-Situation. ;o)

Und wie viele sind auch schon auf diese Idee gekommen?
Und wem habe ich jetzt damit das Patent versaut?

von Ein T. (ein_typ)


Lesenswert?

Christoph M. schrieb:
> Ein T. (ein_typ)
>> Wir sehen doch schon hier in den Threads zu diesem Thema, wie viele
>> Menschen die KI maßlos überschätzen.
>
> Das sehe ich deutlich anders.

Das glaube ich nicht, denn...

> Hier im Thread tummeln zwar wenige aber doch ein paar
> experimentierfreudige Entwickler, die neuen Entwicklungstools gegenüber
> aufgeschlossen sind.
>
> Die KI-Codegeneratoren sind am Anfang ihrer Entwicklung und meiner
> Einschätzung nach werden sie sich die nächsten Jahre massiv verbessern.
> Das wird schon alleine aufgrund des ökonomischen Drucks auf die
> Entwicklungskosten passieren.

Die Codegenerierung ist einer jener Anwendungsfälle, die ich in meinem 
letzten Absatz angesprochen hatte. Denn wenn ich mir den Pythoncode 
ansehe, der weiter oben gepostet wurde, unterscheidet der sich nur wenig 
von dem, was ich selbst zur Lösung solcher Aufgaben geschrieben hätte. 
Insofern bin ich überzeugt, daß die KI-gestützte Codegenerierung in 
Zukunft zweifellos noch besser werden, und sich zu einem etablierten 
Werkzeug entwickeln wird.

Trotzdem sehe ich am Horizont bisher noch keine KI, die uns das Denken 
und die Kreativität bei den harten Problemen abnehmen wird -- und hinzu 
kommt, daß die Beschreibung und die Kontrolle dessen, was die KI tun 
soll und was sie daraus letzlich erzeugt, ja immer noch von fähigen 
Entwicklern gemacht werden muß. Da sehe ich zwar den Traum realisiert, 
unendlich viel Boilerplate-Code nicht mehr selbst entwickeln, debuggen, 
pflegen und warten zu müssen -- aber einer KI zu sagen "schreib mir eine 
Tabellenkalkulation" und zu erwarten, daß dabei etwas wie Libreoffice 
Calc oder MS Excel herauskommt...

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.