Mein Chat mit chatgpt:
Ich: Ich benötige eine einfache Schaltung für einen AGC-Verstärker für
Audio.
-----
KI:
Ziel der Schaltung:
Du willst eine AGC-Schaltung (Automatic Gain Control) für ein
Audiosignal, die automatisch die Lautstärke anpasst – also laute Signale
leiser macht und leise Signale lauter.
💡 Grundprinzip (vereinfacht erklärt):
Das Audiosignal geht zuerst in einen Operationsverstärker (OpAmp), der
das Signal verstärken kann.
Im Rückkopplungszweig (Feedback) des OpAmps sitzt ein FET (Transistor),
der den Widerstand ändern kann.
Je nachdem, wie laut das Eingangssignal ist, wird der FET mehr oder
weniger durchgesteuert – dadurch ändert sich die Verstärkung.
Damit der FET richtig gesteuert wird, wird das Audiosignal über eine
Diode gleichgerichtet und mit einem Kondensator geglättet – dadurch
entsteht eine Steuerspannung.
-----
Das generierte Schaltbild ist KI-AGC-Verstärker-1.png
Nach ein paar Interventionen meinerseits, muss ich feststellen, dass ich
zu doof für KI-Schaltungen bin, aber vielleicht versteht ihr die
Schaltung:
1
[Audio-In] ---||---+---|>o---+--> [Audio-Out]
2
C1 | |
3
R1 |
4
| [OpAmp mit FET in Feedback]
5
GND |
6
Drain
7
|
8
FET (J201)
9
|
10
Source
11
|
12
R2
13
|
14
GND
15
16
Parallel dazu:
17
- Signal wird über Diode und RC-Glied gleichgerichtet.
Warum schlagen hier Heulsusen auf, die erfolglos mit einem Automaten
chatteten?
Warum lesen die ChatGPT vor?
Warum machen die ihre Verständigungs- und Verständnisprobleme zum Thema?
Warum geben die den Clown und meinen, ihr Gequatsche wäre "spaßig"?
Einsamkeit?
Ich mag es überhaupt nicht, wenn hier im Forum – wie in letzter Zeit des
Öfteren beobachtet – kilometerlanges ChatGPT-Gesülze gepostet wird,
insbesondere dann, wenn es nicht wenigstens rudimentär auf Richtigkeit
geprüft und der lange Text nicht auf die Wesentliche Aussage eingedampft
worden ist.
Jetzt mache ich selber mal eine Ausnahme und poste eine ChatGPT-Antwort
in voller Länge (wird auch so schnell nicht wieder geschehen,
versprochen!). Immerhin habe ich die Antwort vor dem Posten aufmerksam
durchgelesen und empfinde sie danach durchaus auch für andere als
lesenswert.
Meine Frage war:
Warum liefert ChatGPT so oft falsche Antworten?
Die Antwort von ChatGPT:
1
Gute Frage – und eine, die viele Leute bewegt. Es gibt ein paar Gründe,
🧠 1. Kein echtes Wissen, sondern Wahrscheinlichkeiten
6
ChatGPT funktioniert nicht wie ein Lexikon, sondern wie ein riesiger
7
Autovervollständiger. Es hat gelernt, welche Wörter typischerweise
8
aufeinander folgen – basierend auf riesigen Mengen an Texten. Das heißt:
9
- Es „errät“ die wahrscheinlichste Antwort.
10
- Aber was wahrscheinlich klingt, ist nicht immer korrekt.
11
12
🔍 2. Veraltetes Wissen
13
Wenn du kein Echtzeit-Plugin verwendest (wie z. B. Webzugriff), basiert
14
ChatGPTs Wissen auf einem bestimmten Stand – z. B. bei GPT-4 auf Daten
15
bis 2023 oder 2024 (je nach Version).
16
- Neue Infos (z. B. aktuelle Nachrichten, Gesetzesänderungen,
17
Software-Updates) fehlen eventuell.
18
- Das kann zu falschen oder veralteten Aussagen führen.
19
20
🧩 3. Fehlende Kontexttiefe
21
Manchmal versteht das Modell nicht genau, was du meinst, oder es
22
interpretiert den Kontext falsch. Besonders bei mehrdeutigen Fragen oder
23
wenn Infos fehlen.
24
25
🗣️ 4. Überzeugendes Blöffen
26
Einer der größten Kritikpunkte:
27
- ChatGPT „antwortet“ auch dann, wenn es etwas nicht sicher weiß.
28
- Es klingt dabei aber sehr überzeugend, was viele in die Irre führt.
29
30
🧪 5. Halluzinationen
31
Ein typisches KI-Problem: Das Modell „halluziniert“ – d. h. es erfindet
32
Dinge. Zum Beispiel:
33
- Zitate, die es nie gab
34
- Quellen, die nicht existieren
35
- Studien, die frei erfunden sind
36
37
💡 Was tun?
38
- Fragen kritisch prüfen
39
- Zusätzliche Quellen checken
40
- Nachfragen oder den Kontext genauer beschreiben
41
42
Wenn du magst, kann ich dir auch zeigen, wie man „bessere“ Fragen
43
stellt, um die Fehlerquote zu senken – oder magst du ein Beispiel für
44
eine falsche Antwort und warum sie passiert ist?
ChatGPT tritt hier bei Weitem nicht so selbstbewusst auf, wie es sonst
meist der Fall ist (s. Punkt 4).
Selbsterkenntnis ist bekanntlich der erste Schritt zur Besserung.
Vielleicht gelingt es ChatGPT ja irgendwann mal, unsichere Antworten mit
einem "Vermutlich", "Vielleicht", "Möglicherweise" oder "Es ist nicht
auszuschließen, dass" beginnen zu lassen und auf bewusstseinserweiternde
digitale Substanzen zu verzichten ;-)
Die gezeigte Schaltung könnte Bestandteil eines Einstellungs-Tests sein.
"Erklären sie die Schaltung". Wenn er die Verarschung nicht sofort
erkennt, hat er in der Firma nichts zu suchen.
Der Beitrag zeigt mal wieder eindrucksvoll warum KI noch keine
Entwickler ersetzten kann.
Hallo
Ich verwende ChatGPT sehr selten, weil ich keine Hinweise auf Quellen
bekomme. Perplexity verwende ich dagegen meistens anstelle einer
Suchmaschine. Die Aussagen kann ich anhand der zitierten Quellen
verifizieren. Dabei muss ich auch schon mal feststellen, dass falsch
interpretiert wurde. Im Großen und Ganzen bin ich mit Perplexity
schneller als mit einer Suchmaschine oder im Buch nachschlagen.
Ich bin im Studium darauf trainiert worden, Aussagen auch
wissenschaftliche Aussagen kritisch zu hinterfragen. Außerdem bin ich
von Joseph Weizenbaum geprägt worden, der von der künstlichen
Intelligensia sprach. Geprägt hat mich aber das Projekt "Maschinisierung
von Kopfarbeit", das das behandelte, was heute Digitalisierung heißt.
Wenn ich mir die heutige künstliche Intelligensia ansehe, kann ich deren
Naivität nicht nachvollziehen. Beispiel: Weizenbaums Eliza wird immer
wieder als das erste KI-Programm zitiert. Weizenbaum hat Eliza
geschrieben, um nachzuweisen, wie dumm KI ist. Aber er hat nicht mit der
Dummheit, der Anwender gerechnet, die Eliza für gut und nützlich
hielten.
Die modernen Sprachmodelle sind natürlich komplexer als Eliza, aber sie
sind ein Werkzeug, dass wir nutzen können und natürlich hinterfragen
müssen und hinterfragen können müssen.
Ich verwende Perplexity fast ausschließlich im technischen Kontext
(Software und Elektronik). Und manchmal aus Faulheit. Also meine Frage:
Ich benötige eine einfache Schaltung für einen AGC-Verstärker für Audio.
Perplexity liefert ein paar Hinweise, wie es geht und Referenzen auf
Schaltungen im Internet. Ich hatte gehört, dass ChatGPT auch Schaltungen
generieren kann und hatte damit meinen Spaß.
In diesem Sinne: Frohe Ostern
Heiner
Yalu X. schrieb:> wenn hier im Forum – wie in letzter Zeit des> Öfteren beobachtet – kilometerlanges ChatGPT-Gesülze gepostet wird
braucht man aber um mal wieder sein + Konto zu füllen! (hier 4+
geerntet)
(natürlich nicht am ChatGPT-Gesülze)
falls es User mit Verständnisschwierigkeiten gibt (omg)
> Im Rückkopplungszweig (Feedback) des OpAmps sitzt ein FET (Transistor),> der den Widerstand ändern kann.> Das generierte Schaltbild ist KI-AGC-Verstärker-1.png
Das angehangene Bild passt nicht zur Beshreibung, die negative
Versorgung ist nicht der Rückkoppekzweig.
Bradward B. schrieb:> Das angehangene Bild passt nicht zur Beshreibung, die negative> Versorgung ist nicht der Rückkoppekzweig.
Na, du bist ja ein Schnellmerker. Die Schaltung enthält noch weitere
Fehler. Vielleicht hast du Lust darauf, alle zu suchen.
Sherlock 🕵🏽♂️ schrieb:> Die Schaltung enthält noch weitere Fehler. Vielleicht hast du Lust> darauf, alle zu suchen.
Ich werde mich heute nach dem Kuchenbuffet mal gestärkt an die Arbeit
ran machen und eine Schaltung aufmalen, die wirklich funktioniert.
sidechain-ducking heißt es wohl, oder sidechain-compression. ich glaube
gelesen zu haben das geht mit transistor in basis-schaltung,
möglicherweise dabei auch noch invers. meine unscharfe erinnerung
Die vom TO gezeigte Schaltung sollte mit einem passenden, von der KI
produzierten OP-Amp einwandfrei funktionieren. Ein Standard OPV ist hier
jedoch fehl am Platze.
Otto K. schrieb:> meine AGC-Schaltung, die eigentlich auch funktionieren sollte.
Hast du den Plan auch von der KI erzeugen lassen?
Denn so wie da hingemalt funktioniert die bestenfalls völlig zufällig
und abhängig von der Audioquelle, weil der bipolare Transistor am
Eingang keinen DC-Arbeitspunkt hat und mit negativen Eingangsspanungen
(wird ja wohl hoffentlich ein Wechselspannungs-Audiosignal sein...) so
sicher nicht zurecht kommt.
Fazit: auch das ist so eine Schaltung zum Test eines Bewerbers für die
ausgeschriebene Elektronikentwicklerstelle...
Yalu X. schrieb:> Selbsterkenntnis ist bekanntlich der erste Schritt zur Besserung.
Die Entwicklung dieses Moduls wurde von der Trump Administration sofort
gestoppt.
SCNR
> sidechain-ducking heißt es wohl, oder sidechain-compression.
Hm. das ist wohl eine Anwendung einer AGC-Schaltung in der
Mehrkanal-Audio-Technik - ehemals die großen Mischpulte in der Studio-
oder Konzert-Technik. Wird Kanal A "laut", wird Kanal B (ggf. auch
weitere) automatisch abgedämpft. So, wenn sich beim Konzert die
einzelnen Band-Mitglieder über ein Solo-Einwurf vorgestellen:
"Ladies and Gentleman, on the Trombone - Commander
William-Teeee-Riiiiker ... "
* https://www.youtube.com/watch?v=y49utiOO2pY - Cmdr. William T. Riker
* https://emastered.com/de/blog/sidechain-compression Dt. Beschreibung
Sidechain Kompression
> ich glaube> gelesen zu haben das geht mit transistor in basis-schaltung,> möglicherweise dabei auch noch invers.
Viele Wege führen nach Rom.
Frei nach Karl Lagerfeld: "Wer ChatGPT glaubt, hat die Kontrolle über
sein Leben verloren."
Mir fällt da gleich der Thread ein, wo jubelnde User die von ihnen
gewünschte Lösung bekamen, die aber ebenfalls jeweils grundlegend falsch
war. Und der Grund ist der dort beschriebene:
- Beitrag "Re: ChatGPT und Spannungsteiler."
Das Ergebnis ergibt sich als Mehrheitsentscheid aller im Netz gefundenen
Lösungen für diese Aufgabe. Weil aber heute jeder Anfänger seine
allererste Murksschaltung oder Murkssoftware im Netz veröffentlicht, ist
es eben sehr wahrscheinlich, eine vermurkste Lösung zu bekommen.
Deshalb bin ich mir ziemlich sicher, was herauskommen wird, wenn man den
Antwortautomaten nach so was simplen wie eine H-Brücke für eine
Motoransteuerung fragt...
Bradward B. schrieb:> sondern über mehrere "Iterationen" brauchbare Vorschlage behalten und> "Unsinn" verkleinerm/wegwerfen.
Also genau wie dort im
Beitrag "Re: ChatGPT und Spannungsteiler." schon angemerkt:
"Man muss die Lösung schon im Voraus kennen, um entsprechend nachbohren
zu können"
>> sondern über mehrere "Iterationen" brauchbare Vorschlage behalten und>> "Unsinn" verkleinerm/wegwerfen.> "Man muss die Lösung schon im Voraus kennen, um entsprechend nachbohren> zu können"
Njein, man muß die erwartbaren Probleme kennen/abschätzen können, um
um entsprechend nachbohren zu können.