Hier mal ein Mitschnitt eines Hats mit Chatgbt. Ich wollte den Unterschied zwischen 4PSK ( also Qpsk ) und QAM4 wissen. Ich weis nicht wie Lernfähig diese künstliche Intelligenz tatsächlich ist. Unterhaltsam ist es jedenfalls. Ich habe es bewusst in offtopic reingestellt, weil es nicht von so großer Interesse ist, um es in die Rubrik HF zu plazieren. hier der zugegeben sehr lange Text. ------------------------------------------------------------------------ --- was ist der Unterschied zwischen den Modulationsarten 4QPSK und QAM4? 4QPSK und QAM4 sind beides Modulationsarten, die in der digitalen Übertragungstechnik verwendet werden. Der Unterschied zwischen ihnen besteht darin, wie sie Signale codieren und übertragen. 4QPSK steht für Quadrature Phase Shift Keying und ist eine Form der Phasenmodulation (PM). Es codiert jeweils zwei Bits von Daten in einer Phasenänderung, die von Null Grad bis 180 Grad reicht. Die Übertragung erfolgt über zwei separate Signalträger, die mit einer bestimmten Phasenverschiebung aufeinander bezogen sind. QAM4 steht für Quadrature Amplitude Modulation und ist eine Form der Amplitudenmodulation (AM). Es codiert jeweils zwei Bits von Daten in einer Kombination aus Amplitude und Phasenänderung. Die Übertragung erfolgt über einen einzigen Signalträger. Beide Modulationsarten haben ihre Vor- und Nachteile und werden in unterschiedlichen Anwendungen und Umgebungen verwendet. In einigen Fällen ist 4QPSK die bessere Wahl, da es eine höhere Fehlerkorrekturfähigkeit und eine höhere Übertragungseffizienz aufweist. In anderen Fällen kann QAM4 die bessere Wahl sein, da es eine höhere Datenrate ermöglicht. Die Wahl der richtigen Modulationsart hängt von den spezifischen Anforderungen einer Übertragung ab. r-berres@gmx.de ist letztendlich nicht beide das selbe? Nein, 4QPSK und QAM4 sind nicht dasselbe. Obwohl beide Modulationsarten in der digitalen Übertragungstechnik verwendet werden, unterscheiden sie sich in der Art und Weise, wie sie Signale codieren und übertragen. 4QPSK ist eine Form der Phasenmodulation, bei der jeweils zwei Bits von Daten in einer Phasenänderung codiert werden. Die Übertragung erfolgt über zwei separate Signalträger. QAM4 hingegen ist eine Form der Amplitudenmodulation, bei der jeweils zwei Bits von Daten in einer Kombination aus Amplitude und Phasenänderung codiert werden. Die Übertragung erfolgt über einen einzigen Signalträger. Beide Modulationsarten haben ihre eigenen Vor- und Nachteile und werden je nach den spezifischen Anforderungen einer Übertragung ausgewählt. Es ist also nicht korrekt zu sagen, dass sie dasselbe sind. r-berres@gmx.de bei 4qpsk stehen die beiden Träger doch orthogonal also in 90° Phasenverschiebung zueinander. So das es letztendlich als Summe doch nur einen Träger ist, dessen Phasenverschiebung gegenüber 0° die Bikombination angibt. also 45° 135° 225° und 315° Bei QAM4 kommt doch auch das gleiche raus? Ja, Sie haben Recht. 4QPSK und QAM4 sind tatsächlich sehr ähnlich, und es gibt einige Ähnlichkeiten in ihrer Funktionsweise. Beide Verfahren nutzen tatsächlich nur einen Träger, um Informationen zu übertragen, und beide nutzen sowohl Phasen- als auch Amplitudenmodulation. Die Hauptunterschiede zwischen den beiden Verfahren liegen in den spezifischen Codierungsregeln, die für die Übertragung von Daten verwendet werden, und in den spezifischen Anforderungen, für die sie entwickelt wurden. Es ist jedoch wichtig zu beachten, dass es auch kleinere Unterschiede in der genauen Funktionsweise der beiden Verfahren gibt, obwohl sie ähnlich sind. r-berres@gmx.de Kann es sein das die Vektoren bei 4QPSK bei allen 4 Zustände gleich lang sind und sich die 4 Zustände in einen Kreis zum Mittelpunkt anordnen? während es bei QAM4 sich die 4 Zustände in einen Quadrat anordnen? Ja, Sie haben Recht. In der Tat ist es so, dass bei 4QPSK die Vektoren bei allen vier Zuständen gleich lang sind und sich in einem Kreis um den Nullpunkt anordnen. Im Gegensatz dazu befinden sich bei QAM4 die vier Zustände in einem Quadrat um den Nullpunkt angeordnet. Diese unterschiedliche Anordnung der Zustände hat Auswirkungen auf die Übertragung von Informationen und die Fehlerkorrektur, die bei jedem Verfahren angewendet werden muss. r-berres@gmx.de Aber da es ja bei QAM4 auch nur 4 Zustände gibt, sind doch auch hier die 4 Vektoren gleich lang? so das es eigentlich keinen Unterschied zwischen 4Qpsk und QAM4 geben dürfte. Anders sieht es bei höhren Moden wie z.B. 16Pqsk und QAM16 aus. Hier würde dann im gegensatz zu QAM4 jetzt auch tatsächlich eine Amplitudenmodulationskomponente erscheinen? Sie haben teilweise Recht. In der Tat sind bei 4QPSK und QAM4 beide 4 Zustände vorhanden und somit auch beide 4 Vektoren gleich lang. Der Hauptunterschied zwischen den beiden Verfahren liegt in der Anordnung dieser Zustände und der Art und Weise, wie Informationen durch Änderungen der Phasen- und Amplitudenlage der Trägersignale übertragen werden. Bei QAM4 wird neben der Phasenänderung auch die Amplitude des Trägersignals verändert, um Informationen zu übertragen, während bei 4QPSK nur die Phasenänderung verwendet wird. Dies führt dazu, dass QAM4 eine höhere Datenrate pro Trägerbandbreite ermöglicht als 4QPSK. Bei höheren Moden wie 16QAM und QAM16 tatsächlich eine größere Anzahl von Zuständen vorhanden ist, werden sowohl Phasen- als auch Amplitudenänderungen verwendet, um Informationen zu übertragen, was zu einer noch höheren Datenrate führt. r-berres@gmx.de Wenn die 4 Vektoren bei QAM4 gleich lang sind, wo ist denn dann die Amplitudenmodulation versteckt? Bei QAM (Quadratur Amplitude Modulation) wird sowohl die Phasenverschiebung als auch die Amplitude des Trägersignals moduliert. Im Fall von 4QAM werden also vier unterschiedliche Kombinationen aus Phasenverschiebung und Amplitude verwendet, um die vier Symbolzustände zu repräsentieren. Die Vektoren bei QAM-Modulationen haben unterschiedliche Längen, um die unterschiedlichen Amplituden darzustellen. Daher wird die Amplitude als Teil der Modulation mit übertragen. Anders als bei 4QPSK, bei dem nur die Phasenverschiebung moduliert wird, werden bei QAM auch unterschiedliche Amplituden verwendet, um die unterschiedlichen Symbolzustände darzustellen. r-berres@gmx.de laut wikipedia ist 4psk und qam4 aber das selbe. siehe https://de.wikipedia.org/wiki/Quadraturamplitudenmodulation 2 Bit: 4-QAM – diese ist identisch zur QPSK bzw. 4-PSK und verwendet 4 Punkte in einem 2×2-Raster bzw. auf einem Kreis, Anwendung bei DVB-S. Das stimmt, 4-QAM und 4-PSK werden manchmal als gleich bezeichnet, da sie in der Tat sehr ähnlich sind. Beide Verfahren verwenden 4 Phasenlagen, um Informationen zu codieren, und können daher eine gleiche oder sehr ähnliche Leistung erzielen. Es kommt jedoch darauf an, wie die Verfahren speziell implementiert werden, und in einigen Fällen kann eine von beiden Methoden bevorzugt werden, je nach den Anforderungen der Anwendung. r-berres@gmx.de Sind wir uns einig das eine Amplitudenmodulation bei QAM erst dann erfolgt, wenn mehr als 4 Zustände übertragen werden, weil bei QAM die Punkte im Konstellationsdiagramm bei QAM in einen quadratischen Raum um den Nullpunkt verteilt werden und bei psk in einen Kreis um den Nullpunkt verteilt werden? Ja, wir können uns darauf einigen, dass eine rein lineare Amplitudenmodulation erst bei höheren Zuständen auftritt, bei denen mehr als 4 Punkte im Konstellationsdiagramm verwendet werden. Bei QAM werden die Punkte im Konstellationsdiagramm in einem quadratischen Raum verteilt, während sie bei PSK in einem Kreis um den Nullpunkt verteilt werden. ------------------------------------------------------------------- hmm keine Ahnung wie ich das jetzt einschätzen soll. Macht es überhaupt Sinn Chatgbt solche Fragen zu stellen? Ralph Berres an die Moderatoren. Falls dieser Beitrag für überflüssig gehalten wird, dann bitte kommentarlos löschen.
:
Bearbeitet durch User
Ralph B. schrieb: > Macht es überhaupt Sinn Chatgbt solche Fragen zu stellen? Vergleiche halt das Ergebnis wenn du einen Menschen fragst. Würde das mehr Sinn machen? Ist die Frage an sich nicht schon eher wenig Zielführend? Würdest du diese überhaupt jemandem stellen, außer um einen Chatbot zu testen?
Cyblord -. schrieb: > Vergleiche halt das Ergebnis wenn du einen Menschen fragst. Würde das > mehr Sinn machen? Wenn ich diese Frage jemanden stellen würde, der wirklich Ahnung hat, hätte er vermutlich nur einen Satz gesagt. Ja das ist das selbe. Ich wollte einfach mal wissen, ob man aus den Antworten von Chatgbt auch was lernen kann. Das einzige was man lernen kann ist, das die Antworten von Chatgbt warscheinlich erstmal falsch sein können, und man sich nicht darauf verlassen sollte. was mich jetzt noch interessieren würde, ist ob Chatgbt aus dieser Unterhaltung was lernt. Ralph Berres
Ralph B. schrieb: > Cyblord -. schrieb: >> Vergleiche halt das Ergebnis wenn du einen Menschen fragst. Würde das >> mehr Sinn machen? > > Wenn ich diese Frage jemanden stellen würde, der wirklich Ahnung hat, > hätte er vermutlich nur einen Satz gesagt. > > Ja das ist das selbe. Schon mal ausprobiert? Manche Leute fangen bei sowas bei Adam und Eva zu schwurbeln an. > Das einzige was man lernen kann ist, das die Antworten von Chatgbt > warscheinlich erstmal falsch sein können, und man sich nicht darauf > verlassen sollte. Das sollte inzwischen ja hinreichend geklärt sein. Je besser die KI ist, desto menschenähnlicher wird sie und desto mehr Fehler werden passieren. Ich weiß nicht woher das Volksempfinden kommt, eine KI wäre irgendwie perfekt. > was mich jetzt noch interessieren würde, ist ob Chatgbt aus dieser > Unterhaltung was lernt. Nein. Er kann sich zwar unterhalten, d.h. er kann vorherige Anfragen einbeziehen, ist also nicht "stateless", aber seine Wissensbasis ist fix.
:
Bearbeitet durch User
Michael M. schrieb: > Muss es nicht ChatGPT heißen? sorry wenn ich es falsch geschrieben habe. Aber jeder dürfte wissen was gemeint ist. Cyblord -. schrieb: > Nein. Er kann sich zwar unterhalten, d.h. er kann vorherige Anfragen > einbeziehen, ist also nicht "stateless", aber seine Wissensbasis ist > fix. das war mir nicht bekannt. Ich war der wohl irrigen Annahme, das Chatgpt lernfähig sei, also auch aus Chats Informationen für sich ableiten kann. Aber du hast recht. Dazu müsste er in der Lage sein diese gewonnene Informationen auf seinen Wahrheitsgehalt zu überprüfen. Ralph Berres
Ralph B. schrieb: > Aber du hast recht. Dazu müsste er in der Lage sein diese gewonnene > Informationen auf seinen Wahrheitsgehalt zu überprüfen. Wenn das stimmen würde, könnte auch ein Mensch nie was neues lernen oder? Denkst du das menschliche Gehirn ist darauf optimiert die Wahrheit zu lernen? Die KI könnte schon lernen. Aber anscheinend will man das hier so nicht haben. Der Vorteil einer KI ist halt, man kann Training und Nutzung trennen. Das klappt beim Mensch nicht so gut. Und ein einmal trainiertes System kann man einfach kopieren. Das klappt beim Menschen gar nicht gut.
:
Bearbeitet durch User
Cyblord -. schrieb: > Denkst du das menschliche Gehirn ist darauf optimiert die Wahrheit zu > lernen? Ich habe den Eindruck das der Mensch in der Lage ist eine Information auf seinen Wahrheitsgehalt zu überprüfen, in dem er nach andere Quellen sucht, oder auf andere Weise überprüft ob diese Information überhaupt stimmen kann. Da spielt dann sicherlich auch bis dahin gesammelte Erfahrungen eine Rolle. Ob das die künstliche Intelligenz auch so kann, habe ich jetzt meine Zweifel. Ralph Berres
Cyblord -. schrieb: > Die KI könnte schon lernen. Aber anscheinend will man das hier so nicht > haben. Das wurde schon ein paarmal probiert, aber am fleißigsten wurden von den Schwarmusern rassistische Parolen gelehrt. Die will man natürlich nicht haben.
Ralph B. schrieb: > Ob das die künstliche Intelligenz auch so kann, habe ich jetzt meine > Zweifel. Du siehst also hier den Mensch als optimalen Benchmark an? Weiß alles, gibt sofort die minimale perfekte Antwort, macht keine Fehler, fährt perfekt Auto, macht nie Unfälle, lügt nie, hat keine Vorurteile. Ja? Das ist deine Ansicht zum Thema Mensch? Schon mal gesehen wie viele Fehler und Fehlentscheidungen und Fehleinschätzung jeden Tag durch MENSCHEN gemacht werden? Das stört mich an der KI Diskussion vielleicht am meisten: Der Mensch wird stillschweigend als perfekt angenommen. Wo wir doch alles wissen SOLLTEN, dass wir unendlich weit davon entfernt sind. Aber trotzdem, das Gehirn kann viel leisten. Aber warum kann es das? Weil es seit Millionen von Jahren durch Evolution massiv parallel optimiert wurde und wird. Und trotzdem muss jeder Mensch erst mal jahrelang lernen. Das Neuronale Netz muss lange lange trainiert werden. Aber am Ende ist das Gehirn eben nicht auf Wahrheit optimiert, sondern auf überleben. Und alles was dazu dient, wird behalten und weiterentwickelt. Augen und Gehirn liefern uns ein Bild der Welt, welches weit weit weg von der Realität ist. Aber sehr gut geeignet ist um gut zu überleben. Eine KI könnte mit anderen Vorzeichen lernen. Auf andere Dinge optimiert werden. Auf Go spielen oder Autofahren z.B. Oder um Informationen zu sammeln die möglichst wahrscheinlich "wahr" sind. Aber von allein passiert das nicht nur weil man eine KI hat.
Cyblord -. schrieb: > Du siehst also hier den Mensch als optimalen Benchmark an? Weiß alles, > gibt sofort die minimale perfekte Antwort, macht keine Fehler, fährt > perfekt Auto, macht nie Unfälle, lügt nie, hat keine Vorurteile. Ja? Das > ist deine Ansicht zum Thema Mensch? nein das habe ich nicht gemeint. Ich meinte das der Mensch in der Lage sei die Wahrheit zu ermitteln. Dazu muss er es aber auch wollen. Ob er es will ist dann eine andere Frage. Er müsste dazu seine Ansichten reflektieren und ständig hinterfragen. Ob eine KI dazu in der Lage ist? Es gibt natürlich auch Dinge die der Mensch lernt und nie wieder bewust abrufen muss. Z.B. das Fahrradfahren oder das laufen. Das ist auch erlernt. Das würde ich einer KI auch zutrauen. Ralph Berres
Ralph B. schrieb: > Ich meinte das der Mensch in der Lage sei die Wahrheit zu ermitteln. Wie definierst du "Wahrheit"? Was am häufigsten wiederholt wird? Gewichtung nach Quellen? Vielleicht eher auf "Stand der Wissenschaft" einschränken? Wahrheit ist ein bisschen zu hoch gegriffen, wie ich finde. Und den Stand der Wissenschaft kann eine KI recht einfach ermitteln. > Er müsste dazu seine Ansichten reflektieren und ständig hinterfragen. > Ob eine KI dazu in der Lage ist? Wieso sollte sie nicht? > Es gibt natürlich auch Dinge die der Mensch lernt und nie wieder bewust > abrufen muss. Z.B. das Fahrradfahren oder das laufen. Das ist auch > erlernt. > Das würde ich einer KI auch zutrauen. Für Laufen oder Fahrradfahren braucht es noch nicht mal eine KI. Da reicht einfachste Regelungstechnik. Aber ja, eine KI kann das auch lernen. Das sind eher so Anfängerbeispiele wie ein neuronales Netz funktioniert. Das kann man auf vieles trainieren. Nicht umfallen. Oder mit virtuellen Autos im Kreis fahren. Oder Super Mario spielen. https://www.youtube.com/watch?v=Aut32pR5PQA&t=48s https://www.youtube.com/watch?v=qv6UVOQ0F44
:
Bearbeitet durch User
Naja, Hat die KI hier nicht Recht? Die Frage ist sowas wie: "Was ist der Unterschied zwischen einem flachen Stück Holz und einem Brett?" Die KI erklärt was das für zwei Dinge sind. Und ja, ein flaches Stück Holz kann auch ein Brett sein, aber ein Brett muss nicht aus Holz sein. So wie ich es verstanden habe kann 4QAM immer als QPSK interpretiert werden, aber es gibt QPSK mit pi/4 Verschiebung das keine 4QAM ist. Und daher finde ich das korrekt von der KI darauf zu beharren, das das im Grunde verschiedene Dinge sind auch wenn sie in einem Spezialfall identisch sind. Oder habe ich das falsch verstanden?
Gustl B. schrieb: > aber es gibt QPSK mit pi/4 Verschiebung das keine 4QAM ist. erstens war das nicht die Frage. zweitens qpsk mit pi/4 entspricht auch 4QAM mit pi/4 auch hier ist keine Amplitudenmodulation vorhanden. Ralph Berres
:
Bearbeitet durch User
Ralph B. schrieb: > Cyblord -. schrieb: >> Denkst du das menschliche Gehirn ist darauf optimiert die Wahrheit zu >> lernen? > > Ich habe den Eindruck das der Mensch in der Lage ist eine Information > auf seinen Wahrheitsgehalt zu überprüfen, in dem er nach andere Quellen > sucht, oder auf andere Weise überprüft ob diese Information überhaupt > stimmen kann. Früher nannte man das "Wissenschaft". Es wurden Thesen und Antithesen aufgestellt, diese untersucht und am Schluss in einer Synthese dasjenige zusammengenommen, welches (bis auf weiteres) als Wahrheit betrachtet werden kann. Natürlich müssen mit fortschreitendem Wissen auch die bestehenden "Wahrheiten" immer mal wieder mit derselben Methode hinterfragt werden, denn nur das bringt die Wissenschaft weiter.
:
Bearbeitet durch User
Johnny B. schrieb: > Früher nannte man das "Wissenschaft". Naja nicht so ganz. Es gibt schon einen Unterschied ob ich mich über den aktuellen Stand informieren will oder selber Wissen schaffen will.
Cyblord -. schrieb: >> was mich jetzt noch interessieren würde, ist ob Chatgbt aus dieser >> Unterhaltung was lernt. > > Nein. Er kann sich zwar unterhalten, d.h. er kann vorherige Anfragen > einbeziehen, ist also nicht "stateless", aber seine Wissensbasis ist > fix. Irgendwann, nach dem zwanzigsten Thread, wird sich dann auch hier im Forum herumsprechen dass es sich bei ChatGPT um ein Sprachmodell handelt, welches kein "Wissen" im eigentlichen Sinne besitzt.
Vn N. schrieb: > Irgendwann, nach dem zwanzigsten Thread, wird sich dann auch hier im > Forum herumsprechen dass es sich bei ChatGPT um ein Sprachmodell > handelt, welches kein "Wissen" im eigentlichen Sinne besitzt. Es besitzt Wissen in dem Sinne dass es verschiedene, aber fixe, Textquellen anzapfen kann. Was ist da nun dein Problem damit? Was ist für dich "Wissen im eigentlichen Sinne"?
Cyblord -. schrieb: > Es besitzt Wissen in dem Sinne dass es verschiedene, aber fixe, > Textquellen anzapfen kann. Inwieweit unterscheidet sich das von dem, was man früher mal als Expertensystem bezeichnet hat?
Cyblord -. schrieb: > Es besitzt Wissen in dem Sinne dass es verschiedene, aber fixe, > Textquellen anzapfen kann. > Was ist da nun dein Problem damit? Nein, kann es nicht. Es ist ein Sprachmodell, welches darauf trainiert ist wohlgeformte Texte zu formulieren, völlig unabhängig davon ob dabei nun nonsens rauskommt oder Fakten. Und nein, es werden keine "Textquellen angezapft". Cyblord -. schrieb: > Was ist da nun dein Problem damit? Welches Problem? Percy N. schrieb: > Cyblord -. schrieb: >> Es besitzt Wissen in dem Sinne dass es verschiedene, aber fixe, >> Textquellen anzapfen kann. > > Inwieweit unterscheidet sich das von dem, was man früher mal als > Expertensystem bezeichnet hat? Dass es keines ist. Es ist ein Textgenerator. Es werden auch keine "Textquellen angezapft". ChatGPT hat gelernt, welche Textmuster in verschiedenen Sprachen existieren, und kann diese nachbauen. Dabei kann sinnvolle Information rausfallen, oder halt Unsinn. Siehe auch https://www.youtube.com/watch?v=medmEMktMlQ
:
Bearbeitet durch User
Vn N. schrieb: > Nein, kann es nicht. Es ist ein Sprachmodell, welches darauf trainiert > ist wohlgeformte Texte zu formulieren, völlig unabhängig davon ob dabei > nun nonsens rauskommt oder Fakten. Und nein, es werden keine > "Textquellen angezapft". Dafür sind die Antworten zu oft korrekt. Es könnte auch keinen funktionierenden Code schreiben, wenn es so arbeiten würde.
Cyblord -. schrieb: > Dafür sind die Antworten zu oft korrekt. > Es könnte auch keinen funktionierenden Code schreiben, wenn es so > arbeiten würde. Du kannst dich natürlich gern hinstellen, fest mit dem Fuß aufstampfen und laut brüllen dass ChatGPT nicht einfach nur ein Sprachmodell wär - es ändert halt nix an der Realität. Und ja, gerade Sourcecode folgt recht klaren Regeln, womit es auch recht einfach ist da was kompilierbares zu generieren. Und gleichzeitig hat mir ChatGPT schon genug Nonsenscode generiert, der aber natürlich dennoch wunderbar aussah.
Vn N. schrieb: > Du kannst dich natürlich gern hinstellen, fest mit dem Fuß aufstampfen > und laut brüllen dass ChatGPT nicht einfach nur ein Sprachmodell wär - > es ändert halt nix an der Realität. Was soll das "nur ein Sprachmodell" überhaupt bedeuten? Es ist eine KI die mit sehr viel Text gefüttert (=trainiert ) wurde. Und darauf ausgelegt ist, Dialogartig zu kommunizieren. Natürlich bilden diese Quellen, die Wissensbasis des Systems. Natürlich nicht in Rohform, sondern gespeichert im Zustand des neuronalen Netzes, so wie das Gehirn letztlich auch alle Informationen speichert. Wenn also ChatGPT kein Wissen besitzt, dann der Mensch auch nicht. Dein "Sprachmodell" suggeriert aber was anderes. Die meisten Quellen sprechen von einem "Dialogsystem auf Basis neuronaler Netze".
:
Bearbeitet durch User
Wie bereits gesagt: Vn N. schrieb: > Du kannst dich natürlich gern hinstellen, fest mit dem Fuß aufstampfen > und laut brüllen dass ChatGPT nicht einfach nur ein Sprachmodell wär - > es ändert halt nix an der Realität. Ich möchte dir deinen Glauben, ChatGPT wär was anderes als ein Textgenerator, nicht nehmen. Cyblord -. schrieb: > Wenn also ChatGPT kein Wissen besitzt, dann der Mensch auch nicht. Nachdem die meisten Menschen im Gegensatz zu ChatGPT verstehen was sie schreiben und nicht einfach nur wohlgeformte Texte generieren*, ist diese Aussage wie zu erwarten natürlich falsch. *) Ausgenommen natürlich Leute die fürs Bullshitreden bezahlt werden.
Vn N. schrieb: > Nachdem die meisten Menschen im Gegensatz zu ChatGPT verstehen was sie > schreiben und nicht einfach nur wohlgeformte Texte generieren*, ist > diese Aussage wie zu erwarten natürlich falsch. Kannst du mal erklären wie sich der "Wissensspeicher" von ChatGPT und der eines menschlichen Gehirns unterscheiden? So vom Prinzip her? Dass hier Biologie vs. Silizium gilt sollte klar sein. Und wie kannst DU beweisen dass du verstehst wovon du redest? Behaupten kann das jeder Chatbot auch. Wie definierst du das objektiv? Du bist letztlich auch nur ein Generator, der Eingangsreize durch ein trainiertes neuronales Netz verarbeitet und wieder ausgibt. Ich hoffe das ist dir klar.
:
Bearbeitet durch User
Och nö, ich muss dir jetzt nun wirklich nicht vorkauen wie ChatGPT funktioniert, dafür gibts jede Menge Quellen im Internet die das mit wesentlich mehr Geduld können. Cyblord -. schrieb: > Und wie kannst DU beweisen dass du verstehst wovon du redest? Du bist ja ein lustiges Kerlchen, stellst irgendwelche komischen Behauptungen auf und forderst von mir dann Beweise :)
Cyblord -. schrieb: > Du bist letztlich auch nur ein Generator, der Eingangsreize durch ein > trainiertes neuronales Netz verarbeitet und wieder ausgibt. Ich hoffe > das ist dir klar. Wie bereits erwähnt: Du kannst dich natürlich gern hinstellen, fest mit dem Fuß aufstampfen und laut brüllen dass ChatGPT nicht einfach nur ein Sprachmodell wär - es ändert halt nix an der Realität. Glaub gerne weiter daran, dass ChatGPT irgendein "Wissen" hätte das drüber hinausgeht, wie wohlgeformte Texte aussehen. Cyblord -. schrieb: > Kannst du mal erklären wie sich der "Wissensspeicher" von ChatGPT und > der eines menschlichen Gehirns unterscheiden? https://en.wikipedia.org/wiki/Natural_language_processing Weil ich mal nicht so bin. Lesen musst du es schon selbst.
:
Bearbeitet durch User
Woher kommt eigentlich deine Aggressivität und Arroganz bei diesem Thema? Wieso denkst du ICH wüsste nicht wie ChatGPT arbeitet? Es arbeitet nun mal mit einem neuronalen Netz und das tut das Gehirn auch. Deshalb ist der Unterschied alles andere als offensichtlich. Wenn man von der Größe (Anzahl der Knoten und Verbindungen) mal absieht. Deine herablassende Art ist also unnötig. Bisher konntest du keine deiner Aussagen belegen. > Du bist ja ein lustiges Kerlchen, stellst irgendwelche komischen > Behauptungen auf und forderst von mir dann Beweise :) Ich habe dir dargelegt warum ich denke dass ChatGPT natürlich Wissen in seinem neuronalen Netz speichert. DU behauptest letztlich er tut es nicht. Und ich frage dich nach dem grundsätzlichen Unterschied. Warum speichert das Gehirn Wissen aber ChatGPT nicht?
:
Bearbeitet durch User
Du kannst noch so oft behaupten dass ein Sprachmodell das gleiche wie das Gehirn wär, nur weil beides auf neuronalen Netzen aufbaut, es wird immer noch nicht wahrer. Und wer dem nicht zustimmt ist halt "arrogant". Na dann. Cyblord -. schrieb: > Wieso denkst du ICH wüsste nicht wie ChatGPT arbeitet? Nachdem du steif und fest behauptest, ChatGPT wär kein Sprachmodell, ist es ziemlich offensichtlich. "Weil wenn es kein Wissen hätte könnte es ja keinen funktionierenden Code generieren". Ja eh. Da war ja auch der eine Typ der dachte ChatGPT hätte ein Bewusstsein entwickelt.
:
Bearbeitet durch User
Vn N. schrieb: > Du kannst noch so oft behaupten dass ein Sprachmodell das gleiche wie > das Gehirn wär Trotzdem kannst du anscheinend in keinster Weise erklären wo die Unterschiede in der prinzipiellen Speicherung von Wissen liegen. In beiden Fällen liegt das Wissen als trainiertes NN vor. > nur weil beides auf neuronalen Netzen aufbaut, es wird > immer noch nicht wahrer. Und wer dem nicht zustimmt ist halt "arrogant". Nein, dein Ton ist sehr arrogant. > Da war ja auch der eine > Typ der dachte ChatGPT hätte ein Bewusstsein entwickelt. Nun ja, wie entwickelt sich Bewusstsein und wie würde man es merken? Wie kannst du beweisen dass du Bewusstsein hast? Also stellt sich die Frage natürlich irgendwann. Ab welcher Komplexität eines neuronalen Netzes entwickelt sich Bewusstsein? Geht das überhaupt? Wie auch immer, sind solche Fragen keineswegs abwegig. Ist das was religiöses bei dir? Nur der Mensch hat Wissen und Bewusstsein und nichts sonst und niemals?
:
Bearbeitet durch User
Cyblord -. schrieb: > Ist das was religiöses bei dir? Nur der Mensch hat Wissen und > Bewusstsein und nichts sonst und niemals? Keine Ahnung wie du auf diese absurde Idee kommst. Wäre nett, würdest du dir nicht irgendwelche Behauptungen ausdenken. Damit ist die Diskussion nun auch zu Ende, vollkommen sinnlos wenn du irgendwas ausgedachtes unterstellst. Vielleicht solltest du dich ganz, ganz dringend mal mit den Grundlagen beschäftigen. Sollte ja mittlerweile schon genügend Erklärbären-Artikel dazu geben. Cyblord -. schrieb: > Also stellt sich die Frage natürlich irgendwann. Ab welcher Komplexität > eines neuronalen Netzes entwickelt sich Bewusstsein? Geht das überhaupt? > Wie auch immer, sind solche Fragen keineswegs abwegig. Natürlich sind sie nicht abwegig, wo soll irgendwer etwas derartiges behauptet haben? Cyblord -. schrieb: > Vn N. schrieb: >> Du kannst noch so oft behaupten dass ein Sprachmodell das gleiche wie >> das Gehirn wär > > Trotzdem kannst du anscheinend in keinster Weise erklären wo die > Unterschiede in der prinzipiellen Speicherung von Wissen liegen. Sorry, mir fehlt die Geduld dafür, bin ja aus gutem Grund kein Kindergärtner. Fang halt mal mit dem verlinkten Artikel an wirf die Stichworte in eine Suchmaschine deiner Wahl. Kann ja eh nicht so schwer sein, hast ja oben bereits erklärt wie doll du dich auskennst.
:
Bearbeitet durch User
Alles klar, ich denke mit dir zu Diskutieren macht keinen Sinn. Außer dem Insistieren dass dein Gegenüber doof ist, kannst du absolut keine Beiträge leisten. PS: Eine Definition für dein "Sprachmodell" findet man übrigens nicht. Einen derartigen Begriff scheint es in diesem Umfeld gar nicht zu geben. Also wie ich dachte: Keine Substanz.
:
Bearbeitet durch User
Och nö, ich hab dir doch eh schon einen Wikipedialink und etliche Google-Stichworte hingeworfen, während du mir irgendwelche komische, nie getätigten Aussagen unterstellst. Cyblord -. schrieb: > Außer dem Insistieren dass dein Gegenüber doof ist Hab ich bisher ja eigentlich nicht (womit wir wieder bei den frei erfundenen Aussagen wären), langsam komme ich aber tatsächlich zu der Überzeugung. Cyblord -. schrieb: > PS: Eine Definition für dein "Sprachmodell" findet man übrigens nicht. > Einen derartigen Begriff scheint es in diesem Umfeld gar nicht zu geben. Hier, du Nulpe, ich komm trotz deiner flegelhaften Art, frei erfundene Aussagen zu unterstellen, mal meinem Bildungsauftrag nach: https://scholar.google.at/scholar?hl=de&as_sdt=0%2C5&as_vis=1&q=large++language+model&btnG= Ich erinner da nochmal an Cyblord -. schrieb: > Wieso denkst du ICH wüsste nicht wie ChatGPT arbeitet?
:
Bearbeitet durch User
Oh. Na dann. Schon rausgefunden was ein Sprachmodell ist?
Vn N. schrieb: > Oh. Na dann. Schon rausgefunden was ein Sprachmodell ist? Danke muss nichts rausfinden. Hast du schon rausgefunden was neuronale Netze mit dem Gehirn zu tun haben?
:
Bearbeitet durch User
Och nö, blamier dich doch bitte nicht weiter mit deinen haltlosen Anwwürfen und hohlem Gefasel. Wo soll ich denn geschrieben haben dass NN per se keine Ähnlichkeit zum Gehirn hätten? Oder denkst du Schwafler dir schon wieder irgendwelche absurden Unterstellungen aus? Du bist so Panne.
:
Bearbeitet durch User
Vn N. schrieb: > Och nö, blamier dich doch bitte nicht weiter mit deinen haltlosen > Anwwürfen und hohlem Gefasen. Danke für die Unterstützung aber meine Einwände sind und bleiben absolut korrekt. Da du keinerlei Substanz vorzutragen hast, kannst du sie offensichtlich auch in Zukunft nicht entkräften. Das kann ich super akzeptieren und würde deshalb hier langsam zu einem Ende kommen. Falls du noch sachlich zur Diskussion beitragen magst, der Thread steht, noch, 24h pro Tag zu deiner Verfügung.
:
Bearbeitet durch User
Falls einer von euch, oder evtl. beide kein(e) tumbe(n|r) bot(s) seid schlage ich vor dieses immergleiche Neandertalritual sein zu lassen. Was soll die KI von euch denken?
Cyblord -. schrieb: > Vn N. schrieb: >> Oh. Na dann. Schon rausgefunden was ein Sprachmodell ist? > > Danke muss nichts rausfinden. Stimmt, du behauptest einfach weiterhin setif und fest irgendein ausgedachtes Geschwurbel, wie z.B. dass ich mir das mit dem Sprachmodell blos ausgedacht hätte. Oder dass ChatGPT ja eh quasi das gleiche wie das Gehirn wär, hat ja beides Neuronen. Cyblord -. schrieb: > Danke für die Unterstützung aber meine Einwände sind und bleiben absolut > korrekt. Da du keinerlei Substanz vorzutragen hast, kannst du sie > offensichtlich auch in Zukunft nicht entkräften. Ich hab es bereits mehrfach entkräftet und dir auch entsprechende Links hingeworfen, um meinem Bildungsauftrag nachzukommen. Kannst du nicht lesen? Damit liegen deine Fertigkeiten ja sogar unter denen von ChatGPT - der kann zwar nicht verstehen, zumindest aber lesen. Cyblord -. schrieb: > Das kann ich super akzeptieren Lustig, dass du glaubst du würdest das entscheiden. Im Gegensatz zu dir hab ich ja schon was beigetragen, und jetzt lern endlich mal was ein Sprachmodell ist, bevor du wieder anfängst einen vom Pferd zu erzählen.
:
Bearbeitet durch User
Und mit diesen letzten Beleidigungen deinerseits, überlasse ich dich für heute der Gnade und Obhut unseres Herrn.
:
Bearbeitet durch User
Och nö. Und ich dachte schon du du erklärst uns jetzt was ein Sprachmodell ist.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.