Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

ChatGPT, nächster Quantensprung der KI?

471 Beiträge ▪ Schlüsselwörter: KI, ChatGPT ▪ Abonnieren: Feed E-Mail

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 02:37
Wie sieht es ohne Türen aus? Mehr erfolgversprechend?
Wenn es keine Türen im Labyrinth gibt, sondern nur Gänge, dann wird die Strategie sich immer rechts oder links entlangzubewegen wahrscheinlich erfolgreicher sein. Dies ist weil, wenn man immer in dieselbe Richtung geht und nicht zurückkehrt, man früher oder später den Ausgang erreicht.
Allerdings hängt dies auch von der Größe und dem Design des Labyrinths ab. Es kann auch hier noch möglich sein, dass man in eine Endlosschlaufe gerät oder die Ausgang nicht erreicht, wenn das Labyrinth eine komplexe Struktur hat.
Es gibt immer noch keine allgemeingültige und erfolgversprechende Strategie, um ein Labyrinth ohne Türen zu durchqueren. Es ist wichtig, sich Notizen zu machen und die bisherigen Schritte zu verfolgen, um eine Backtracking zu vermeiden.
Quelle: ChatGPT


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 02:42
Gilt das für 2D und 3D Labyrinthe?
Die "immer rechts oder links halten"-Strategie, auch als "Hand-auf-der-Wand"-Methode bekannt, kann in bestimmten 2D-Labyrinthen erfolgreich sein, insbesondere in Labyrinthen mit nur einem Lösungspfad. Es kann jedoch in Labyrinthen mit mehreren Lösungen oder in verzweigten Labyrinthen zu einer Endlosschleife führen.

Ohne Türen kann es ebenfalls nicht als allgemeine erfolgversprechende Strategie angesehen werden, da es auf die spezifische Topographie des Labyrinths ankommt.

Diese Strategie kann in 3D-Labyrinthen nicht angewendet werden, da sie sich auf 2D-Labyrinthe beschränkt.
Quelle: ChatGPT


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 02:48
@snickersfan

Ah, okay.
Die Erklärung von ChatGPT ist gut und richtig, ich bezog mich da auch auf Labyrinthe ohne Türen.
Und dennoch sagt die KI: "Es ist wahrscheinlicher... ...das Ziel zu erreichen.
Hmm, es ist nicht nur wahrscheinlicher, sondern absolut. Man kommt auf "jedem" Fall aus dem Labyrinth.
Da gibt es kein "wahrscheinlicher", sondern: "Wahrscheinlichkeit = 100%".

Das mit 3D und 2D ist die gleiche Problematik, da die Höhe in dem Fall irrelevant ist.
Als ob man an der Decke laufend schneller oder langsamer aus einem Labyrinth finden würde?
Da sieht man wieder die von mir betitelte "schwammige" Erklärung einer solchen KI, warum?
Weil die KI offensichtlich nicht "gänzlich" die Problematik zu verstehen scheint, und dass obwohl die Lösung simpel und logisch erklärbar ist.


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 02:55
@Tanne

Im zweidimensionalen Labyrinth (1 Ausgang) funktioniert deine Methode nur dann nicht zuverlässig, wenn es zwei Lösungswege gibt und gleichsam mindestens eine Wandinsel. Sobald die Hand die Wandinsel berührt gerät sie in die Endlosschlafe :)


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 03:14
@Tanne

Die KI ist ein Werkzeug, wie ein Assistent. Sie versteht nicht immer gleich alles so wie man es gern hätte, aber mit etwas Konversation gelangt man zu einem Ergebnis. Wobei das Ergebnis bereits in Form einer Vermutung vorliegen sollte.
Viele Informationen muss man eigentlich verifzieren. So hat ChatGPT heute gesagt die Besatzung der Apollo-Mondfähren seien drei, es sind wohl aber immer nur zwei.
Trotzdem ist es eine Revolution, wenn etwas (ChatGPT) Texte schreiben kann, die wiederum nur mit Programmen als künstlich identifiziert werden können. Ich habe für ein Gutachten die Makro- und Mikrolage eines Objekts von ChatGPT schreiben lassen und das Ergebnis kann man 1:1 verwenden. Das hat fünf Minuten gedauert. Wenn ich es frei formuliere brauche ich mindestens die dreifache Zeit.

Es gibt jetzt auch eine Erweiterung, ich glaube für Chrome, wo die Datenbasis nicht nur bis 2021 reicht, sondern wo auch auf aktuelle Informationen aus dem Internet zugegriffen wirde.


2x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 03:23
Zitat von snickersfansnickersfan schrieb:Es gibt jetzt auch eine Erweiterung, ich glaube für Chrome, wo die Datenbasis nicht nur bis 2021 reicht, sondern wo auch auf aktuelle Informationen aus dem Internet zugegriffen wirde.
Meines Wissens nach hat die Erweiterung die gleiche Datenbank und verfügt nicht über mehr Wissen. Der Unterschied deine Suchanfragen, bei Google zum Bsp, werden je nach Einstellung auch gleichzeitig von ChatGPT beantwortet. Man hat dann ein kleines Info Fenster neben der Eingabe, siehe....


Screenshot 2023-01-29 032001Original anzeigen (0,2 MB)

Obwohl die Noten / Akkorde kein Geheimnis sind und im Internet verfügbar hat ChatGPT keinen Zugriff darauf.

Wenn ich eine für Google unsinnige Anfrage stelle sieht das bei ChatGPT dann so aus.....


Screenshot 2023-01-29 032623Original anzeigen (0,2 MB)


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 03:26
Zitat von snickersfansnickersfan schrieb:Im zweidimensionalen Labyrinth (1 Ausgang) funktioniert deine Methode nur dann nicht zuverlässig, wenn es zwei Lösungswege gibt und gleichsam mindestens eine Wandinsel. Sobald die Hand die Wandinsel berührt gerät sie in die Endlosschlafe :)
Hehe, netter Witz. :)

In einem Labyrinth mit nur einem Ausgang funktioniert meine Lösung genauso gut als wenn das Labyrinth 2 oder mehr Ausgänge hätte.
Das Resultat bleibt gleich -> 100%ige Sicherheit den Ausgang zu finden.
Auch eine Wandinsel ist in dem Falle völlig irrelevant, da man zu keinem Zeitpunkt mit dieser "Insel" in Kontakt kommt.

Egal wie du es drehst oder wendest, völlig Wurscht, entweder links immer der Wand nach, oder halt rechts entlang.
Der Endpunkt ist unweigerlich immer der Ausgang.

Die Logik ist da wie Spock sagen würde, unantastbar.
Zitat von snickersfansnickersfan schrieb:Die KI ist ein Werkzeug, wie ein Assistent.
Kann man so sehen und ist auch richtig.
Für mich ist sie im derzeitigen zivilen Bereich allerdings nicht mehr als eine spaßige Unterhaltung.
Nichts was ich ernst nehmen würde. Als Helfer sicherlich auch nutzbar, aber da muss ich zugeben dass ich sie als Helfer "immer" überprüfen würde, ob denn das Ergebnis auch tatsächlich stimmt.
Ich habe schon so oft Fehler gefunden, bei KI und auch normalen Computern, dass da mein Vertrauen gleich 0 ist.
Zitat von snickersfansnickersfan schrieb:Trotzdem ist es eine Revolution, wenn etwas (ChatGPT) Texte schreiben kann, die wiederum nur mit Programmen als künstlich identifiziert werden können.
Ja, dem kann ich nicht widersprechen, es ist tatsächlich sehr interessant wozu sie jetzt schon in der Lage ist.


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 03:33
@Tanne

Spock liegt halt manchmal auch daneben. ChatGPT prognostiziert weiter die Endlosschleife.
Ich glaube, ich muss morgen mal eins malen.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 04:03
Zitat von snickersfansnickersfan schrieb:Spock liegt halt manchmal auch daneben.
Okay, Spock ist ja auch halb Mensch. Wie Altbundeskanzler Kohl sagen würde: Muss ja irgendwoher kommen. :)
Zitat von snickersfansnickersfan schrieb:ChatGPT prognostiziert weiter die Endlosschleife.
Tja, was soll man da noch sagen, außer: Man nehme sich als Mensch mal ein Labyrinth zur Hand und überprüfe und vergleiche meine @Tanne's Aussage und die Aussage von ChatGPT.
Und sehet da und staunet, Tanne seine Aussage stimmt, weil überprüfbar und logisch, während ChatGPT's Aussage völliger Blödsinn ist.
Wie kommt die KI da eigentlich auf eine "Endlosschleife"?

Ein jeder kann sich mal ein Labyrinth anschauen und überprüfen, ob mein Lösungsweg funktioniert, und ebenfalls überprüfen wie die KI es schafft in einer Endlosschleife zu landen. Was war denn da los mit der KI?
Zitat von snickersfansnickersfan schrieb:Ich glaube, ich muss morgen mal eins malen.
Sehr gute Idee. Bitte lass uns dann an der Auswertung des "Lösungsweges" der KI teilhaben.


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 04:21
@Tanne

Deine Lösung stimmt.
Es gibt ein Labyrinth, wo die rechte Hand-Regel versagt, aber dann liegt das Ziel innerhalb des Labyrinths.


maze15

ChatGPT schlägt auch noch eine Lösung vor, aber ich denke, er meint sowas wie diesen Irrgarten von Chevening in Kent.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 09:50
@snickersfan

Na das ist ja mal nicht schlecht, man kommt zwar nicht zum "Ziel" aber dennoch zum "Ausgang".
Sehr interessant, was genau schlägt denn ChatGPT vor, bzw. wie erklärt es die KI?
Zitat von snickersfansnickersfan schrieb:ChatGPT schlägt auch noch eine Lösung vor, aber ich denke, er meint sowas wie diesen Irrgarten von Chevening in Kent.
Ja na nun lass uns doch da teilhaben, an dem Lösungsvorschlag der KI.
Es geht da jetzt nicht darum was wir oder du in der Hinsicht für Lösungen/Erklärungen haben, sondern, wie genau die KI das Problem "selbst" beschreibt. Da wäre der interessante Ansatz um zu erkennen, ob und in wie weit die KI die Problemstellung "selbst" begriffen hat.
Ohh, ich merke schon, ich freue mich jetzt schon wie ein kleines Kind auf seinen nächsten Geburtstag. :)


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 10:01
@snickersfan
Und danke, dass du da das Beispiel Labyrinth so konkret zur Darstellung gebracht hast. Ich muss da zugeben, dass ich damit etwas überfordert/überfragt war. ;)


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 11:01
Zitat von TanneTanne schrieb:Das Problem über was wir hier sprechen ist ganz simpel: Der boolsche Faktor ist für KIs unausweichlich, entweder es ist wahr oder falsch, da gibt es kein dazwischen wie etwa beim Menschen -> "könnte sein, muss aber nicht".
Das stimmt aber nicht. Siehe Fuzzylogik. Auch Künstliche Neuronale Netze kennen als Output Werte zwischen wahr und unwahr.
Und ich weiß nicht, wie oft du mit ChatGPT kommuniziert hast, aber ich hatte schon sehr oft den Fall, dass GPT keine eindeutige Antwort geben konnte und Sätze mit "könnte sein" und "muss aber nicht" gebildet hat. Und das war meistens wirklich passend für die Frage. Es hat gezeigt, dass es in der Lage ist, die Komplexität der Sachverhalte zu erfassen und deutlich zu machen, dass ein einfaches Ja oder Nein nicht möglich ist.

Wenn man dem menschlichen Geist auf die tiefste Ebene folgt sind es übrigens auch Neuronen die entweder feuern oder nicht feuern. Graduelle Zustände zwischen 1 und 0 werden dann durch die Feuerfrequenz des Neurons erreicht. Boolesche Mechanismen herrschen auch im Gehirn vor. Nur ist das alles biologisch, und die Architektur ist völlig anders als bei heutigen Computersystemen.

Die Gleichsetzung von Gehirn und Computer ist zwar ein weit verbreiteter Irrtum, aber ebenso falsch ist es, beide Systeme völlig voneinander getrennt zu sehen. Wenn man Eigenschaften synthetisch nachbildet, die auch im Gehirn vorhanden sind, hat man zwangsläufig Gemeinsamkeiten geschaffen.
Zitat von TanneTanne schrieb:Die fundamentalen Grenzen sehe ich da in der Logik, mathematisches Verständnis (damit meine ich nicht das Rechnen), Emotionen, Verständnis soziologischer Zusammenhänge, und etliches mehr.
Dies ist eine Behauptung, die bewiesen werden müsste. Man kann solche Grenzen in heutigen KI-Systemen nachweisen, aber man kann nicht nachweisen, dass es unmöglich ist, diese Grenzen zu überwinden.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 11:21
Ich finde es übrigens erstaunlich, wie ChatGPT in der Lage ist, räumlich-visuelle Aufgaben zu lösen, aber auch zu generieren. Wenn man bedenkt, dass das System nicht mit visuellen Informationen trainiert wurde, sondern alles aus sprachlichen Informationen abgeleitet wird, ist das schon erstaunlich. Ich habe ChatGPT verschiedene Aufgaben gestellt, wie z.B. dass es bestimmte Mechanismen in einem Raum verstehen muss, um als Lösung die Tür zu öffnen, und das funktioniert ganz gut. Und wenn man ChatGPT nach einem solchen Dialog auffordert, ein neues Rätsel zu beschreiben, das den bisherigen Beispielen ähnelt, dann kann es das auch und in solchen Momenten kommt auch etwas ins Spiel, was ich durchaus als Kreativität bezeichnen würde, weil es nicht einfach nur ein Mix aus meinen Beispielen ist, sondern eine prinzipielle Ableitung der Grundidee in neuer Form. Menschen sind spontan oft nicht viel kreativer, wenn sie eine ähnliche Aufgabe bekommen.
Vielen Menschen fällt es schwer, auf Anhieb eine Geschichte zu erfinden. Sie brauchen oft eine Einführung in das Thema und viele brauchen Übung. Das muss man immer bedenken, wenn man menschliche Kreativität mit GPT vergleicht. GPT ist nicht wirklich spezialisiert auf ein bestimmtes Thema und deshalb kann eine Person, die viele Jahre lang bestimmte Fähigkeiten trainiert hat, viel kreativer sein als GPT.

Manchmal hat ChatGPT aber seltsame Aussetzer die gar nicht so ins restliche Bild passen. Manchmal wirkt es berauschend intelligent und dann wieder unglaublich dumm. Aber das zeigt eben dass es immer noch ein beschränktes KI System ist. Es kann auch die Welt nicht in der Vielfalt wahrnehmen wie ein Mensch. Auch die technischen Ressourcen sind begrenzt. Und letztendlich gilt es auch festzuhalten das Menschen leider auch immer wieder mal gravierende Fehler machen. Das menschliche Gehirn kann manchmal auch ganz schön peinlich sein :D


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 12:24
Zitat von TanneTanne schrieb:Nicht viel anders? Na sage mal, möchtest du jetzt da von dir selbst behaupten dass du noch nie aus eigener "Beobachtung/Betrachtung/Nachprüfbarkeit" gelernt hast?
Glaubst du jeden Quatsch der irgendwo geschrieben steht, oder was dir andere Personen mitteilen?
Menschen können Texte/Aussagen überprüfen, nach wissenschaftlichen Methoden, eine KI eben nicht.
Thema Verifikation/Falsifizierung.
Im Vergleich wird ChatGPT allerdings deutlich mehr Wissen haben und kein Mensch in der Lage sein hier mitzuhalten.
Würde man 20 schwere Fragen einem Menschen und ChatGPT abfragen, dann kann der Mensch auch erstmal nur auf seine gespeicherten Daten zurückgreifen und die meisten Menschen werden wohl die Fragen falsch oder gar nicht beantworten, ChatGPT wird wohl gewinnen.

Deine Aussage das der Mensch "Beobachtung/Betrachtung/Nachprüfbarkeit" lernt mag zwar stimmen, nur dummerweise lernt er hier genauso falsch und natürlich nur so gut wie die Lerngrundlage. Was z.B. in der Medizin für Jahre als richtig angenommen wurde, kann sich später als falsch herausstellen. Ganz einfach weil nicht jeder Mensch hier dann in der Lage ist ein Thema tatsächlich zu studieren und hier zu seinem eigenen Ergebnis zu kommen.

Dazu ist eine KI wie ChatGPT eher mit einem Menschen zu vergleichen der in seinem Körper eingesperrt ist.
Daher meiner Meinung als KI auch nicht vollständig, es fehlen Sinne wie sehen, hören, riechen, schmecken, tasten, wie soll sich eine KI hier ein eigenes Bild machen wenn sie nicht sehen kann.

Eine KI benötigt einen Sinn zum sehen, hören und tasten mindestens um sich ein Bild zu machen. Für eine vollständige KI gehört für mich eine Verarbeitung von Bilddaten ganz oben mit dazu.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 12:25
@Tanne
Kannst du mir das Bild eines Labyrinths (ein Ausgang, zwei Lösungswege) geben, wo die Rechte-Hand-Regel versagt?

Es gibt tatsächlich bestimmte Topographien von Labyrinths, bei denen die Rechte-Hand-Regel nicht funktioniert. Ein Beispiel dafür könnte ein Labyrinth sein, das aus einer langen geraden Passage besteht, die an beiden Enden zu einer Sackgasse führt. An jedem Ende der geraden Passage befindet sich ein Ausgang. Wenn man die Rechte-Hand-Regel anwendet, wird man immer in eine der beiden Sackgassen gelangen und somit nicht den Ausgang finden.
Es gibt auch ein Labyrinth mit einer Insel in der Mitte, die von einem Weg umrundet wird, auf dem man immer wieder zurückkommt, ohne den Ausgang zu finden.
Es gibt viele Möglichkeiten, wie ein Labyrinth aufgebaut sein kann, und es gibt keine allgemeingültige Methode, die in jedem Fall funktioniert.
Quelle: Ich und ChatGPT
Nochmal zurück zum Labyrinth (zwei Lösungswege, ein Ausgang): Du behauptest (Zitat): Es gibt auch ein Labyrinth mit einer Insel in der Mitte, die von einem Weg umrundet wird, auf dem man immer wieder zurückkommt, ohne den Ausgang zu finden. Ich finde nirgends das Labyrinth. Kann es sein, dass du dich getäuscht hast?

Ja, es ist möglich, dass ich mich geirrt habe. Es gibt viele verschiedene Arten von Labyrinth-Designs und es ist leicht, sich zu verwirren, wenn man Informationen über die unterschiedlichen Typen zusammenfasst. Es tut mir leid, wenn ich dich in die Irre geführt habe.



1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 13:14
Zitat von BlicklightBlicklight schrieb:Das stimmt aber nicht. Siehe Fuzzylogik. Auch Künstliche Neuronale Netze kennen als Output Werte zwischen wahr und unwahr.
Ja, bei echten neuronalen Netzwerken geht eine Antwort nach Wahrscheinlichkeit, nicht nach boolescher Interpretation.
Wobei auch da nur 1 oder 0 herauskommt. (Kleiner - Größer - Prinzip)
Zitat von BlicklightBlicklight schrieb:Und ich weiß nicht, wie oft du mit ChatGPT kommuniziert hast, aber ich hatte schon sehr oft den Fall, dass GPT keine eindeutige Antwort geben konnte und Sätze mit "könnte sein" und "muss aber nicht" gebildet hat.
Hast du da mal ein paar Beispiele parat?
Denn, dass was ich bisher überprüft habe, lief immer auf "es ist so", oder "es ist nicht so" hinaus.
Zitat von BlicklightBlicklight schrieb:Es hat gezeigt, dass es in der Lage ist, die Komplexität der Sachverhalte zu erfassen und deutlich zu machen, dass ein einfaches Ja oder Nein nicht möglich ist.
Wie genau interpretiert die KI da, warum es nicht möglich ist, mit Ja oder Nein zu antworten?
Ich kann auch bei jeder Frage sagen, "weiß ich nicht", aber kann man das als intelligent beurteilen?
Die Begründung dafür muss doch geliefert werden um es adäquat auszuwerten.
Zitat von BlicklightBlicklight schrieb:Graduelle Zustände zwischen 1 und 0 werden dann durch die Feuerfrequenz des Neurons erreicht. Boolesche Mechanismen herrschen auch im Gehirn vor. Nur ist das alles biologisch, und die Architektur ist völlig anders als bei heutigen Computersystemen.
Wir reden hier hier nicht über Quantencomputer, sondern über eine Chat KI auf "pseudo neuronaler" Ebene basierend.
Zitat von BlicklightBlicklight schrieb:Die Gleichsetzung von Gehirn und Computer ist zwar ein weit verbreiteter Irrtum, aber ebenso falsch ist es, beide Systeme völlig voneinander getrennt zu sehen. Wenn man Eigenschaften synthetisch nachbildet, die auch im Gehirn vorhanden sind, hat man zwangsläufig Gemeinsamkeiten geschaffen.
Dem stimme ich zu.
Der Mensch wertet Informationen auch nur in "könnte sein = wahr", oder "könnte nicht sein = falsch" ein.
Unterschiede kann man da nur im Bezug auf Intelligenz/Hinterfragen/Bewusstsein festnageln.
Zitat von BlicklightBlicklight schrieb:Dies ist eine Behauptung, die bewiesen werden müsste. Man kann solche Grenzen in heutigen KI-Systemen nachweisen, aber man kann nicht nachweisen, dass es unmöglich ist, diese Grenzen zu überwinden.
Tanne schrieb:
Die fundamentalen Grenzen sehe ich da in der Logik, mathematisches Verständnis (damit meine ich nicht das Rechnen), Emotionen, Verständnis soziologischer Zusammenhänge, und etliches mehr.

Tja, da es noch nicht bewiesen ist, auch nicht nachgewiesen werden kann, ist deine Aussage in dem Punkt obsolet.
Sorry.
Zitat von BlicklightBlicklight schrieb:Wenn man bedenkt, dass das System nicht mit visuellen Informationen trainiert wurde, sondern alles aus sprachlichen Informationen abgeleitet wird, ist das schon erstaunlich. Ich habe ChatGPT verschiedene Aufgaben gestellt, wie z.B. dass es bestimmte Mechanismen in einem Raum verstehen muss, um als Lösung die Tür zu öffnen, und das funktioniert ganz gut. Und wenn man ChatGPT nach einem solchen Dialog auffordert, ein neues Rätsel zu beschreiben, das den bisherigen Beispielen ähnelt, dann kann es das auch und in solchen Momenten kommt auch etwas ins Spiel, was ich durchaus als Kreativität bezeichnen würde, weil es nicht einfach nur ein Mix aus meinen Beispielen ist, sondern eine prinzipielle Ableitung der Grundidee in neuer Form. Menschen sind spontan oft nicht viel kreativer, wenn sie eine ähnliche Aufgabe bekommen.
Ja und nun? Woher bezieht diese KI ihr Wissen, ist sie da alleine darauf gekommen oder hat sie einfach aus externen Quellen heraus interpretiert?
Kannst du da verifizieren, ob die KI "selbst" gelernt hat, oder ob sie einfach nur Ergebnisse quasi "gegoogelt" hat?
Zitat von BlicklightBlicklight schrieb:Manchmal hat ChatGPT aber seltsame Aussetzer die gar nicht so ins restliche Bild passen. Manchmal wirkt es berauschend intelligent und dann wieder unglaublich dumm. Aber das zeigt eben dass es immer noch ein beschränktes KI System ist.
Und woher kommt das deiner Meinung nach?
Zitat von BlicklightBlicklight schrieb:Es kann auch die Welt nicht in der Vielfalt wahrnehmen wie ein Mensch.
Richtig, wobei wir wieder beim Thema Intelligenz sind.
Intelligenz ist ein Zusammenspiel aus verschiedenen Faktoren, die Wahrnehmung ist dabei eine der wichtigsten Faktoren.
Aber das Zusammenspiel aller Wahrnehmungssinne sind entscheidend, eine KI, schon gar nicht ChatGPT ist dazu in der Lage.

Man kann diese KI durchaus als Wegweiser für weitere KI Entwicklungen sehen, dem widerspreche ich auch gar nicht, aber es ist "meilenweit" davon entfernt ein "Quantensprung" zu sein.
Zitat von BlicklightBlicklight schrieb:Das menschliche Gehirn kann manchmal auch ganz schön peinlich sein
Oh ja, davon kann ich selbst wahrscheinlich ein ganzes Lied von singen, aber zeigt auch: Ich bin mir dessen selbst bewusst.
Eine KI ist in der Hinsicht nicht in der Lage dazu, oder um es explizit/böse auszudrücken -> Sie ist zu doof dafür.
Zitat von tarentaren schrieb:Im Vergleich wird ChatGPT allerdings deutlich mehr Wissen haben und kein Mensch in der Lage sein hier mitzuhalten.
Würde man 20 schwere Fragen einem Menschen und ChatGPT abfragen, dann kann der Mensch auch erstmal nur auf seine gespeicherten Daten zurückgreifen und die meisten Menschen werden wohl die Fragen falsch oder gar nicht beantworten, ChatGPT wird wohl gewinnen.
Wir sind hier nicht bei "Wer wird mit Millionär", sondern bei Intelligenz und der dazugehörige Kontext dazu.
Klar kann man eine ultimative Wissensdatenbank aufbauen die dann theoretisch jede Frage beantworten kann.
Aber, wenn eine Frage eben nicht im Datenbankkatalog enthalten ist, kann eine KI nicht einmal eine Schätzung abgeben, weil sie eben nicht wie ein Mensch über tatsächliche Intelligenz verfügt.
Zitat von tarentaren schrieb:Deine Aussage das der Mensch "Beobachtung/Betrachtung/Nachprüfbarkeit" lernt mag zwar stimmen, nur dummerweise lernt er hier genauso falsch und natürlich nur so gut wie die Lerngrundlage.
Aber genau das beschreibt den Lernprozess, wenn man falsch liegt muss man schauen wieso, und vor allem verstehen wieso, nur dann kommt man zum richtigen Pfad. Eine KI probiert auf Gedeih und Verderb alle Möglichkeiten aus, der Mensch hingegen nicht.
Warum? -> Logischer Konsens -> Emotionaler Antrieb -> Selbstzweifel wieso man falsch lag, und und und.
Zitat von snickersfansnickersfan schrieb:Es gibt tatsächlich bestimmte Topographien von Labyrinths, bei denen die Rechte-Hand-Regel nicht funktioniert. Ein Beispiel dafür könnte ein Labyrinth sein, das aus einer langen geraden Passage besteht, die an beiden Enden zu einer Sackgasse führt. An jedem Ende der geraden Passage befindet sich ein Ausgang. Wenn man die Rechte-Hand-Regel anwendet, wird man immer in eine der beiden Sackgassen gelangen und somit nicht den Ausgang finden.
Okay, da muss ich ehrlich zugeben, das klingt nicht nur wie ein Widerspruch in sich, sondern scheint auch einer zu sein?
Eine gerade Passage, an jedem Ende ein Ausgang, und wenn man an der rechten Wand lang läuft kommt man nicht zum Ziel?
Kannst du mir bitte logisch erklären wie das möglich sein soll?

Auch die Tatsache dass die KI in deinem Beispiel die Wortwahl "könnte" benutzt, zeigt für mich, dass sie selbst die Aufgabenstellung/Antwort nicht realisiert hat.
Zitat von snickersfansnickersfan schrieb:Ja, es ist möglich, dass ich mich geirrt habe. Es gibt viele verschiedene Arten von Labyrinth-Designs und es ist leicht, sich zu verwirren, wenn man Informationen über die unterschiedlichen Typen zusammenfasst. Es tut mir leid, wenn ich dich in die Irre geführt habe.
Auch diese Antwort ist neu für mich.
Jetzt sagt die KI, dass es möglich ist, dass sie sich geirrt hat?
Das ist doch eine Hommage an das Labyrinth selbst, ich habe mich verirrt?


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 13:48
Zitat von TanneTanne schrieb:Hast du da mal ein paar Beispiele parat?
Denn, dass was ich bisher überprüft habe, lief immer auf "es ist so", oder "es ist nicht so" hinaus.
Ich arbeite auch viel mit ChatGPT - meist wegen meines Praktikums. Es geht also ums Programmieren und Analysieren und gerade dort gibt es gefühlt unendlich viele Variationen, wie man etwas programmieren kann. Und ich lese oft den Ausdruck "es könnte sein". Find ich auch gut.

Im übrigen muss man auch lernen, wie man Fragen stellt und das wird meiner Meinung nach zu einem Einstellungskriterium werden.
Mit einer KI im Rücken, kann man ernsthaft effizienter arbeiten...

-----

Ich hab hier nicht alles mitgelesen, um was geht es hier genau? Schreiben einige von euch ChatGPT tatsächlich eine menschenähnliche Intelligenz zu?

Das Internet ist eine Gewaltige Datenbank. Über ChatGPT erhält man einfachen Zugriff darauf. Das Herausragende ist: der Chatbot kann menschliche Sprache entschlüsseln/interpretieren und kann eine Antwort formulieren.

Aber wie gesagt, das der Chatbot Sprache "versteht" und reprozieren kann ist nichts wildes. Es ist Statistik.
Machine Learning eben.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 14:38
Zitat von NegevNegev schrieb:Es geht also ums Programmieren und Analysieren und gerade dort gibt es gefühlt unendlich viele Variationen, wie man etwas programmieren kann.
Njain, tatsächlich gebe ich dir teilweise Recht. Als Anfänger kommt einem eine (1) Programmiersprache und deren "Vielfalt" überwältigend vor. Aber man lernt schnell wo die Grenzen liegen, und dann muss man schauen wie ein Problem effizient behandelt werden kann.
Es geht ja nicht nur darum das Problem zu lösen, sondern auch darum, den Programmablauf flüssig zu gestalten.
Im Programmcode selbst geht es ferner noch darum, es möglichst lesbar zu gestalten. Wenn man, wie so oft, aus irgendwelchen Gründen einen Fehler eingebaut hat, möchte man ihn so schnell wie möglich finden um ihn zu beheben. Wer sitzt schon gerne ne halbe Stunde am Programmcode um einen Leistungsfehler im Ablauf zu finden. Und damit meine ich jetzt nicht die typischen Syntax Fehler, oder hier oder dort ein Komma oder ein anderes Zeichen vergessen zu haben, sondern die logische Ablaufprozedur eines Programms. Das kann echt nervig werden, je mehr Methoden/Funktionen ein Programm besitzt, die im Übrigen auch noch über mehrere Klassen/Dateien verteilt sind.

Und "gefühlt unendliche Variationen", nein, also wirklich, nein.
Es gibt natürlich einige Variationen bei jeder Prozedur, aber nur sehr wenige kommen zwecks Leistung/Programmflow in Frage, der Programmierer muss sich im Vorhinein Gedanken machen darüber, was soll das Programm machen, was ist wichtig und wie kann der logische Ablauf aussehen? Deshalb macht man sich entweder Notizen auf etlichen DIN A4 Blättern, oder nutzt sowas wie UML, um halt zu wissen wie das Programm aussehen soll, wie es im Ablauf funktionieren soll.
Alles andere, wie einfach drauf los programmieren ist nicht nur unprofessionell, sondern auch fahrlässig. Meiner Meinung nach.
Zitat von NegevNegev schrieb:Im übrigen muss man auch lernen, wie man Fragen stellt und das wird meiner Meinung nach zu einem Einstellungskriterium werden.
Mit einer KI im Rücken, kann man ernsthaft effizienter arbeiten...
Erster Part: Stimme ich voll und ganz zu.
Zweiter Part: Mit einer KI im Rücken verlässt man sich zu sehr auf dessen Vorschläge. ->
Es ist effizienter sich selbst mit einer Problematik auseinander zusetzen, man weiß nie was man nebenbei noch lernt.
Oder auch für andere Problemstellungen an Wissen mitnehmen kann.

Was ich damit sagen möchte ist: Es ist sinnvoller und wichtiger für sich selbst effiziente Lösungswege zu finden / aufzunehmen, als von einer KI alles "diktiert" zu bekommen. Aus Bequemlichkeit hat noch kein Programmierer effizient programmieren gelernt.
Zitat von NegevNegev schrieb:Ich hab hier nicht alles mitgelesen, um was geht es hier genau? Schreiben einige von euch ChatGPT tatsächlich eine menschenähnliche Intelligenz zu?
Nicht wirklich, aber wir alle sind schon recht beeindruckt davon, was es jetzt schon leisten kann.
Als Äquivalent zum Menschen sehen wir das Ding nicht.
Zitat von NegevNegev schrieb:Das Internet ist eine Gewaltige Datenbank. Über ChatGPT erhält man einfachen Zugriff darauf. Das Herausragende ist: der Chatbot kann menschliche Sprache entschlüsseln/interpretieren und kann eine Antwort formulieren.
Das Problem dabei ist aber, die KI wirft mit jeder erdenklichen unsinnigen Erklärung um sich, nur weil Mensch da irgendwo im Inet Nonsens hin geklatscht hat. Die KI überprüft leider nicht von selbst ob eine irgendwo hin geklatschte Information auch stimmt, das macht sie erst nachdem sie darauf hingewiesen hat. Und selbst dann, im zweiten Anlauf macht sie fast immer den selben Fehler und spuckt eine Information aus die meist fast wertlos ist.
Zitat von NegevNegev schrieb:Aber wie gesagt, das der Chatbot Sprache "versteht" und reprozieren kann ist nichts wildes. Es ist Statistik.
Machine Learning eben.
Hehe, das lasse ich mal so stehen, denn Menschen selbst verstehen ihre eigene Sprache auch nicht immer und ist nichts wildes.
Statistik im Bezug auf menschlichen Nonsens Gequatsche würde ich gerne mal sehen, das wäre wahrscheinlich f*cking mind-blowing.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 15:32
Zitat von TanneTanne schrieb:Zweiter Part: Mit einer KI im Rücken verlässt man sich zu sehr auf dessen Vorschläge. ->
Es ist effizienter sich selbst mit einer Problematik auseinander zusetzen, man weiß nie was man nebenbei noch lernt.
Sich zu sehr auf die Vorschläge zu verlassen, wäre tödlich. Aus dem genannten Grund, das die KI einfach auch Quatsch erzählen kann, weil die Datenbank, also das Internet, auch mit viel Unsinn gefüllt ist...

Hier mal eine Frage: warum ist es so schwer, die Daten "aufzubereiten"? Gibt es einen Zeitpunkt, an dem man einfach zu wenig Daten hätte? Könnte man nicht die Fähigkeit Sprache zu Interpretieren und zusammenzusetzen von der Fähigkeit trennen, Daten aus einer "unkorrumpierten" Quelle zu ziehn?

Aber wie auch die Fähigkeit, die richtigen Fragen zu stellen, man muss auch lernen, mit den Ergebnissen umzugehen. Manchmal kann eine Googlesuche eben doch noch effektiver sein. Schlussendlich auch um Aussagen zu validieren 😁.

Auch wird es immer noch erforderlich sein oder bleiben bzw. der Schwerpunkt wird sich dahin verschieben, das man ein breites Wissen aufbauen wird. Es wird wichtig sein, was möglich ist und wie etwas konzeptionell funktionieren kann.


2x zitiertmelden