Blicklight schrieb:Das stimmt aber nicht. Siehe Fuzzylogik. Auch Künstliche Neuronale Netze kennen als Output Werte zwischen wahr und unwahr.
Ja, bei echten neuronalen Netzwerken geht eine Antwort nach Wahrscheinlichkeit, nicht nach boolescher Interpretation.
Wobei auch da nur 1 oder 0 herauskommt. (Kleiner - Größer - Prinzip)
Blicklight schrieb:Und ich weiß nicht, wie oft du mit ChatGPT kommuniziert hast, aber ich hatte schon sehr oft den Fall, dass GPT keine eindeutige Antwort geben konnte und Sätze mit "könnte sein" und "muss aber nicht" gebildet hat.
Hast du da mal ein paar Beispiele parat?
Denn, dass was ich bisher überprüft habe, lief immer auf "es ist so", oder "es ist nicht so" hinaus.
Blicklight schrieb:Es hat gezeigt, dass es in der Lage ist, die Komplexität der Sachverhalte zu erfassen und deutlich zu machen, dass ein einfaches Ja oder Nein nicht möglich ist.
Wie genau interpretiert die KI da, warum es nicht möglich ist, mit Ja oder Nein zu antworten?
Ich kann auch bei jeder Frage sagen, "weiß ich nicht", aber kann man das als intelligent beurteilen?
Die Begründung dafür muss doch geliefert werden um es adäquat auszuwerten.
Blicklight schrieb:Graduelle Zustände zwischen 1 und 0 werden dann durch die Feuerfrequenz des Neurons erreicht. Boolesche Mechanismen herrschen auch im Gehirn vor. Nur ist das alles biologisch, und die Architektur ist völlig anders als bei heutigen Computersystemen.
Wir reden hier hier nicht über Quantencomputer, sondern über eine Chat KI auf "pseudo neuronaler" Ebene basierend.
Blicklight schrieb:Die Gleichsetzung von Gehirn und Computer ist zwar ein weit verbreiteter Irrtum, aber ebenso falsch ist es, beide Systeme völlig voneinander getrennt zu sehen. Wenn man Eigenschaften synthetisch nachbildet, die auch im Gehirn vorhanden sind, hat man zwangsläufig Gemeinsamkeiten geschaffen.
Dem stimme ich zu.
Der Mensch wertet Informationen auch nur in "könnte sein = wahr", oder "könnte nicht sein = falsch" ein.
Unterschiede kann man da nur im Bezug auf Intelligenz/Hinterfragen/Bewusstsein festnageln.
Blicklight schrieb:Dies ist eine Behauptung, die bewiesen werden müsste. Man kann solche Grenzen in heutigen KI-Systemen nachweisen, aber man kann nicht nachweisen, dass es unmöglich ist, diese Grenzen zu überwinden.
Tanne schrieb:
Die fundamentalen Grenzen sehe ich da in der Logik, mathematisches Verständnis (damit meine ich nicht das Rechnen), Emotionen, Verständnis soziologischer Zusammenhänge, und etliches mehr.
Tja, da es noch nicht bewiesen ist, auch nicht nachgewiesen werden kann, ist deine Aussage in dem Punkt obsolet.
Sorry.
Blicklight schrieb:Wenn man bedenkt, dass das System nicht mit visuellen Informationen trainiert wurde, sondern alles aus sprachlichen Informationen abgeleitet wird, ist das schon erstaunlich. Ich habe ChatGPT verschiedene Aufgaben gestellt, wie z.B. dass es bestimmte Mechanismen in einem Raum verstehen muss, um als Lösung die Tür zu öffnen, und das funktioniert ganz gut. Und wenn man ChatGPT nach einem solchen Dialog auffordert, ein neues Rätsel zu beschreiben, das den bisherigen Beispielen ähnelt, dann kann es das auch und in solchen Momenten kommt auch etwas ins Spiel, was ich durchaus als Kreativität bezeichnen würde, weil es nicht einfach nur ein Mix aus meinen Beispielen ist, sondern eine prinzipielle Ableitung der Grundidee in neuer Form. Menschen sind spontan oft nicht viel kreativer, wenn sie eine ähnliche Aufgabe bekommen.
Ja und nun? Woher bezieht diese KI ihr Wissen, ist sie da alleine darauf gekommen oder hat sie einfach aus externen Quellen heraus interpretiert?
Kannst du da verifizieren, ob die KI "selbst" gelernt hat, oder ob sie einfach nur Ergebnisse quasi "gegoogelt" hat?
Blicklight schrieb:Manchmal hat ChatGPT aber seltsame Aussetzer die gar nicht so ins restliche Bild passen. Manchmal wirkt es berauschend intelligent und dann wieder unglaublich dumm. Aber das zeigt eben dass es immer noch ein beschränktes KI System ist.
Und woher kommt das deiner Meinung nach?
Blicklight schrieb:Es kann auch die Welt nicht in der Vielfalt wahrnehmen wie ein Mensch.
Richtig, wobei wir wieder beim Thema Intelligenz sind.
Intelligenz ist ein Zusammenspiel aus verschiedenen Faktoren, die Wahrnehmung ist dabei eine der wichtigsten Faktoren.
Aber das Zusammenspiel aller Wahrnehmungssinne sind entscheidend, eine KI, schon gar nicht ChatGPT ist dazu in der Lage.
Man kann diese KI durchaus als Wegweiser für weitere KI Entwicklungen sehen, dem widerspreche ich auch gar nicht, aber es ist "meilenweit" davon entfernt ein "Quantensprung" zu sein.
Blicklight schrieb:Das menschliche Gehirn kann manchmal auch ganz schön peinlich sein
Oh ja, davon kann ich selbst wahrscheinlich ein ganzes Lied von singen, aber zeigt auch: Ich bin mir dessen selbst bewusst.
Eine KI ist in der Hinsicht nicht in der Lage dazu, oder um es explizit/böse auszudrücken -> Sie ist zu doof dafür.
taren schrieb:Im Vergleich wird ChatGPT allerdings deutlich mehr Wissen haben und kein Mensch in der Lage sein hier mitzuhalten.
Würde man 20 schwere Fragen einem Menschen und ChatGPT abfragen, dann kann der Mensch auch erstmal nur auf seine gespeicherten Daten zurückgreifen und die meisten Menschen werden wohl die Fragen falsch oder gar nicht beantworten, ChatGPT wird wohl gewinnen.
Wir sind hier nicht bei "Wer wird mit Millionär", sondern bei Intelligenz und der dazugehörige Kontext dazu.
Klar kann man eine ultimative Wissensdatenbank aufbauen die dann theoretisch jede Frage beantworten kann.
Aber, wenn eine Frage eben nicht im Datenbankkatalog enthalten ist, kann eine KI nicht einmal eine Schätzung abgeben, weil sie eben nicht wie ein Mensch über tatsächliche Intelligenz verfügt.
taren schrieb:Deine Aussage das der Mensch "Beobachtung/Betrachtung/Nachprüfbarkeit" lernt mag zwar stimmen, nur dummerweise lernt er hier genauso falsch und natürlich nur so gut wie die Lerngrundlage.
Aber genau das beschreibt den Lernprozess, wenn man falsch liegt muss man schauen wieso, und vor allem verstehen wieso, nur dann kommt man zum richtigen Pfad. Eine KI probiert auf Gedeih und Verderb alle Möglichkeiten aus, der Mensch hingegen nicht.
Warum? -> Logischer Konsens -> Emotionaler Antrieb -> Selbstzweifel wieso man falsch lag, und und und.
snickersfan schrieb:Es gibt tatsächlich bestimmte Topographien von Labyrinths, bei denen die Rechte-Hand-Regel nicht funktioniert. Ein Beispiel dafür könnte ein Labyrinth sein, das aus einer langen geraden Passage besteht, die an beiden Enden zu einer Sackgasse führt. An jedem Ende der geraden Passage befindet sich ein Ausgang. Wenn man die Rechte-Hand-Regel anwendet, wird man immer in eine der beiden Sackgassen gelangen und somit nicht den Ausgang finden.
Okay, da muss ich ehrlich zugeben, das klingt nicht nur wie ein Widerspruch in sich, sondern scheint auch einer zu sein?
Eine gerade Passage, an jedem Ende ein Ausgang, und wenn man an der rechten Wand lang läuft kommt man nicht zum Ziel?
Kannst du mir bitte logisch erklären wie das möglich sein soll?
Auch die Tatsache dass die KI in deinem Beispiel die Wortwahl "könnte" benutzt, zeigt für mich, dass sie selbst die Aufgabenstellung/Antwort nicht realisiert hat.
snickersfan schrieb:Ja, es ist möglich, dass ich mich geirrt habe. Es gibt viele verschiedene Arten von Labyrinth-Designs und es ist leicht, sich zu verwirren, wenn man Informationen über die unterschiedlichen Typen zusammenfasst. Es tut mir leid, wenn ich dich in die Irre geführt habe.
Auch diese Antwort ist neu für mich.
Jetzt sagt die KI, dass es möglich ist, dass sie sich geirrt hat?
Das ist doch eine Hommage an das Labyrinth selbst, ich habe mich verirrt?