@Negev Das sind sehr interessante Fragen...
ChatGPT "rechnet" wie Grundschüler im Erstkontakt (zumindest war das noch in meiner Generation in den 60ern und 70ern so) das kleine und große Einmaleins lernen (oder lernten?).
Wir mussten zuhause auf der Treppe sitzen und dann das auswendig gelernte Einmaleins rauf und runter wiederholen, bis es saß.
Dann hätte uns jemand im Halbschlaf "7x6" zurufen können und wir hätten mit "42" geantwortet. Das war dann nicht gerechnet. Das Muster und das zugehörige Ergebnis "saß" einfach und wurde vorgebracht.
Unter den Abermillionen Dokumenten, die ChatGPT zum Fraß vorgeworfen wurden, waren sicher etliche, in denen eine Multiplikation von "7x6" und das zugehörige Ergebnis vorkamen. Entsprechend werden die bei seinem "Denken" als Ergebnisse mit der höchsten Trefferwahrscheinlichkeit ermittelt und wiedergegeben.
"Warum kann die KI-Instanz dann nicht "26374739 * 2187463" fehlerfrei ausrechnen (oder bringt dann ein völlig falsches Ergebnis hervor) und sollte man ihr dann nicht jede Intelligenz absprechen? Das kann ja schließlich jeder Taschenrechner!"
Gegenfrage: Wenn ich in den nächsten Supermarkt gehe und beliebige Leute dort frage, wer diese Rechnung (ohne Taschenrechner) fehlerfrei hinbekommt und dann vielleicht sogar noch ohne Papier und Stift... Wieviele würde dabei versagen und müsste man denen dann nicht auch jede Intelligenz absprechen?"
ChatGPT versagt, weil es keine hinreichende Trefferquote von "26374739 * 2187463" in seiner Wissensbasis hat.
Möglicherweise findet ChatGPT aber sogar ein Vorkommen der Zahlen (26374739 und 2187463), aber in einem völlig anderen Kontext (nicht in einer Multiplikation) und dabei steht noch eine dritte Zahl (z.B. 374834). Dann wird sie diese bestmögliche Alternative, also diese dritte Zahl ggfs. als (falsches) Ergebnis präsentieren
Auch dafür gibt es ein Gegenstück im menschlichen Denken. Als Nachhilfelehrer für Mathematik habe ich erlebt, wie Schüler im Rahmen der Bearbeitung einer Textaufgabe Wegstrecke und Geschwindigkeit multipliziert anstatt dividiert haben, um das Ergebnis zu finden. Auf meine Rückfrage warum sie das tun: "Bei den letzten beiden Aufgaben musste ich auch multiplizieren, also habe ich das probiert."
Es gibt da also durchaus Parallelen, es beginnt auch beim Menschen zunächst mit Beobachtung und Mustervergleichen, aber irgendwann setzt bei uns dann etwas ein, das wir als "Verständnis" bezeichnen. Ist das wirklich so - und selbst wenn -, kann die Maschine vielleicht durch hinreichendes Training, alleine durch Bebachten, Vergleichen und Kombinieren, ähnliche Leistungen erbringen oder brauchen wir nochmal eine ganz neue Art der KI?
Ich habe weiter oben eine ChatGPT Programmieraufgaben gestellt. Beide male ähnlich komplex, einmal in ObjectPAL, einer länger schon nicht mehr aktuellen Script-Sprache und einmal in Java, einer aktuell sehr weit verbreiteten Programmiersprache.
Das Ergebnis in ObjectPAL war ernüchternd. Es enthiel sowohl syntaktische als auch logische Fehler. Hätte das ein Mensch produziert, hätte ich geurteilt: "Der hat nur eine Ahnung von ObjectPAL und programmieren kann der gar nicht!"
Das Ergebnis in Java war ein syntaktisch fehlerfreies Programm, das auch einwandfrei funktionierte und noch dazu ordentlich dokumentiert und erläutertwurde.. Einen Menschen, der das produziert hätte, den hätte ich als recht erfahrenen und sehr sorgfältigen Java-Programmierer eingeschätzt.
Offenbar kommen, bei einer hinreichenden Breite an einschlägigem Trainingsmaterial, immer mehr an Perfektion heranreichende Ergebnisse zustande, die im Endeffekt ein Nievau erreichen, das man mit "Verständnis" verbinden würde.
Fazit: Vielleicht müssen wir auch unsere Vorstellungen von Intelligenz und Verständnis überdenken?