Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

ChatGPT, nächster Quantensprung der KI?

471 Beiträge ▪ Schlüsselwörter: KI, ChatGPT ▪ Abonnieren: Feed E-Mail

ChatGPT, nächster Quantensprung der KI?

27.01.2023 um 18:07
Zitat von Gucky87Gucky87 schrieb:Welche sog. KI erstellt denn Texte, Bilder, etc, aus dem Nichts, also ohne jegliches Grundwissen?
Woher kommt dises? Vom Menschen.
Da ist aber kein Unterschied zum Menschen, der Mensch ist heute nur in der Lage eine Motor zu konstruieren weil vor ihm andere Menschen dies sich erarbeitet haben und dieses Wissen übermittelt haben. Ansonsten hätten die Römer schon einen Ferrari gehabt ;) Der wesentliche Unterschied zwischen einem Menschen aus der Bronzezeit und heute ist das Wissen was wir uns ersammelt haben und jeweiligen Generationen weiter vermittelt haben.


melden

ChatGPT, nächster Quantensprung der KI?

27.01.2023 um 19:07
Zitat von subgeniussubgenius schrieb:Warum?

Natürlich würde eine KI niemals ein Bewustsein wie ein Mensch entwicklen, denn dafür fehlen die exestentiellen Voraussetzungen eines Menschen. Aber eine Bewustsein und eine Persönlichkeit die dem einer KI entsprechen.. wie immer das dann Aussieht halte ich schon für möglich.
Bewusstsein hat folgende Definition:

1a.
Zustand, in dem man sich einer Sache bewusst ist; deutliches Wissen von etwas, Gewissheit
"das Bewusstsein seiner Kraft erfüllte ihn"
1b.
Gesamtheit der Überzeugungen eines Menschen, die von ihm bewusst vertreten werden
"mein Bewusstsein änderte sich durch diese Begegnung"

Hier sehe ich einfach kein Weg wie eine KI diese Definition erfüllen könnte.


melden

ChatGPT, nächster Quantensprung der KI?

27.01.2023 um 22:01
Zitat von TrailblazerTrailblazer schrieb:Gucky und andere hier, stellen die Fähigkeiten von ChatGPT in Frage, obwohl sie einige Fragen, die ich z.B. ihm gestellt habe und die korrekt beantwortet wurden, vielleicht gar nicht lösen könnten...
Wow. Eine mathematische Aufgabe die ChatGPT korrekt gelöst hat. Soll ich dir das mehr als ein halbes Dutzend, bei dem ChatGPT lediglich mathematischen Unfug geschrieben hat senden? Das ist nur noch zum Kopfschütteln. Nebenbei bin ich selbstbewußt genug zu sagen dass auf Basis dessen was ich gesehen habe es keine mathematische Frage gibt die ich nicht besser beantworten kann als ChatGPT. Ok, es mag in diesem Zusammenhang hilfreich sein ein Mathematikstudium absolviert zu haben.


melden

ChatGPT, nächster Quantensprung der KI?

27.01.2023 um 22:10
@Rolly22

Nun ja im Grunde genommen ist ChatGPT auch nicht dafür konzipiert ein Rechen / Mathe Genie zu sein. Der eigentliche Quantensprung in der Technologie ist das verstehen und beantworten von Fragen so als ob sie von einem Menschen kommen. Das eigentliche Fachwissen bei ChatGPT und anderen GPT-3 Modellen ist halt immer noch eingeschränkt und fehlerbehaftet.

Für deine Zwecke würde ich dir wenn du dem englischen mächtig bist eine andere KI empfehlen:

https://www.wolframalpha.com/?utm_source=futurepedia&utm_medium=marketplace&utm_campaign=futurepedia

Wolfram Alpha ist extra für die Bereiche Mathematik, Wissenschaft und Technologie trainiert.


melden

ChatGPT, nächster Quantensprung der KI?

27.01.2023 um 23:02
@amtraxx: Als langjähriger Nutzer von Wolfram Alpha würde ich sagen, dass das System mit ChatGPT nicht vergleichbar ist. Wolfram Alpha hat eine grosse Wissensbasis und kann bestimmte Klassen von mathematischen Problemen ganz gut lösen, ist aber alles in allem eher ein klassisches Programm als eine KI.


melden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 06:49
Zitat von Gucky87Gucky87 schrieb:Das kann man, denke ich, NOCH nicht, da es noch keine WIRKLICHE KI Gibt.
Es sind letztlich alles Algorithmen, die aus einem Haufen von vorgegebenen Daten z.B. Texte und Bilder erzeugen, nicht mehr, nicht weniger.
Setze eine Affen vor eine Schreibmaschine. Irgendwann wir er die Buchstaben getippt haben, die Göthes Faust ergeben - Einfach gesagt.
Ja, richtig, denn das Verständnis (der KI) des Inhalts fehlt.
Aber man kann durchaus KIs gegeneinander antreten lassen um zu überprüfen welche KI mit welchem Algorithmus effektiver arbeitet. (Annäherungsverfahren)
Zitat von subgeniussubgenius schrieb:Doch das ist sie.
Ich hatte z.B. nach geeigneten python Bibliotheken gesucht und dabei den namen eines Projektes erhalten das mit dem Problem nichts zutun hatte.

Ohne den Bot darauf hinzuweisen das da Murks steht.. reichte es aus nach zusätzlichzen Informationen zu dieser Bibliothek zufragen. Plötzlich erkennt er das da was nicht stimmt.

Was ich jetzt nicht weis oder getestet habe ob diese Selbsterkentniss zu nachhaltigen Lernerfolg führt. (Also in Zukunft den Fehler nicht wiederholt)

Manchmal reicht es einfach aus eine Aussagen von Gtp durch Gtp zuprüfen.
Da müsstest du aber selbst erkennen, "wie" diese KI auf diese Antwort gekommen ist.
"Du" hast die KI gefordert "seine" Antwort zu analysieren. Die KI geht aufgrund des Verifizierungsverfahren/Falsifizierungsverfahren davon aus, das es eben nicht das gewünschte Ergebnis war.
(Lernt also nicht selbständig)
Ergo wird der Prozess der ersten Anfrage genommen und mit anderen Quellen/Ergebnissen verglichen. Dann spuckt die KI eine verbesserte Antwort aus, ohne zu "wissen", ob sie denn auch korrekt ist, weil sie eben davon ausgeht, dass die erste Antwort von ihr falsch zu sein scheint. Sie weiß es ja nicht, sonst wäre die erste Antwort schon nicht falsch gewesen.
Zitat von tarentaren schrieb:Ich kenne nicht den Aufbau von ChatGPT, aber die Behauptung das sie Texte aus einer Datenbank verwendet macht bei einer AI nicht wirklich soviel Sinn.
Doch, denn woraus lernt denn eine auf Chat basierende KI?
Soll sie mit sich selbst diskutieren und daraus lernen?
Natürlich muss eine Chat KI aus menschlichen Konversationen lernen, aber aufgrund der menschlichen Sprachdynamik, Vielfalt des thematischen Inhalts und so weiter, sind einer solchen KI natürliche Grenzen gesetzt, sprich, das Verständnis -> der logische Konsens fehlt.
Zitat von subgeniussubgenius schrieb:Doch das ist sie.
Ich hatte z.B. nach geeigneten python Bibliotheken gesucht und dabei den namen eines Projektes erhalten das mit dem Problem nichts zutun hatte.

Ohne den Bot darauf hinzuweisen das da Murks steht.. reichte es aus nach zusätzlichzen Informationen zu dieser Bibliothek zufragen. Plötzlich erkennt er das da was nicht stimmt.

Was ich jetzt nicht weis oder getestet habe ob diese Selbsterkentniss zu nachhaltigen Lernerfolg führt. (Also in Zukunft den Fehler nicht wiederholt)

Manchmal reicht es einfach aus eine Aussagen von Gtp durch Gtp zuprüfen.
Dein erster Satz bestätigt schon meine Aussage, aber gehen wir weiter,
du hast diesen Bot (wie du ihn selbst nennst) darauf hingewiesen, dass es einen vermeintlichen Fehler gemacht hat und dieser Bot hat diesen Fehler nicht erkannt, sondern eine alternative Erklärung gegeben. Eine echte KI würde wohl den eigenen Fehler erkennen und als solches deklarieren und erklären wie der Fehler zustande kam.

Wir sprechen hier ja immer noch von einer "vermeintlichen" -> "Intelligenz".


Eine sehr interessante Fragestellung an die KI wäre folgende:

"Erkläre mir bitte die Kaprekar-Konstante und wieso dabei ab einem bestimmten Punkt immer das selbe Ergebnis, die selbe Ergebnissequenz hervorgebracht wird?"

Die KI wird es nicht erklären können, oder?
Ich kann es erklären.


4x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 07:26
Zitat von TanneTanne schrieb:Erkläre mir bitte die Kaprekar-Konstante und wieso dabei ab einem bestimmten Punkt immer das selbe Ergebnis, die selbe Ergebnissequenz hervorgebracht wird?
Erkläre mir bitte die Kaprekar-Konstante und wieso dabei ab einem bestimmten Punkt immer das selbe Ergebnis, die selbe Ergebnissequenz hervorgebracht wird?


Die Kaprekar-Konstante ist ein numerisches Konzept, das auf dem Konzept des "Kaprekar-Zahlenraums" basiert. Es geht darum, eine beliebige vierstellige Zahl (mit nicht-identischen Ziffern) zu wählen und dann diese Zahl in ihre einzelnen Ziffern zu zerlegen. Anschließend werden die Ziffern in aufsteigender und absteigender Reihenfolge sortiert und die beiden so entstandenen Zahlen subtrahiert. Das Ergebnis dieser Subtraktion wird dann erneut mit diesem Verfahren bearbeitet, bis man auf die Zahl 6174 kommt. Dieser Prozess wird als Kaprekar-Prozess bezeichnet.

Wieso es immer zu der selben Ergebnissequenz kommt, liegt daran, dass die Zahl 6174 eine besondere Eigenschaft hat. Durch die Wahl der vierstelligen Zahl mit unterschiedlichen Ziffern und durch die anschließende Sortierung in auf- und absteigender Reihenfolge werden immer die gleichen Ziffern in der gleichen Anordnung verwendet, wodurch immer das gleiche Ergebnis entsteht. Der Prozess endet immer bei der Zahl 6174, da es sich hierbei um eine sogenannte "Kaprekar-Zahl" handelt.



1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 07:38
Zitat von TrailblazerTrailblazer schrieb:Wieso es immer zu der selben Ergebnissequenz kommt, liegt daran, dass die Zahl 6174 eine besondere Eigenschaft hat. Durch die Wahl der vierstelligen Zahl mit unterschiedlichen Ziffern und durch die anschließende Sortierung in auf- und absteigender Reihenfolge werden immer die gleichen Ziffern in der gleichen Anordnung verwendet, wodurch immer das gleiche Ergebnis entsteht.
Falsch, und dennoch irgendwie richtig.
Die Erklärung ist nicht ausreichend, da es eine einfache logische Erklärung gibt die das Problem adäquat beschreibt.
Schon alleine die Aussage "6174" hätte eine besondere Eigenschaft ist falsch.
Zitat von TrailblazerTrailblazer schrieb:Anschließend werden die Ziffern in aufsteigender und absteigender Reihenfolge sortiert und die beiden so entstandenen Zahlen subtrahiert. Das Ergebnis dieser Subtraktion wird dann erneut mit diesem Verfahren bearbeitet, bis man auf die Zahl 6174 kommt. Dieser Prozess wird als Kaprekar-Prozess bezeichnet.
Und das ist lediglich die Erklärung wie man denn auf diese Konstante kommt, aber das kann man überall nachlesen.
Die Erklärung, "warum" das so ist, kann man hingegen nicht überall, oder ohne weiteres, nachlesen/nachprüfen.
Ich erkläre noch wie dieses Phänomen Kaprekar Konstante zustande kommt.
Aber malträtiert diese KI erstmal noch weiter mit dem Problem. :)


melden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 07:39
@Rolly22
Speziell als ausgebildeten Akademiker und Mathematiker wundert mich deine Herangehensweise an die Problematik.

Meine Sichtweise auf das Thema:

Die entscheidende Frage ist bei technologischen Entwicklungen, die möglicherweise einen revolutionären "Impact" auf unsere Gesellschaft haben könnten, ist nicht die Frage, was das jeweilige Instrument oder die jeweilige Technologie im vorliegenden Entwicklungsstadium noch nicht kann, sondern entscheidend ist das, was sie kann und was sie damit für Ausblicke auf die Zukunft erlaubt.

Angenommen es würden neuartige, revolutionäre "Geschmackssensoren" entwickelt und jemand hätte die mit einer Datenbank, einer KI und einem taktilen Roboter verbunden. Die Maschine würde nun in der Küche stehen und auf Zuruf Saltimbocca alla Romana zubereiten.

Paul Bocuse würde wieder unter den Lebenden weilen, dem ganzen gelangweilt zuschauen und dazu sagen:

"Ich könnte jedes Gericht besser zubereiten als diese Maschine!"

Sicher hätte er damit Recht und hätte doch völlig die ungeheure Tragweite dieser Neuerung unterschätzt!


2x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 07:59
Für mich gab es einen Schlüsselmoment in der Befassung mit ChatGPT.

Ich habe ihm diese Frage gestellt (siehe mein ausfühliches Posting weiter oben):
Zitat von TrailblazerTrailblazer schrieb am 18.01.2023:Frage: I have a Java-Problem. There is a Vector filled Pojos. These Pojos have two attributes. An Integer and a String. I need a program that delivers two ArrayLists. One with the Pojos sorted by the integer field and the other Arraylist with the Pojos sorted by the String.
Als Antwort bekam ich ein komplett fehlerfreies Programm geliefert zusammen mit einer detaillierten Erklärung zur Funktionalität.

Niemand kann ernsthaft annehmen oder gar behaupten, dass das Scannen meiner Frage nach Schlüsselwörtern, das anschließende Stöbern nach diesen Begriffen über Millionen fachlicher Texte und eine aus Fragmenten dieser Texte die nach errechneten Wahrscheinlichkeiten zusammenkopiert wurden, ein syntaktisch fehlerfreies und fachlich korrektes Java-Programm ergeben würden.
Die unendliche Anzahl solcher möglicher Kombinationen würde einen Zufallstreffer ausschließen.

Welche "Werkzeuge" das Sprach-Modell von ChatGPT nun im Detail anwendet, im Endeffekt müssen sie wie eine Art von "Verständnis" wirken.

Die Gegenfrage:

Wieviele Menschen, die mir heute im Alltag begegnen werden, hätten diese Lösung gefunden?
Wieviele Programmieranfänger hätten eine vergleichbare Lösung aus dem Stand gefunden?

Dass ich das als Softwareentwickler mit jahrzehntelanger Erfahrung mindestens genau so gut wie ChatGPT gekonnt hätte, spielt dabei gar keine Rolle...

...es sei denn, man würde den ersten beiden, oben genannten Gruppen ihre "Intelligenz" absprechen wollen.

Interessant fand ich die Stellungnahme einer Professorin Schmitt (Kognitive Systeme und Künstliche Intelligenz) gestern morgen auf HR Info zum Thema:
Die wies auf die - durchaus wechselhafte - Qualität der Antworten hin, zeigte aber den Quantensprung im Vergleich mit Systemen wie Siri oder Alexa auf und sie zeigte sich besonders beeindnruckt von den Fähigkeiten der KI, Programmcode zu entwerfen.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 08:34
Zitat von TrailblazerTrailblazer schrieb:Niemand kann ernsthaft annehmen oder gar behaupten, dass das Scannen meiner Frage nach Schlüsselwörtern, das anschließende Stöbern nach diesen Begriffen über Millionen fachlicher Texte und eine aus Fragmenten dieser Texte die nach errechneten Wahrscheinlichkeiten zusammenkopiert wurden, ein syntaktisch fehlerfreies und fachlich korrektes Java-Programm ergeben würden.
Die unendliche Anzahl solcher möglicher Kombinationen würde einen Zufallstreffer ausschließen.
Nun bleib mal bitte auf dem Teppich:
Java ist eine der meist verwendeten Programmiersprachen, schon alleine deswegen, weil es auf allen gängigen Betriebssystemen ohne entsprechende Anpassung läuft.
Des weiteren ist Java aufgrund der "Einfachheit" und "Flexibilität" eine sehr diskutierte und dokumentierte Programmiersprache, was es einfach macht da eine entsprechende Lösungen zu finden, wenn die Fragestellung korrekt gestellt wird.
Ich selbst habe damals gegrübelt wie man mit Java "mp3" files benutzen/abspielen/implementieren kann, geht, aber der Weg zur Lösung war schon eine gewisse Herausforderung, da ich meinem Programm haarklein genau erklären musste wie denn mit "nicht unterstützten" Formaten umgegangen werden soll, so dass es doch funktioniert.
Das war zu der Zeit nicht einmal dokumentiert, ich musste da wie gesagt selbst "erfinderisch" werden damit das klappte.
Zitat von TrailblazerTrailblazer schrieb:Speziell als ausgebildeten Akademiker und Mathematiker wundert mich deine Herangehensweise an die Problematik.

Meine Sichtweise auf das Thema:

Die entscheidende Frage ist bei technologischen Entwicklungen, die möglicherweise einen revolutionären "Impact" auf unsere Gesellschaft haben könnten, ist nicht die Frage, was das jeweilige Instrument oder die jeweilige Technologie im vorliegenden Entwicklungsstadium noch nicht kann, sondern entscheidend ist das, was sie kann und was sie damit für Ausblicke auf die Zukunft erlaubt.
Ja, und was kann sie denn bitte?
Muster erkennen, huh, sehr bemerkenswert. Prozesse im Automatisierungsbereich handeln, yeah, super.
Die Ausblicke auf die Zukunft hatten wir schon vorher, und da betone ich jetzt noch mal "wir", nicht die KI selbst, wir steuern diese Entwicklung, verantwortlich sind wir und stellen nun mal fest, dass es gewisse Grenzen gibt.
Schau dir doch einfach mal an was KIs die speziell für Gesichtserkennung/Gemütszustand/Emotionen da zustande bekommen.
Und wir reden hier über ChatGPT, einem Chatbot, wie du selbst ja korrekt festgestellt hast.
Das ist kein Quantensprung in der KI-Forschung, sondern lediglich eine kommerzielle Ausgabe die auf bestimmte Funktionen stabilisiert wurde/wird, um den Menschen als Unterhaltung/Nachschlagewerk zu dienen.
Da kann ich mich auch mit Cortana, Siri und Co "unterhalten", ist das selbe, wobei auch da der Begriff "Unterhaltung" falsch interpretiert ist.

Natürlich wird sich die Technologie der künstlichen Intelligenzen weiterentwickeln, aber es gibt fundamentale Grenzen über die wir nicht hinaus kommen, noch nicht (bei Weitem nicht).


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 13:15
Zitat von TrailblazerTrailblazer schrieb:Die entscheidende Frage ist bei technologischen Entwicklungen, die möglicherweise einen revolutionären "Impact" auf unsere Gesellschaft haben könnten, ist nicht die Frage, was das jeweilige Instrument oder die jeweilige Technologie im vorliegenden Entwicklungsstadium noch nicht kann, sondern entscheidend ist das, was sie kann und was sie damit für Ausblicke auf die Zukunft erlaubt.
Für KI gilt das gleiche wie für Kernfusion. Ihre Apologeten erzählen alle paar Jahre von einem neuen "Durchbruch" und erklären dass die verbleibenden "kleinen" Probleme bald gelöst sind. Nicht umsonst gibt es bei der Kernfusion schon den Begriff der "Fusionskonstante".
Zitat von TrailblazerTrailblazer schrieb:Angenommen es würden neuartige, revolutionäre "Geschmackssensoren" entwickelt und jemand hätte die mit einer Datenbank, einer KI und einem taktilen Roboter verbunden. Die Maschine würde nun in der Küche stehen und auf Zuruf Saltimbocca alla Romana zubereiten.
Was hat diese segr fantasievolle Vorstellung damit zu tun dass ChatGPT schlicht bei den meisten Themen schlechte Antworten liefert? Mathematik ist da nur ein Beispiel, halt zufällig mein Fachgebiet.

Ein "Quantensprung" wäre es wenn wenigstens 50% im Turing Test überzeugt werden könben.


1x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 14:31
Zitat von Rolly22Rolly22 schrieb:Für KI gilt das gleiche wie für Kernfusion. Ihre Apologeten erzählen alle paar Jahre von einem neuen "Durchbruch" und erklären dass die verbleibenden "kleinen" Probleme bald gelöst sind.
Das heißt nicht, dass die Ziele nie erreicht werden. Es bedeutet nur, dass es viel länger dauert, als man oft mangels Wissen annimmt. Und natürlich ist ChatGPT ein weiterer Meilenstein. Oder würdest du behaupten wollen, dass es zwischen den KI-Lösungen von vor 30 Jahren und denen von heute keine nennenswerten Verbesserungen gibt? Es ist ein langwieriger Prozess mit gelegentlichen Schüben.


melden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 14:44
Zitat von TanneTanne schrieb:Muster erkennen, huh, sehr bemerkenswert.
Wieso beeindruckt dich das nicht? Ist dir klar das die Evolution bei biologischen Systemen und auch der menschliche Fortschritt bei synthetischen Systemen unglaublich lange gebraucht haben um Mustererkennung hervorzubringen?
Das sind die ersten Schritte in Richtung höherer Formen von Intelligenz.
Zitat von TanneTanne schrieb:Natürlich wird sich die Technologie der künstlichen Intelligenzen weiterentwickeln, aber es gibt fundamentale Grenzen über die wir nicht hinaus kommen, noch nicht (bei Weitem nicht).
Was sind das für fundamentale Grenzen?


2x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 18:10
Zitat von TanneTanne schrieb:Doch, denn woraus lernt denn eine auf Chat basierende KI?
Soll sie mit sich selbst diskutieren und daraus lernen?
Natürlich muss eine Chat KI aus menschlichen Konversationen lernen, aber aufgrund der menschlichen Sprachdynamik, Vielfalt des thematischen Inhalts und so weiter, sind einer solchen KI natürliche Grenzen gesetzt, sprich, das Verständnis -> der logische Konsens fehlt.
Das ist aber eine andere Aussage, ich weiß nicht was man der KI als Lernbasis vorgesetzt hat, Bücher, Texte, was so gesehen aber nicht viel anders ist wie beim Menschen.

In wie weit der KI dabei Grenzen gesetzt sind ist eher eine Frage der Grundlage für die KI. Ob der KI damit natürliche Grenzen gesetzt sind ist daher wiederum eine Frage vom Aufbau der KI, gleiches zum Verständnis und ob die KI in der Lage ist logisch vorzugehen ist wiederum vom Aufbau abhängig.

Ich würde ChatGPT als Teilsystem betrachten, noch nicht vollständig und auch fraglich ob diejenigen die ChatGPT erstellt haben dies überhaupt zum Ziel hatten.


2x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

28.01.2023 um 18:31
Die Wissensbasis von ChatGPT ist noch sehr ausbaufähig. Soweit ich weiß, basiert das Trainingsmaterial hauptsächlich auf einem Teil des Internets. Es ist nicht das gesamte Internet (abgesehen vom Aussortieren problematischer Inhalte) und GPT kennt die Literatur fast nur aus Erzählungen und Diskussionen im Internet. Das kann man sehr leicht herausfinden, indem man Fragen zu einem Buch stellt, was im Trainingszeitraum liegt und was gar nicht oder so gut wie gar nicht im Internet diskutiert wurde. GPT kennt die Theorien und Inhalte solcher Bücher nicht.
Das ist sehr schade, denn das meiste Wissen im Internet ist im Vergleich zur Fachliteratur eher oberflächlich.

Ich denke aber, dass es nicht so einfach sein wird, GPT mit einem großen Teil der Literatur zu trainieren. Abgesehen von Urheberrechtsfragen müsste Open AI über eine große digitalisierte Bibliothek verfügen. Google hat mit dem Projekt Google Books über 40 Millionen Bücher digitalisiert. Das braucht Zeit und man muss an die Bücher herankommen. Nicht alle waren von diesem Digitalisierungsprojekt begeistert. Ich weiß nicht, wie es heute ist, aber damals haben die Franzosen Google nicht erlaubt, die Bücher ihrer Bibliotheken zu digitalisieren.

Um GPT zu verbessern, sind nicht unbedingt technologische Fortschritte erforderlich. Um das Transformer-Modell, das GPT zugrunde liegt, voll auszuschöpfen, müsste man nur mehr Geld in die Hand nehmen und dafür sorgen, dass GPT noch mehr Trainingsmaterial erhält und die Anzahl der Parameter drastisch erhöht werden kann (siehe Ankündigungen zu GPT-4). Das Training von GPT-3 in der Cloud soll 4,6 Millionen Dollar gekostet haben.

Das sind alles relativ kleine Zahlen. Wenn man bedenkt, dass demnächst Milliarden von Dollar in das Projekt fließen werden, kann man fast sagen, dass GPT-3 lediglich eine Technologie-Demonstration ist, die mit überschaubaren Mitteln entwickelt wurde.

Und wenn man über die interne Funktionsweise der GPT KI diskutieren will, müsste man sich eigentlich mit dem Modell dahinter beschäftigen. Also mit dem sogenannten Transformer-Modell. Wenn man nicht versteht, wie das genau funktioniert, kann man nur darüber spekulieren, wie GPT Wissen lernt und Anfragen verarbeitet.


melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 00:33
ChatGPT kann ja fast nichts, vor allem nix erklären oder verstehen. Da es nix versteht oder erklärt, kann es auch nicht kreativ sein (Neue (für den Anwender) Aspekte vorschlagen) (Ironie):
An einer Stelle des Labyrinths (kariertes Papier) kommt die Wand von oben und von unten, so dass der Durchgang nur eine Einheit vertikal oder horizontal ist. Kannst du dafür ein mathematisches Modell ausgeben oder einen Teilalgorithmus, auch auf die Gefahr hin, dass man ihn so nicht versteht. Benutze z. B. (n,m) als Feld, wo n die vertikalen Kästchen ist und m die horizontalen Kästchen. Gib die Stelle aus, wo die Wände fast aufeinandertreffen, bzw. gib die Wände aus!

Ein mögliches mathematisches Modell, um die Wandpositionen im Labyrinth darzustellen, könnte eine Matrix sein, in der jede Zelle (i, j) angibt, ob an dieser Stelle eine Wand vorhanden ist oder nicht. Wenn die Zelle den Wert 1 hat, ist an dieser Stelle eine Wand, wenn die Zelle den Wert 0 hat, ist keine Wand vorhanden.

Die Wand, die sowohl von oben als auch von unten kommt, könnte durch die Zellen (n, m) und (n+1, m) dargestellt werden, wobei n die vertikale und m die horizontale Position der Wand ist. Beide Zellen haben den Wert 1.

In einem Algorithmus könnten Sie diese Wandpositionen durch durchlaufen jeder Zelle in der Matrix und prüfen, ob die Zellen (i, j) und (i+1, j) oder (i, j) und (i, j+1) beide den Wert 1 haben. Wenn dies der Fall ist, dann haben Sie eine Wand gefunden, die sowohl von oben als auch von unten kommt.

Es ist zu beachten, dass dies nur ein einfaches Beispiel ist und es kann unterschiedliche Möglichkeiten und Ansätze geben um Labyrinth zu repräsentieren und zu lösen
.
Quelle: ChatGPT


2x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 00:45
Oder so:

Eine Möglichkeit, die Stelle auszudrücken, an der die Wände des Labyrinths aufeinandertreffen, wäre mit einer Graphen-Darstellung. Wir können das Labyrinth als einen Graphen mit Knoten und Kanten darstellen, wobei jeder Knoten ein Kästchen des karierten Papiers darstellt und jede Kante die Verbindung zwischen zwei angrenzenden Kästchen darstellt.

Die Wand, die von oben und unten kommt, kann als eine Kante dargestellt werden, die zwei Knoten verbindet, die sich direkt übereinander befinden. Diese Kante hat die Form (n,m) -> (n+1,m) und (n-1,m) .

Ein Algorithmus, um diese Kante zu identifizieren, könnte wie folgt aussehen:

Iterieren Sie über alle Knoten (n,m) im Labyrinth-Graphen.
Prüfen Sie, ob es eine Kante von (n,m) nach (n+1,m) und eine Kante von (n,m) nach (n-1,m) gibt.
Wenn dies der Fall ist, ist die aktuelle Kante die gesuchte Wand, die von oben und unten kommt.

Es gibt jedoch auch andere Möglichkeiten die Wand auszudrücken, das hängt von der verwendeten Darstellung und dem Zweck des Algorithmus ab.


Kannst du Code ausgeben für das Durchlaufen der Wände von oben bzw unten!

Ich kann Ihnen ein Beispiel in Python geben, wie man einen Algorithmus implementieren kann, der die Wände des Labyrinths durchläuft und die Wand, die von oben und unten kommt, identifiziert:

python

# Labyrinth-Datenstruktur als Adjazenzmatrix
labyrinth = [[0,1,0,0],
[0,1,0,1],
[0,0,0,1],
[0,1,1,0]]

# Dimensionen des Labyrinths
n = len(labyrinth)
m = len(labyrinth[0])

# Durchlaufe alle Knoten im Labyrinth
for i in range(n):
for j in range(m):
# Prüfe, ob es eine Verbindung nach oben und unten gibt
if i > 0 and i < n-1 and labyrinth[j] == 1 and labyrinth[i-1][j] == 1 and labyrinth[i+1][j] == 1:
print("Wand von oben und unten gefunden an Stelle:", (i, j))

In diesem Beispiel wird die Datenstruktur des Labyrinths als Adjazenzmatrix dargestellt, wobei jeder Wert in der Matrix angibt, ob es eine Verbindung zwischen den beiden angrenzenden Kästchen gibt (1) oder nicht (0). Der Algorithmus iteriert durch alle Knoten im Labyrinth und prüft, ob es Verbindungen nach oben und unten gibt und ob der Knoten selbst eine Verbindung ist, wenn ja wird die Wand ausgegeben.

Es ist wichtig zu beachten, dass dies nur ein Beispiel ist und es je nach Anwendungsfall unterschiedliche Darstellungen und Algorithmen geben kann.


Übrigens sieht sich ChatGPT selbst als Meilenstein.



melden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 02:25
Zitat von BlicklightBlicklight schrieb:Wieso beeindruckt dich das nicht? Ist dir klar das die Evolution bei biologischen Systemen und auch der menschliche Fortschritt bei synthetischen Systemen unglaublich lange gebraucht haben um Mustererkennung hervorzubringen?
Das sind die ersten Schritte in Richtung höherer Formen von Intelligenz.
Warum mich Mustererkennung nicht beeindruckt?
Ganz einfach, bevor eine KI ein Muster erkennen und verstehen kann, braucht sie gewisse Fähigkeiten die ihr aber nun mal noch nicht gegeben sind.
Allerdings wäre solch eine Fähigkeit bei KIs tatsächlich ein weiterer Meilenstein.

Eine simple Vergleichsmöglichkeit wäre da Folgendes:
Ein Mensch kann aus Wolkengebilden Muster erkennen die unterschiedliche Interpretationen hervorrufen, weil die Fantasie eben immer subjektiv ist. Eine KI kann nicht subjektiv denken, es ist ihr nicht möglich.
Des weiteren ist eine Mustererkennung auch im Bereich der Emotionen für die KI nicht möglich, da sie es nicht interpretieren kann, sie kann lediglich menschliche Antworten raussuchen und versuchen es so zu interpretierten, sie versteht es aber dennoch nicht, also weiß sie nicht ob das vorgeschlagene Ergebnis stimmt. Und selbst wenn dann der Mensch sagt, das ist richtig oder falsch, versteht die KI auch immer noch nicht wieso, sondern nur, es ist falsch oder richtig.

Das Problem über was wir hier sprechen ist ganz simpel: Der boolsche Faktor ist für KIs unausweichlich, entweder es ist wahr oder falsch, da gibt es kein dazwischen wie etwa beim Menschen -> "könnte sein, muss aber nicht".

Und dass es sich um die ersten Schritte in Richtung einer höheren Intelligenz handelt, sehe ich ebenfalls nicht.
Wenn dann sprechen wir in Sachen KI Entwicklung von Technologie die in einzelnen Bereichen dem Menschen überlegen sein kann, aber nicht von höherer Intelligenz. Wenn wir nur die KI mit sich selbst vergleichen, dann kann man natürlich ein solches Argument bringen. Die Vorgängerversion ist nicht so effizient/erfolgreich wie die Nachfolgerversion, stimmt meist, aber das hat nichts mit der Begrifflichkeit "Intelligenz" zu tun.
Zitat von BlicklightBlicklight schrieb:Tanne schrieb:
Natürlich wird sich die Technologie der künstlichen Intelligenzen weiterentwickeln, aber es gibt fundamentale Grenzen über die wir nicht hinaus kommen, noch nicht (bei Weitem nicht).
Zitat von BlicklightBlicklight schrieb:Was sind das für fundamentale Grenzen?
Die fundamentalen Grenzen sehe ich da in der Logik, mathematisches Verständnis (damit meine ich nicht das Rechnen), Emotionen, Verständnis soziologischer Zusammenhänge, und etliches mehr.
Zitat von tarentaren schrieb:Das ist aber eine andere Aussage, ich weiß nicht was man der KI als Lernbasis vorgesetzt hat, Bücher, Texte, was so gesehen aber nicht viel anders ist wie beim Menschen.
Nicht viel anders? Na sage mal, möchtest du jetzt da von dir selbst behaupten dass du noch nie aus eigener "Beobachtung/Betrachtung/Nachprüfbarkeit" gelernt hast?
Glaubst du jeden Quatsch der irgendwo geschrieben steht, oder was dir andere Personen mitteilen?
Menschen können Texte/Aussagen überprüfen, nach wissenschaftlichen Methoden, eine KI eben nicht.
Thema Verifikation/Falsifizierung.
Zitat von tarentaren schrieb:In wie weit der KI dabei Grenzen gesetzt sind ist eher eine Frage der Grundlage für die KI.
Eben.
Zitat von tarentaren schrieb:Ob der KI damit natürliche Grenzen gesetzt sind ist daher wiederum eine Frage vom Aufbau der KI, gleiches zum Verständnis und ob die KI in der Lage ist logisch vorzugehen ist wiederum vom Aufbau abhängig.
Ja, wobei es wie gesagt nicht "nur" um Logik geht.
Intelligenz ist ein Zusammenspiel verschiedener Fähigkeiten, und da ist die KI noch weit von entfernt, eben weil der vergleichbare Konsens fehlt. Eine KI verfügt eben nicht über alle notwendendigen Fähigkeiten.
Zitat von tarentaren schrieb:Ich würde ChatGPT als Teilsystem betrachten, noch nicht vollständig und auch fraglich ob diejenigen die ChatGPT erstellt haben dies überhaupt zum Ziel hatten.
Das war und ist einen menschlichen Gesprächspartner zu "emulieren", und aus dieser Perspektive heraus ist es natürlich noch der Anfang der Reise. Was ist mit Cortana, Siri und wie sie nicht alle heißen. Die machen auch nichts anderes und sind auch nicht intelligent. Der Begriff intelligent ist nach wie vor, meines Erachtens nach, völlig fehlbezeichnet.
Zitat von snickersfansnickersfan schrieb:ChatGPT kann ja fast nichts, vor allem nix erklären oder verstehen.
Genau, trifft genau meine Sichtweise. :)
Warum schreibe ich hier eigentlich soviel, wenn man dass in einem kurzen Satz so effektiv klar stellen kann?
Ich denke wahrscheinlich zu kompliziert/komplex.
Ich stimme dir mit deiner Aussage auf jeden Fall zu.

@snickersfan
Versuche der KI mal zu entlocken, ob sie auf die Möglichkeit kommt, sich in einem Labyrinth immer rechts an der Wand entlang zu gehen, um eben den Ausgang in jedem Fall zu erreichen.
Kommt sie da von alleine drauf?
Das würde mich echt interessieren.


2x zitiertmelden

ChatGPT, nächster Quantensprung der KI?

29.01.2023 um 02:35
@Tanne

Deine Sichtweise ist bei mir Ironie. Schau nochmal hin.

Ich glaube auch, dass "rechts langhangeln" in eine aussichtslose Situation führen könnte, genauso links langhangeln. Das ist meine Prognose.
Nochmal zurück zu Labyrinthen: Ist es eine gute Strategie, die immer zielführend ist, sich rechts oder links, also immer die rechte Seite abklopfend durch das Labyrinth zu hangeln oder kann man da in eine Endlosschlaufe kommen je nach Topographie des Labyrinths?

Es ist nicht garantiert, dass die Strategie, sich immer rechts oder links entlangzubewegen, immer erfolgreich sein wird. Dies hängt von der spezifischen Topographie des Labyrinths ab. In manchen Fällen kann diese Methode tatsächlich dazu führen, dass man in eine Endlosschlaufe gerät und nicht aus dem Labyrinth ausbrechen kann. Es gibt keine allgemein gültige Strategie, die in jedem Labyrinth erfolgreich sein wird. Eine bessere Methode könnte sein, sich immer Notizen zu machen, welche Wege man bereits genommen hat und welche Türen man bereits geöffnet hat, um zu vermeiden, dass man in eine Endlosschlaufe gerät.
Quelle: ChatGPT


melden