@Gucky87 Ich würde weder eine KI, noch irgendeinen Menschen in einer Notsituation "über mein Leben" entscheiden lassen.
Vermutlich meinst du, ob ich in einer Notsituation von einer beliebigen KI Entscheidungen treffen lassen wollen würde, die Einfluss auf meine Gesundheit / mein Weiterleben haben würden?
Die Frage ist aber eigentlich überflüssig. Ich würde dabei genau so wenig einem beliebigen Menschen, wie einer beliebigen KI vertrauen.
Wenn du mich fragen würdest, ob ich lieber einer speziell auf medizinische Fragen trainierten und entsprechend zertifizierten KI als einem beliebigen Menschen vertrauen würde... Natürlich!
Um wieder zur Sachlichkeit zurückzufinden...
Die Annahme, dass es sich um Einen Quantensprung bei der KI-Entwicklung handelt, wird hier vor allem aus zwei Richtungen in Frage gestellt:
1.) "So etwas gab es schon früher." Es wurden z.B. Alexa oder Siri als Beispiele genannt.
2.) "Die Ergebnisse von ChatGPT sind nicht grundsätzlich fehlerfrei." Wobei primär Aufgaben aus speziellen Bereichen als Maßstab herangezogen werden.
Zu 1.) Ich habe selbst in fast jedem Zimmer eine Alexa-Instanz. Ist ganz nett, kann mir die Uhrzeit sagen, informiert mich über Bestellungen die unterwegs sind, spielt mir beliebige Radiosender oder Musik aus meiner Bibliothek und dient manchmal auch als Lexikon-Ersatz. Wer das mit den Möglichkeiten von ChatGPT gleichsetzt oder verwechselt, hat sich in dem Moment schon selbst disqualifiziert. Nicht einmal ansatzweise können diese Systeme Vergleichbares leisten.
Zu 2.) Diese Vorgehensweise erscheint mir grundsätzlich unsinnig. Da könnte ich auch in den örtlichen Supermarkt gehen und den Einkaufenden vorbereitete Fragen zu speziellen Themen meiner Profession (Elektronik und Informatik) stellen und - nachdem ich nur auf Ahnungslosigkeit und falsch geratene Antworten stoßen würde - draußen ein Schild aufhängen:
"Hier kein intelligentes Leben!"
Ich würde ohnehin lieber von "Problemlösungskompetenz" als von "Intelligenz" sprechen wollen:
"Kann mir ChatGPT bei der Lösung bestimmter Probleme oder Fragestellungen behilflich sein?"
Diese Frage muss man eindeutig bejahen! Die Antworten sind leider nicht immer richtig, wie das auch bei jedem menschlichen Berater so wäre.
Zur Ausgangsfrage: "Stellt ChatGPT einen Quantensprung in der KI-Entwicklung dar?"
Wie würde ich einen Quantensprung definieren?
1.) Ein neues Werkzeug ist in der Lage mir bei der Lösung von Problemen behilflich zu sein und das in einer Art, wie das in der Vergangenheit nicht möglich war. (Stichwort: Leistungsfähigkeit)
2.) Ein neues Werkzeug stellt einem größeren Personenkreis Möglichkeiten zur Verfügung, die bislang nur wenigen Spezialisten oder Experten vorbehalten waren. (Stichwort: Zugänglichkeit)
3.) Ein neues Werkzeug lässt durch seine Ergebnisse Rückschlüsse auf enorme zukünftige Weiterentwicklungen zu. (Stichwort: Entwicklungspotenzial)
Mindestens ein Punkt würde ausreichen, um zum "Bewerberkreis" zu gehören. ChatGPT erfüllt alle drei Bedingungen.
ChatGPT bringt Ergebnisse hervor, die in dieser Form bisher nicht bekannt waren oder nur von hochspezialisierten Systemen in elitärer Umgebung (Universitäten, Forschungslabors der Industrie, u.Ä.) erreicht wurden und die Tatsache, dass das alles mit einem Trainingsaufwand von unter 5 Mio. USD erreicht wurde, lässt nun, da Investitionen im mehrstelligen Milliardenbereich vorgenommen werden, enorme Leistungssprünge erwarten.
Ich denke, wir sollten eher über Chancen und Risiken dieser neuen Werkzeuge diskutieren, anstatt uns zu fragen, ob es überhaupt eine "Neuigkeit" gibt.