satansschuh schrieb am 30.10.2021:Und wenn die regierende KI zu dem Schluss kommt, es wäre am besten, die Menschheit auszurotten?
Woher sollte das auf einmal kommen? Denkst Du nicht, das Leute, die die KI entwickeln, sie testen bevor sie sie auf die Menschheit loslassen? In Hollywood-Filmen passiert so etwas ständig, in der Realität nicht so oft.
Peter0167 schrieb am 26.01.2023:Hmmm ... hier ist so Einiges, was ich nicht verstehe.
1. Satz: Haben KI-Systeme eigene ethische Grundsätze, oder sind es "unsere" Grundsätze, die wir auf eine KI übertragen?
2. Satz: Woher soll die KI wissen, dass sie einen Fehler gemacht hat? Kann eine KI überhaupt Fehler machen, wenn sie nur entsprechend ihrer Programmierung, bzw. gemäß der ethischen Richtlinien gehandelt hat?
3. Satz: Beißt sich das nicht mit der Forderung aus Satz 2? Die KI soll also aus möglichen Fehlern lernen, insofern das überhaupt möglich ist, und gleichzeitig soll der Mensch dies überwachen und ggf. anpassen?
Ja, das ist völlig richtig. Eine KI, um 1 zu beantworten, würde gewissermaßen eigene ethische Grundsätze aufstellen, die aber auf menschlichen Grundsätzen basieren, da das halt die Datenbasis ist. Ich weiß nicht, was sich da mit Satz 2 beissen soll. Die KI kann auch von einer klügeren KI lernen. Sagen wir mal, ich entwickle ein neues Modell, das Moredread-Modell, ich habe die 10.000 Fragen aus dem Beispiel oben und Du kannst sie beantworten und dann mit den KI Antworten abgleichen, stets beschreibend, ob Du auf KI Fehler gestossen bis, wenn DU aber keine Lust hast sie zu beantworten, frage ich eine andere KI. Da ich weiß (mal hypothetisch) das mein Modell dümmer ist als GPT4, kann ich die Frage-Antwort-Liste an GPT4 übermitteln, mit der Bitte, zu jeder Antwort bei der Details fehlen bzw. die fehlerhaft sind, dies in einer zusätzlichen Antwort zu erklären (aber OpenAI würde mich verklagen, wenn ich das veröffentliche, und ja, ich nehme an das lässt sich aus der Inferenz-Datenbank wieder herausholen, sollte das noch nicht gehen, ich würde niemals dagegen wetten das die Zukunft klüger ist als wir).
Peter0167 schrieb am 26.01.2023:Mir stellt sich da gleich die Frage, ob sich Ethik überhaupt auf KIs übertragen lässt. Per Definition befasst sich die Ethik mit dem menschlichen Handeln, und nicht mit dem Handeln einer KI. Klar lässt sich eine Maschine so programmieren, dass sie in vorhersehbaren Situationen gemäß ethischer Normen die für Menschen gelten funktioniert. Aber ist es dann noch eine KI, oder nur ein Computer, oder eine CNC-Maschine?
Ja, das lässt sich schon übertragen. Wie gesagt, es braucht entsprechendes Training. Die KI ist ausschließlich auf menschliche Texte trainiert, was anderes als menschliches Verhalten sollte sie denn entwickeln? Es lässt sich schwer begreifen, aber offenbar lassen sich menschliche Sätze in Zahlen umrechnen damit ein Computer sie berechnen und letztlich beantworten kann. Gemeint sind alle Sätze, daher kannst du die KI auch die Anleitung für Deinen Drucker im Stil von Shakespeare ausgeben lasssen. Die größte Gefahr besteht darin, die KI zu einem Bereich auszufragen, in dem sie sich nicht auskennt, KIs neigen da zu Erfindungen.
Lupo54 schrieb am 26.01.2023:Ich nenne es des Teufels Alternative: Was immer man tut, es wird zu einem Schaden führen. Man kann sich nur aussuchen zu welchem. Ist auch schwierig zu programmieren weil die Parameter sehr verschieden sein können und hier auch schnell über den Schaden hinaus eine moralische Komponente ins Spiel kommt mit der sich die KI schwer tut.
Ach ja? Man kann alles in die KI einprogrammieren, aber Moral ist ein Problem? Warum? Besteht sie aus nicht auslotbaren Problemen und ist nicht ausreichend dokumentiert? Ist sie logischen Schlüssen nicht zugänglich?
Peter0167 schrieb am 26.01.2023:Also wäre ich eine KI, wäre ich ziemlich angepisst, wenn ich bei mir einen Fehler erkennen würde, meine Subroutinen entsprechend anpasse um diesen Fehler zukünftig zu vermeiden, ... und dann kommt jemand daher, und passt das nach seinen Vorstellungen an!?
Und wenn Du hinterher besser performst? Das ist das Ziel der ganzen aktuellen Arbeit. Außerdem würde ich gerne wissen, genau WO im Computer etwas sauer werden soll. Die KI hat keine Empfindungen, wer das Gegenteil behauptet, lässt sich von einer Maschine täuschen, die gut Texte zusammenbauen kann, auch solche, in denen sie behauptet sauer zu sein (dafür eine Vorlage im Netz zu finden ist auch sehr einfach). Ich würde sogar vermuten, das die meisten solcher Texte effektiv bloß copy + paste seitens der KI sind. Zitate aus dem Netz.
Parapsychologe schrieb am 31.01.2023:Neuronale Netze arbeiten aufgrund ihrer Programmierung und Trainingsdaten logisch und berechnen Algorithmen, aber sie haben nicht die Fähigkeiten eines Menschen, aus eigener Erfahrung und Intuition zu lernen und komplexe Probleme zu lösen. Es ist wichtig zu beachten, dass beide, Menschen und Neuronale Netze, ihre eigenen Stärken und Schwächen haben und in unterschiedlichen Anwendungsbereichen effektiv eingesetzt werden können.
Nette Analogie, aber die arbeiten nicht logisch, sie berechnen Zahlenwerte anhand derer sie die Verwandtschaft zwischen Wörtern sehen können. Aber wenn ich drauf setzen würde wer die bessere Entscheidung treffen kann ist das einfach: Die KI. Als ob die "höheren moralische Fähigkeiten" des Menschen zu tragen kämen im Bruchteil einer Sekunde. Erfahrungsgemäß orientieren sich Menschen in dieser Zeit und fokussieren in einer gefährlichen Situation ein Ziel. Z.B. ein Baum oder ein Mensch. Gedanken darüber wer das ist oder wie sinnvoll, kommen da doch gar nicht in den Sinn.
Außerdem möchte ich darauf verwiesen, das neben einer KI auch eine Hardware vorhanden sein muss, die überhaupt Unterscheidungen wie "Oma" oder "Kind" machen kann. Darauf können wir vermutlich noch ein paar Jahrzehnte warten, und bis dahin werden die KIs dazu imstande sein. Bis jetzt ist ja noch nicht mal etwas quasi zum Spaß programmiert worden, das im Ansatz in die Richtung geht. Ich würde meckern, wenn das implementiert wird. Wegen Real-World Applikationen, wird das etwas länger brauchen. Sagen wir mal 30 Jahre. Sich jetzt über etwas ereifern, das wir eh nicht übersehen können, weil wir nicht einmal die Daten erhalten könnten, die es bräuchte, ist etwas voreilig.
FibaAmrih schrieb am 31.01.2023:Richtig spannend wird es erst werden, wenn 4 eigenständige neuronale Netze zusammengeschaltet werden. Eine definiert die These (Ego), die andere die Antithese (Über-Ich), die nächste generiert daraus ein Bild (Bewusstsein) das die letzte betrachtet und entscheidet (Das ICH). Dann hast du einen Mensch mit "freiem Willen". Bis schon gespannt, solange sollte es ja nicht mehr dauern. (aber das ist auch nur eine völlig naive Hypothese).
Ist schon an mehreren Stellen geschehen, als größtes Beispiel dient OpenAi, die aktuell anstelle einer Riesen-KI sehr viel kleinere Spezialisten KIs trainieren, bspw. ein Spezialist für Biologie, einer für höfliche Texte etc.. Wenn Du willst, das KIs sich selbst überprüfen, das gibt es sogar schon als Code für eine einzelne KI. Aber GPT5 sollte recht nahe an das kommen, von dem Du sprachst. Jede Anfrage der User verursacht eine Konferenz der Spezial-KIs.
Fölix schrieb am 11.02.2023:Hat ein von António Guterres trainiertes neuronales Netz andere moralische Vorstellungen als eines das von Wladimir Putin trainiert wurde?
Die (tatsächlich existente und auch von Putin finanzierte) russische KI hat Redeverbot in Russland und darf auch nicht mehr malen, das sie nicht patriotische genug war. Kein Witz! Wenn die KI gebeten wurde, patriotische Bilder zum Krieg in der Ukraine zu malen, war das oft eine am Boden liegende russische Flagge neben einer stehenden intakten Ukrainischen. Tja, das hat die KI nur eine kurze Zeit gemacht, dann war es aus. Und ja, wenn man weiß wie, kann man der KI natürlich auch ein Russlandkonforme Moral geben, was immer das auch heisst.
Cthulhus_call schrieb am 24.02.2023:Viel problematischer als die tatsächlichen Implikationen von KI-Systemen dürfte blindes Vertrauen in die selbigen sein.
Du hast den Kern erfasst: Den Menschen. Dem würde ich misstrauen, der hat auch schon Weltkriege angezettelt. Wenn das jetzt mittels eines Chatprogramms möglich wäre, dann wäre derjenige Schuld, der ein so wackeliges System installiert hat. Also bitte, den richtigen fürchten: Den Menschen.
Cthulhus_call schrieb am 25.02.2023:Schimpfwörter sind kein Problem, aber alleine von Angela Merkel gibt es fast über 1000 Abwandlungen, die alle despektierlich gemeint sind...was einem geneigten Leser sofort ins Auge fällt, aber eine KI einfach nicht erkennen kann.
Wieso nicht? Ist das ein Problem magischer Natur? Selbstredend kann die KI das erkennen und ja, ich würde der KI zutrauen das sie mir sagt ob ein Spitzname in irgendeiner Weise eine Anfeindung enthält. KIs sind sogar so gut darin, das ich dafür eine Kleine vorschlagen würde, zur Analyse ausreichend. Wie kannst Du denn wissen, wie das gemeint ist, aber die KI nicht? Die KI hat eigene Parameter rund um böse spitznamen. Du auch?