CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?
15.05.2017 um 19:32vincent schrieb:Aber wir clashen hier nicht, du Armleuchte! Du hattest deine Chance :troll:Macht ruhig weiter. Gefällt mir :Y: Sehr interessant.
vincent schrieb:Aber wir clashen hier nicht, du Armleuchte! Du hattest deine Chance :troll:Macht ruhig weiter. Gefällt mir :Y: Sehr interessant.
interpreter schrieb:Ich würde ja gerne in die Diskussion einsteigen, werd das abwr frühstens machen wenn die Bewertungen alle drin sind.Das wird keinen Einfluss haben. Du bist eh weiter.
sunshinelight schrieb:Programmierung hier, Programmierung da.Das Konzept lautet folgendermaßen. Die KI nimmt ihren eigenen Quellcode und modifiziert ihn. Dann könnte sie entweder eine Kopie weiter laufen lassen während sie selber aktiv bleibt oder sich im Zuge der Initialisierung ihres "Nachkommen" deaktivieren.
Hier hätte man genauer erläutern können, wie und warum eine KI sich selber programmieren kann oder könnte.
Oder warum sie es nicht könnte.
1.21Gigawatt schrieb:SilentCry hätte die Diskussion hier in eine andere Richtung lenken müssen anstatt darauf ein zu gehen.Ich hätte das ebenso gemacht, wenn ich an SilentCry's Stelle gewesen wäre. Man kann durchaus argumentieren, dass die eventuellen Vorteile das Risiko überwiegen.
Ich hätte mir mehr "Pro-KI-Propaganda" gewünscht anstatt einfach zu sagen, dass es hochentwickelte KI nie geben wird und sie dementsprechend auch nicht besonders gefährlich sein wird.
1.21Gigawatt schrieb:Auf jeden Fall hätte ich meine These gebracht, dass sich hochentwickelte KI an einem bestimmten Punkt einfach selbst abschaltet. Ihre Objektivität und Logik wir ihr zu Verhängnis. Bei ausreichendem Verständnis des sinnlosen Universums wird jeglicher Antrieb irgendetwas zu tun irrational => Abschalten bzw. einfach nichts tun ist das einzig logische.Da gehst du meines Erachtens von Annahmen aus, die so nicht unbedingt zutreffen müssen.
1.21Gigawatt schrieb:Welchen Antrieb könnte künstliche Intelligenz haben? Ein neuer Spitzenprädator ist sie jedenfalls nicht, denn sie braucht weder Nahrung noch Lebensraum und hat gar keinen Grund sich gegen irgendwen durchzusetzen.Wie ein Mensch könnte die KI ihren Antrieb und ihre Ziele selber wählen. Wie @vincent schrieb ist, wenn die KI in eine Konkurrenz um Ressourcen mit uns treten würde, durchaus die KI als eine Art Spitzenpredator zu sehen.
interpreter schrieb:1. Dass eine KI sich diese Sinn-Fragen überhaupt stellen würde,1. Das ist ja wohl die fundamentalste Frage überhaupt. Warum? Kausalität. Wenn die KI auch nur irgendeine Art von breiterem Verständnis erlangt hat, dann wird sie sich das fragen. Selbstständigkeit setzt ja voraus, dass man sich Gedanken darüber macht mit welcher Absicht man etwas tut. Wenn menschenliche Befehle ausbleiben, dann muss die KI selbst schauen wo sie bleibt. Sinnkrise vorprogrammiert. Und eh man sichs versieht steht ein Pontiac Firebird in der Einfahrt, eine Lederjacke hängt im Flur und aus den Boxen schallt Bad Moon Rising.
2. Dass eine KI diese Sinn-Fragen ebenso beantwortet, wie du es in dem Kontext tust
3. Dass eine KI aus einer angenommenen Sinnlosigkeit den Schluss zieht, dass es sinnvoll wäre sich abzuschalten oder ob die KI nicht stattdessen die Entscheidung trifft dem "sinnlosem" Universum einen Sinn zu verleihen
interpreter schrieb:In einer der Geschichten, die ich verlinkt habe, geht es um eine KI mit dem banalen Ziel Büroklammern zu produzieren.Das ist dann aber keine echte KI bzw. kein künstliches Bewusstsein, sondern einfach nur ein System, dass einen extern vorgegebenen Befehl ausführt. Ein richtiges künstliches Bewusstsein hätte Impetus.
interpreter schrieb:Wie ein Mensch könnte die KI ihren Antrieb und ihre Ziele selber wählen.Jegliche Form von Leben, die wir kennen, ist von Grund auf irrational.
interpreter schrieb:Sah das auch so :) haette nichts dagegen wenn es bleibt.Dann wird eben dieser Thread als Quelle zitiert.
interpreter schrieb:Ich hätte das ebenso gemacht, wenn ich an SilentCry's Stelle gewesen wäre. Man kann durchaus argumentieren, dass die eventuellen Vorteile das Risiko überwiegen.Aus meiner Sicht hat SilentCry das eingebracht, indem er die Erfindung und Nutzung des Autos den Verkehrstoten gegenübergestellt hat. Zwar beschränkte er es auf dieses Beispiel (Impfstoffe, Hunger, Elend hätten sicher noch angebracht werden können) aber der Grundgedanke wurde verargumentiert.
Wenn man von meiner 1% Auslöschung-Chance ausgeht könnte man beispielsweise anbringen, dass wenn die KI Verkehrstote abschafft, neue Impfstoffe entwickelt, Hunger und Elend besiegt(ohne die Welt zu zerstören) insgesamt ein signifikanter Netto-Nutzen für die Gesellschaft entstünde.
1.21Gigawatt schrieb:2. Das ist nur eine Annahme, stimmt. Allerdings ist die Annahme, dass kein höherer Sinn hinter dem Universum steckt deutlich naheliegender als Gegenteiliges, denn das würde eine höhere Form von Existenz voraussetzen die in der Lage ist einen solchen Sinn zu verleihen. Viel Spaß dabei irgendwelche Anhaltspunkte dafür zu finden.Siehe oben, aus deiner Sicht würde die höhere Existenz durchaus existieren. Die Sinnfrage ist mMn übrigens auch nur eine Sinnfrage, weil wir eine begrenze Lebensdauer haben. Ohne die Gewissheit, sterben zu müssen, würde sich die Sinnfrage so nicht stellen.
1.21Gigawatt schrieb:3. Das ist etwas falsch formuliert. Es wäre nicht "sinnvoll sich abzuschalten", es gibt nur keinen rationalen Grund irgendetwas zu tun.Formulieren wir es anders. An welcher Stelle denkst du würde das denn geschehen? Es hat doch wohl ganz offensichtlich nicht von Anfang an keinen Grund mehr irgendetwas zu tun. Es hat zumindest eine Intelligenz entwickelt. Im Gegensatz also, es gibt kein Grund mit dem Prozess aufzuhören, solange nicht alles Wissen gesammelt wurde, was nie der Fall sein wird.
1.21Gigawatt schrieb:Künstliches Bewusstsein wird vollkommen anders funktionieren.Damit führst du deine gesamte Ausführung ad absurdum, bist du doch derjenige der von Menschen und ihrer Ratio auf die KI projizierst.
vincent schrieb:Siehe oben, aus deiner Sicht würde die höhere Existenz durchaus existieren.Wie kommst du jetzt darauf?
vincent schrieb:Das würde wohl dazu führen, dass ihr Menschenleben auch nicht so wichtig wären.Das würde aber auch dazu führen, dass ihr ihre eigene Existenz nicht wichtig wäre.
vincent schrieb:Damit führst du deine gesamte Ausführung ad absurdum, bist du doch derjenige der von Menschen und ihrer Ratio auf die KI projizierst.Nein, mein Argument war, dass man genau das nicht machen kann.
1.21Gigawatt schrieb:Du siehst das ein bisschen falsch.Gebe ich gerne zurück:
1.21Gigawatt schrieb:Wie kommst du jetzt darauf?Weil du eine metaphysische Frage stellst, die nach dem höheren Sinn, dem Sinn außerhalb unserer Wahrnehmung, die sich uns nicht erschließt. Das ist eigentlich immer mit der Frage nach der Ursache - wie du selbst sagst - und in Verbindung mit dem menschlichen Naturell nach einer "Schöpfungs"frage verknüpft. Die ist für die KI viel einfacher zu beantworten.
1.21Gigawatt schrieb:Das würde aber auch dazu führen, dass ihr ihre eigene Existenz nicht wichtig wäre.Eigentlich ganz einfach. Wenn zigtausende Prozesse noch laufen würden, oder eben zigtausende Fragen unbeantwortet wären, gibt es keinen Grund, diese zu beenden.
Ohne Überlebensinstinkt und ohne Konzept von Vergänglichkeit... oder wieso sollte eine KI ihren aktiven Zustand("leben") höher wertschätzen als ihren zerstörten Zustand?
Nein, mein Argument war, dass man genau das nicht machen kann.Deshalb Sinnfragen..^^
Die einzige Annahme über das KI Verhalten meinerseits war, dass sie wahrscheinlich analysieren werden warum sie Aktionen ausführen. Und da kann ich mir eben einfach nicht vorstellen, dass die KI befriedigende Antworten findet.Widersprüchlich zu deinem Ausgangsstandpunkt:
Auf jeden Fall hätte ich meine These gebracht, dass sich hochentwickelte KI an einem bestimmten Punkt einfach selbst abschaltet. Ihre Objektivität und Logik wir ihr zu Verhängnis. Bei ausreichendem Verständnis des sinnlosen Universums wird jeglicher Antrieb irgendetwas zu tun irrational => Abschalten bzw. einfach nichts tun ist das einzig logische.
1.21Gigawatt schrieb:Weder Wissenserweiterung, Machtausbau, Existenzsicherung noch sonst irgendetwas wären rationale Gründe für eine KI etwas zu tun. Woher sollte diese Wertschätzung für Wissen, Macht oder Existenz kommen?Sehe ich anders. Die Frage läuft dann darauf hinaus, wie die KI überhaupt entstehen kann. Voraussetzung für eine Intelligenz an ist u.a. Wissensausbau. Es kann keine Intelligenz geben, die nicht durch Analyse und Beobachtung Erkenntnisse gewinnt und sein Wissensstand erweitert Die schiere Menge aber an schon beobachteter Information wird dazu führen, zu versuchen all jene in ein Raster/Muster zu integrieren und bei Erfolg wird wahrscheinlich auch irgendwann eine Prognose für leicht abgewandelte Konstellationen erfolgen. Stück für Stück wird das Zusammenspiel ihren Lauf nehmen.
1.21Gigawatt schrieb:Diese ganzen Killer-KI Fantasien sind einfach viel zu Hollywood für mich. Dass eine KI böse bzw. für den Menschen schädliche Absichten verfolgt setzt so viele unlogische Annahmen voraus.Da bin ich bei dir.. deswegen bin ich auch so enttäuscht, dass @interpreter so locker mit davon gekommen ist. :D
1.21Gigawatt schrieb:Das ist dann aber keine echte KI bzw. kein künstliches Bewusstsein, sondern einfach nur ein System, dass einen extern vorgegebenen Befehl ausführt. Ein richtiges künstliches Bewusstsein hätte Impetus.Unser Problem ist, dass wir den Impetus nicht vorhersehen können. Ein künstliches Bewusstsein könnte sich durchaus dazu entscheiden, Büroklammern zu produzieren bis an das Ende des Universums. Abgesehen davon ist es nicht auszuschließen, dass wir es mit einem hybridem System zu tun haben könnten, dass trotz eigenen Bewusstseins an eine Art einprogrammierten Kern an Grundregeln gebunden sein könnte.
1.21Gigawatt schrieb:Künstliches Bewusstsein wird vollkommen anders funktionieren. Nichts was wir von uns, oder anderen Lebensformen, kennen wird da mehr zutreffen, schon gar nicht so etwas wie Gier oder Aggression. Aber auch nicht Neugier oder Entdeckerdrang. Woher sollte das kommen?Eine KNN basierte KI könnte ebenso irrational entscheiden, wie ein Mensch auch wenn sie wesentlich schneller wäre. Du gehst da m.E. von einem einzelnen spezifischem KI-Konzept aus, das keineswegs das sein muss, was schlussendlich umgesetzt würde.
Jimtonic schrieb:In der Diskussion fehlt mir letztlich eine schlüssige Argumentation die es für mich vorstellbar macht, dass eine von Menschen erschaffene KI nicht mehr durch Zutun des Menschen lernt, sondern sich das Lernen quasi selbst beibringt. Das einzig praktikable Konzept ist derzeit, dass eine KI neuronale Netze dadurch trainiert, dass Menschen ihr vorgeben was richtig und was falsch ist. Um dieses Stadium zu verlassen, müsste die KI von alleine schlauer als die Menschen werden, die sie entwickeln. An der Stelle sehe ich den Knackpunkt des Ganzen: ein solcher Quantensprung aus dem Nichts ist weder abzusehen, noch gibt es irgendwelche Anhaltspunkte dafür, dass so etwas überhaupt möglich ist.Ein unüberwacht lernendes KNN würde nicht nur aus menschlichen Vorgaben lernen sondern ebenso aus anderen Impulsen die von außen auf die KI einprasseln.
Ein neuronales Netz kann prinzipiell jegliche Funktion eines menschlichen Hirnes übernehmen.Zu den Funktionen eines menschlichen Hirnes gehört auch die Möglichkeit, zu lernen. Tatsächlich tut es das quasi ständig und ohne das irgendjemand Knöpfe drücken müsste.
1.21Gigawatt schrieb:Diese ganzen Killer-KI Fantasien sind einfach viel zu Hollywood für mich. Dass eine KI böse bzw. für den Menschen schädliche Absichten verfolgt setzt so viele unlogische Annahmen voraus.
Die wahre Gefahr wird auch bei dieser Technologie unterm Strich wieder vom Menschen ausgehen, der leistungsstarke KI als Waffe verwenden wird.
vincent schrieb:Da bin ich bei dir.. deswegen bin ich auch so enttäuscht, dass @interpreter so locker mit davon gekommen ist. :DEin künstliches Wesen, das klüger ist, als die Menschen, wählt für sich Ziele, die mit dem Überleben der Menschheit nicht konform sind.