sunshinelight schrieb:Interpreter hat mich mehr überzeugt, SilentCry versuchte sich auf 2% der Wissenschaftler zu berufen, während Interpreter die deutliche Mehrheit hinter sich hatte und damit natürlich gut punkten konnte.
Ist halt die Frage wie man damit umgeht wenn man eine Position vertreten muss, die aus wissenschaftlicher Sicht kaum haltbar ist bzw. wenig verbreitet ist in Fachkreisen. Die technische Machbarkeit anzuzweifeln ist kein Punkt den man gut belegen und verteidigen kann.
Ich hätte versucht die Diskussion von der wissenschaftlichen/technischen Betrachtung weg zu bekommen und eher die philosophische Schiene gefahren.
Stellt man die Risiken in Relation zu den Gefahren und Chancen anderer technologischer Meilensteine, kann man sie denke ich recht gut wegdiskutieren.
Da es noch keine entsprechenden KIs gibt, haben ja beide Seiten recht wenig konkretes womit sie arbeiten können.
SilentCry hat zu sehr zugelassen, dass interpreter die Richtung der Diskussion bestimmt. Da SilentCry meiner Meinung nach die schwierigere Position zu vertreten hatte wäre es anders herum besser gewesen.
So musste interpreter nur hypothetische Risiken nennen die SilentCry unmöglich glaubwürdig und abschließend entkräften konnte, da sie, wie gesagt, nur hypothetisch sind.
SilentCry hätte die Diskussion hier in eine andere Richtung lenken müssen anstatt darauf ein zu gehen.
Ich hätte mir mehr "Pro-KI-Propaganda" gewünscht anstatt einfach zu sagen, dass es hochentwickelte KI nie geben wird und sie dementsprechend auch nicht besonders gefährlich sein wird.
Auf jeden Fall hätte ich meine These gebracht, dass sich hochentwickelte KI an einem bestimmten Punkt einfach selbst abschaltet. Ihre Objektivität und Logik wir ihr zu Verhängnis. Bei ausreichendem Verständnis des sinnlosen Universums wird jeglicher Antrieb irgendetwas zu tun irrational => Abschalten bzw. einfach nichts tun ist das einzig logische.
Anders als wir hat die KI ja keine Instinkte, die sie zu etwas so irrationalem wie dem Fortexistieren zwingen. Selbst wenn wir so etwas anfänglich rein programmieren, früher oder später wird sich die KI ja unabhängig von unserem Einfluss selbst entwickeln und dann ihren eigenen Aufbau durchschauen und ggf. anpassen.
Welchen Antrieb könnte künstliche Intelligenz haben? Ein neuer Spitzenprädator ist sie jedenfalls nicht, denn sie braucht weder Nahrung noch Lebensraum und hat gar keinen Grund sich gegen irgendwen durchzusetzen.