@frivol Nur mal so ein paar Beispiele, warum der Artikel ein Kandidat für die goldene Zwangsjacke wäre:
Ich bin weder Autofachmann noch IT-Experte und auch kein Jurist, aber das Thema beschäftigt mich wie viele andere auch. Bemerkenswert fand ich eine Empfehlung des Schweizer Informatikers und Philosophen Oliver Bendel, „das Auto relativ dumm zu lassen und autonomes Fahren nur in abgetrennten Bereichen wie der Autobahn zu erlauben“. Vielleicht handelt es sich hier um ein „echtes“ Problem im Sinne von Murphy. Echte Murphy-Probleme sind solche, für die es keine Lösung gibt. Meine Erfahrung aus Dutzenden Projekten ist, dass Techniker nicht immer erkennen, wo der Hase wirklich im Pfeffer liegt.
Ja geil, ein vernünftiger Mensch würde hier aufhören, den Artikel zu schreiben: der Autor gibt an, keinerlei relevante Kenntnisse zu besitzen, und vielleicht hat das Problem gar keine Lösung. Super, fertig, machen wir Feierabend, der Stift soll ne Kiste Bier holen, jawollingen. Stattdessen lernen wir, dass "Erfahrung" aus "Projekten" viel wichtiger als Kompetenz ist, denn Kompetenz verstellt den Blick auf den Hasenpfeffer oder so ähnlich...
In der Ethikkommission, so Kagermann, sei „relativ unumstritten“, dass Sachschäden immer Personenschäden vorgezogen werden müssten. Dieses Prinzip dürfte in der Gesellschaft kaum auf Widerspruch treffen. Doch bei der Umsetzung können gravierende Probleme auftreten. Die weit überwiegende Mehrzahl der Unfallsituationen dürfte eine klare Trennung von Sach- und Personenschaden nicht zulassen. Allein schon diese vergleichsweise harmlose Grauzone deutet auf ein Grundproblem hin, nämlich dass es äußerst schwer werden dürfte, allgemeingültige Prinzipien aufzustellen
Ja mei, das ist tatsächlich ein allgemeines Prinzip!
Davon jetzt aber abzuleiten, dass KI-Autos einfach Unfälle vermeiden sollen und wenn Unfälle unvermeidbar sind deren Schwere so weit es geht reduzieren sollen, wäre ja zu einfach und praktisch - da wäre ja die teuere Kommission arbeitslos und der Herr Autor hätte nichts zu schreiben, wir brauchen noch mehr Zeilenhonorar, also hussa, ans schwachsinnige Werk!
Das zeigt sich drastisch beim zweiten Prinzip, das in der Kommission diskutiert wird. Kagermann beschreibt es wie folgt: „Das Auto muss im Zweifel den Fußgänger schützen und nicht den Insassen des Fahrzeugs.“ Für meine folgende Argumentation unterstelle ich den optimistischen Fall, dass das Auto tatsächlich alle Informationen besitzt, also genau erkennen kann, wer gefährdet ist und welches die Konsequenzen einer bestimmten Aktion sind. Vermutlich ist das eine auf lange Sicht zu positive Annahme, wie der Tesla-Unfall zeigt, bei dem ein heller Lastwagen nicht vom hellen Himmel unterschieden wurde. Aber sei es drum, die Technik wird perfekter. Ich glaube nicht, dass autonomes Fahren an der Technik scheitern wird.
Erstmal brauchen wir sinnlose und ungerechtfertigte Annahmen über das "Wissen" des Autos, sonst stellen sich unsere scheinkomplexen Fragestellungen gar nicht, denn dann landen wir bei der Schlussfolgerung aus dem vorherigen Absatz. Deswegen unterstellen wir einfach mal wie die gehirnarmen Idioten, die wir sind, dass das Auto irgendwie (woher) weiß dass im Bus A 24 Hospizpatienten sitzen und die Lenkerin von Liegerad B schwanger ist, obwohl ein echtes KI-Auto das unmöglich wissen kann. Weil es uns geil macht! Technisch tatsächlich existierende Probleme hingegen hauen wir mit einem Nebensatz weg, die stören beim Philosophieren.
Zurück zum zweiten Prinzip: Nehmen wir als Gedankenmodell an, dass der Fußgänger ein Neunzigjähriger mit schlechter Gesundheit ist (das Auto wisse das!) und die Insassen des Autos drei Kinder im Alter von zehn Jahren sind. Das Auto fahre mit hoher Geschwindigkeit, und es gäbe nur die Alternative, den neunzigjährigen Fußgänger zu überfahren oder die drei Kinder durch den Aufprall gegen den Baum zu Tode zu bringen. Dem Prinzip zufolge müsste das Programm das Auto gegen den Baum steuern. Dieses Gedankenbeispiel zeigt, dass das zweite Prinzip zu absurden Konsequenzen führt.
Nein, das Beispiel zeigt dass der Autor retardiert ist.
Eine tiefergehende Frage ist folgende: Wie entscheidet ein menschlicher Fahrer in einer solchen Situation? Die Antwort: niemand weiß das, selbst der Fahrer weiß es nicht. Er hat nämlich keine Zeit, langwierige, bewusste Abwägungen zu treffen, er wird instinktiv entscheiden. Zu vermuten ist, dass er typischerweise sein eigenes Leben und das seiner mitfahrenden Angehörigen schützen wird. Im Nachhinein muss dann ein Gericht über Schuld oder Unschuld urteilen. Widerspricht das obige zweite Prinzip somit nicht dem „normalen“ menschlichen Verhalten, und was bedeutet das?
Es bedeutet, dass man nach dem ersten Absatz hätte aufhören sollen.
Nach dem, was bisher berichtet wurde, lehnt es die Kommission ab, Menschenleben gegeneinander aufzurechnen, in den Worten Kagermanns: „Eine Quantifizierung von Menschenleben ist unzulässig.“ Er erläutert auch, dass ein Auto nicht automatisch das Szenario wählen sollte, bei dem nur ein Einzelner statt einer Gruppe getötet wird. Diese Frage bezeichnet er zu meiner Verwunderung als „sehr theoretisch“. Was ist daran theoretisch? Bei sehr vielen Verkehrsunfällen, bei denen Menschen zu Tode kommen, geht es um diese Frage, zum Beispiel um mehrere Insassen eines Fahrzeuges.
Dieser ganze Absatz dient nur dazu, praktisch irrelevante ethische Reißbrettprobleme zu bauen. Man kann da nämlich immer weiter spinnen, ohne dass es ein einziges praktisches Problem löst. Wir erinnern uns: das Auto weiß eben (außer über seine Insassen) über keine Menschen bescheid, kann daher auch nicht "werten" ob der verurteilte Mörder im Laster vor ihm oder das Kind, das der zweite Hitler wird, jetzt sterben muss. Weswegen *praktisch* nur übrig bleibt, den Unfall mit der geringsten Kraftentfaltung zu wählen.
Beim autonomen Fahren muss das Programm jede denkbare Situation antizipieren. Der reale Mensch tut das nicht, sondern entscheidet bewusst oder unbewusst in der akuten Situation. Wie kann ein Programm funktionieren, wenn ich Menschenleben nicht quantifiziere? Wie entscheidet das Programm, ob es das zehnjährige Kind (oder zwei zehnjährige Kinder) oder den Neunzigjährigen tötet?
Das ist das Kernstück der Verblödung.
Beim autonomen Fahren muss das Programm jede denkbare Situation antizipieren.
Es stimmt einfach nicht. Ein Fahrzeug muss im Wesentlichen seine Aktionen in einem annähern ovalen Raumstück, dessen Ausmaße durch die gegebene Geschwindigkeit bestimmt werden, überblicken, und sonst nichts. Von anderen Fahrzeugen muss es ebenfalls Fahr- und Lenkmanöver berücksichtigen, dann noch Hindernisse oder Störungen, und das war es dann. Wichtig ist nur, ob das Fahrzeug innerhalb dieser "Linse" Ausweichmanöver ausführen und gegebenfalls bis in den Stand herunter bremsen bzw. rechts ranfahren kann. Alles andere, ob am Horizont ein Vulkan ausbricht, ob im Innenraum gerade einer Sex hat oder ob ein Meteor vom Himmel fällt und gnädig den Autor erschlägt kann dem Auto vollkommen egal sein. Es muss fahren, ausweichen oder bremsen können, alles weitere sind Hilfsmittel, um genau das zu ermöglichen.
Es wird angedeutet, dass das Auto in solchen Lagen „auf seinem eingeschlagenen Kurs bleibt“. Doch auch das ist eine Entscheidung, die eine implizite Quantifizierung beinhaltet. Oder man lässt die Entscheidung durch einen Zufallsgenerator fällen, zum Beispiel in 50 Prozent der Fälle das Kind, in den anderen 50 Prozent den Neunzigjährigen zu überfahren. Kann das sinnvoll sein? Wählt man unterschiedliche Wahrscheinlichkeiten, etwa 80 Prozent für den Neunzigjährigen, so ist das zwangsläufig eine Quantifizierung menschlichen Lebens.
Man hört ständig, dass das autonome Fahren sicherer sei oder jedenfalls werde als das menschliche Fahren. Ich glaube an dieses Argument. Aber was ist mit folgender Analogie aus der Medizin: Ein neues Medikament rette nachweislich eine Million Leben, aber genauso werde eindeutig nachgewiesen, dass es tausend Menschen tötet. Mit dieser Sterberate hat das neue Arzneimittel keine Chance auf eine Zulassung. Kann dieses Schicksal auch dem autonomen Fahren widerfahren? Es erhöht objektiv die Verkehrssicherheit, und dennoch wird es gesellschaftlich nicht akzeptiert. Man braucht sich nur folgende Schlagzeile vorzustellen: „Autonomes Auto tötet drei Kinder.“
Nochmal eine irrelevante Lösung für ein real nicht existierendes Problem, garniert mit einem unpassenden Beispiel. Wir kommentieren das nicht weiter.
Bei den Entscheidungen, die das autonome Fahrsystem treffen muss, kann es um Leben oder Tod gehen. Auch bei Operationen kann diese Situation entstehen. Würde man einem Operationsroboter eine derart schwerwiegende Entscheidung überlassen? Oder müsste doch der Operateur entscheiden? Wie wäre es, um eine noch entferntere Analogie zu bemühen, bei der Entscheidung über ein Todesurteil?
Gegenargument: auch ein Sicherheitsgurt kann in beschissenen Umständen töten, rettet aber im Durchschnitt viel mehr Menschen, weil diese Umstände
sehr selten sind. Warum sollte das beim autonomen Fahren anders sein? Die beiden irrelevanten Fragestellungen, die nur dazu dienen, Ethiker und Philosophen unbedingt Relevanz für diese Frage zu verschaffen, malen wir grün an.
Irrelevanter Absatz ist irrelevant, daher übersprungen.
Wenn meine Überlegungen richtig sind, würde daraus folgen, dass sich die Bemühungen eher auf die Interaktion von Mensch und Maschine als auf das total autonome Fahren richten sollten. Sicherlich sind alle Arten von Assistenzsystemen, die die Fahrsicherheit erhöhen, äußerst sinnvoll, aber vielleicht muss man die letzte Entscheidung, wie in einer lebensgefährdenden Situation reagiert wird, dem Menschen überlassen.
Und schließlich kommt Captain Dödel zum blödsinnigsten aller Schlüsse: weil Autos sich in seinen realitätsfernen, herbeigekrampften Mickymausproblemen nicht so verhalten, wie er es für richtig hält, ist es völlig logisch, dass wir in Zukunft gerade in Sekundenentscheidungen, in denen ein autonomes System dem Menschen eindeutig überlegen ist, was Beherrschung der Technik und Überblick über die Situation angeht, die Entscheidung dem Menschen überlassen. Dann ist die Oma zwar auch tot, aber immerhin ethikkonform totgefahren.
Ja leck mich doch am Arsch, was ein Blödsinn.