Philosophie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Autonomes fahren - Wie muss man es programmieren?

61 Beiträge ▪ Schlüsselwörter: Auto, Autonomes Fahren ▪ Abonnieren: Feed E-Mail

Autonomes fahren - Wie muss man es programmieren?

05.07.2016 um 06:21
Zitat von AszneeAsznee schrieb:Die Diskussion ist ja, ob es dem Fahrzeug egal sein sollte oder nicht und nicht, dass es dem Fahrzeug schon komplett egal ist.
Ok, dann leg doch mal dar, warum es nicht egal sein sollte? Ich meine bis auf ein paar Ausnahmen (Vögel, kleine Tiere wie Katzen oder Hasen usw.) versuche ich auch den Unfall zu vermeiden, egal was da so auf der Straße ist. Ich sehe da kein großes Abstufungspotentzial was man noch einrichten müsste.
Zitat von AszneeAsznee schrieb:Hier ist doch aber das Problem des Dilemmas: Ein Unfall wird vermieden, durch die Vermeidung wird aber ein anderer Unfall erzeugt. Also führt es wieder zum Unfall.
Ich halte das eher für ein theoretisches Problem, das in der Praxis kaum bis gar keine Auswirkungen hat. Hat es ja heute im Straßenverkehr auch nicht.
Zitat von Mr.StielzMr.Stielz schrieb:Der tödliche Unfall mit LKW erschüttert meine Erwartungen jedenfalls nicht.
Meine auch nicht. Genausowenig wie abstürzende Flugzeuge mein Vertrauen in die Luftfahrt erschüttern.


1x zitiertmelden

Autonomes fahren - Wie muss man es programmieren?

05.07.2016 um 09:03
Zitat von aeroaero schrieb:Warum ?
Um plastisch dar zu stellen, dass auch Du in einer Zeit aufgewachsen bist, in der man nur einen sehr kleinen Teil selber machen konnte. Heute ist es eben noch etwas weniger geworden. Aber grundsätzlich waren die meisten Dinge, mit denen man in Kontakt kam, auch vor 50 Jahren eine "Blackbox".

Ich wollte nur aufzeigen, dass wir schon seit langem eine Spezialisierung erreicht haben und die letzten Jahre diesen Trend nur fort setzen und keinen neuen Trend begründen.


melden

Autonomes fahren - Wie muss man es programmieren?

05.07.2016 um 15:30
Zitat von McMurdoMcMurdo schrieb:Ok, dann leg doch mal dar, warum es nicht egal sein sollte?
Das ist ja der Kern des moralischen Dilemmas...
Zitat von McMurdoMcMurdo schrieb:Ich meine bis auf ein paar Ausnahmen (Vögel, kleine Tiere wie Katzen oder Hasen usw.) versuche ich auch den Unfall zu vermeiden, egal was da so auf der Straße ist.
Es geht um die Situation, zwischen genau 2 Unfallmöglichkeiten schnell entscheiden zu müssen. Dass diese Situation nicht oft vorkommen wird ist klar, allerdings ist sie diskussionswürdig. Die Situation ist, wie gesagt: Unfall A wird vermieden, dadurch wird zwangsweise Unfall B erzeugt.

Als Normalfahrer wird man in dieser Situation Unfall A natürlich sofort verhindern wollen, ja, eventuell wird man dann Unfall B gar nicht in Betracht ziehen, trotzdem würde es passieren. Nun muss man aber diskutieren, ob man bei einem autom. Auto diese Situation berücksichtigen will oder nicht, da man es bewusst programmiert. Deine Meinung ist nicht berücksichtigen, da wir es derzeit auch nicht berücksichtigen. Meine Meinung ist unentschlossen, da es die Lösung eines moralischen Dilemmas benötigt oder dem, so wie es deine Lösung tut, aus dem Weg geht.
Zitat von McMurdoMcMurdo schrieb:Ich halte das eher für ein theoretisches Problem, das in der Praxis kaum bis gar keine Auswirkungen hat. Hat es ja heute im Straßenverkehr auch nicht.
Es ist auch ein theoretisches Problem und das wir uns mit nicht automatischen Autos auch nicht darauf einstellen, ist auch richtig. Zumal so eine Situation eher selten ist. Aber ein automatisch. Auto muss dementsprechend programmiert sein, dass heißt, man müsste sich eigentlich damit auseinandersetzen. Nur sind die autom. Autos so programmiert, dass sie Unfall A immer vermeiden werden. (Eigentlich sind wir von der Technik nicht viel weiter, vielleicht wird dann dieses Dilemma ein Thema in diesem Bereich)


1x zitiertmelden

Autonomes fahren - Wie muss man es programmieren?

05.07.2016 um 19:56
Zitat von AszneeAsznee schrieb:Es geht um die Situation, zwischen genau 2 Unfallmöglichkeiten schnell entscheiden zu müssen. Dass diese Situation nicht oft vorkommen wird ist klar, allerdings ist sie diskussionswürdig.
Sicherlich kann man darüber diskutieren. Meine Position kennst du ja schon.
1. Bring mich von A nach B.
2. Vermeide Unfälle
3. Lässt sich ein Unfall nicht vermeiden wähle die Option die voraussichtlich am wenigsten Schaden anrichtet.

Damit löst sich das Dilemma quasi schon auf.
Zitat von AszneeAsznee schrieb:Meine Meinung ist unentschlossen, da es die Lösung eines moralischen Dilemmas benötigt oder dem, so wie es deine Lösung tut, aus dem Weg geht.
Ja ich sehe es so, das ein Dilemma eben keine zufriedenstellende Lösung kennt, sonst wäre es ja kein Dilemma. Von daher verstehe ich nicht wie du es denn nun angehen willst dieses Problem. Wenn es keine Lösung gibt sollte es auch nicht berücksichtigt werden,
Zitat von AszneeAsznee schrieb:Aber ein automatisch. Auto muss dementsprechend programmiert sein, dass heißt, man müsste sich eigentlich damit auseinandersetzen.
Das verstehe ich jetzt auch nicht so ganz. Warum muss man sich damit auseinandersetzen nur weil ich den Fahrer des Fahrzeugs austausche?


1x zitiertmelden

Autonomes fahren - Wie muss man es programmieren?

06.07.2016 um 14:56
@McMurdo
Zitat von McMurdoMcMurdo schrieb:Damit löst sich das Dilemma quasi schon auf.
Das Dilemma im menschlich moralischen Sinn löst sich nicht auf und wird auch nicht gelöst, allerdings ist dies die gängige Einstellung dazu, wobei der Punkt mit der am wenigsten Schaden anrichtenden Option eben eine Lösungsannäherung des moralischen Dilemmas ist, wozu eben als Beispiel Lebewesen messende Sensoren benutzt werden könnten. Also ist damit eine Auseinandersetzung mit dem Problem stattgefunden.
Zitat von McMurdoMcMurdo schrieb:Das verstehe ich jetzt auch nicht so ganz. Warum muss man sich damit auseinandersetzen nur weil ich den Fahrer des Fahrzeugs austausche?
Es gibt hierbei zwei Möglichkeiten der Programmierung:
Die erste passt eher zu deiner Sicht und wird heute auch so gemacht: Wagen wird so programmiert, dass es Unfälle, z.B. Kollisionen aus dem weg geht - ob dabei wahrscheinlich ein anderer Unfall erzeugt werden kann, ist egal bzw. wird nicht berechnet (kann auch zurzeit nicht berechnet werden). Dies ist gängig und eben auch praktisch und gut realisierbar.
Punkt 2 wäre: Das Unternehmen weiß halt über das moralische Dilemma Bescheid und will nun produzieren, werden sie dieses moralische Dilemma in der Produktion in Betracht ziehen und bestimmte Lösungen finden (Sensoren, die die Lebewesen messen als Beispiel) oder einfach die gängige Methode, jeden Unfall aus dem Weg zu gehen, ohne zusätzliche Sensoren für das moralische Dilemma, verwenden?

Es wäre allerdings halt keine Pflicht, sich damit auseinanderzusetzen, da es normale Autofahrer auch nicht tun. Nur zu normalen Autofahrern könnte man autom. Autos in Zukunft nahezu perfekt programmieren und gerade wenn man das machen könnte, müsste man doch alle Gefahren oder sonstiges beseitigen wollen und dazu gehört eben dieses moralische Dilemma. Wenn man einen Roboter als Chirurg programmiert, würde man keine menschlichen Eigenschaften oder Fehler mit programmieren.


melden
aero ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Autonomes fahren - Wie muss man es programmieren?

07.07.2016 um 15:46
Ein weiterer unfall mit einem tesla-auto.
Wieder Unfall mit Tesla-Elektroauto


Innerhalb einer Woche ist es zum zweiten Unfall mit einem Wagen des Elektroautoherstellers Tesla gekommen. Die Verkehrssicherheitsbehörde prüft einen Zusammenhang mit der Autopilotfunktion.
Allerdings ohne einen todesfall.

http://www.faz.net/aktuell/wirtschaft/neue-mobilitaet/verkehrssicherheitsbehoerde-untersucht-zweiten-unfall-mit-tesla-elektroauto-14328280.html


melden
aero ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Autonomes fahren - Wie muss man es programmieren?

07.07.2016 um 15:52
Inzwischen gibt es auch schwere vorfürfe gegen den chef von tesla.
Vergangene Woche macht ein tödlicher Unfall mit einem Tesla aus dem März dieses Jahres Schlagzeilen. Der Fahrer hatte offenbar dem Autopiloten vertraut. Nun setzen schwere Vorwürfe Firmengründer Elon Musk unter Druck.
http://www.n-tv.de/mediathek/videos/wirtschaft/Nutzte-Musk-sein-Insiderwissen-fuer-Aktienverkauf-article18138116.html


melden
aero ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Autonomes fahren - Wie muss man es programmieren?

01.09.2016 um 16:24
Eine meldung die gerade weltweit durch die medien geht.

Auf "cape canaveral" ist eine rakete explodiert, die einen satelliten für facebook in den weltraum transportieren sollte.

Es ist ein projekt von Tesla-chef Elon Musk.
Das private Raumfahrtunternehmen SpaceX wurde mit dem Ziel gegründet, Technologien zur Kolonisierung des Mars durch die Menschheit zu entwickeln. Gründer, Haupteigentümer und CEO ist Elon Musk.

SpaceX hatte im Juli einen Raumfrachter zur Internationalen Raumstation (ISS) geschickt.
http://www.focus.de/panorama/welt/unglueck-in-florida-spacex-rakete-explodiert-auf-startrampe-in-cape-canaveral_id_5887730.html

http://www.spiegel.de/wissenschaft/weltall/cape-canaveral-spacex-rakete-explodiert-beim-start-a-1110500.html


melden

Autonomes fahren - Wie muss man es programmieren?

01.09.2016 um 17:30
http://moralmachine.mit.edu/

Ein sehr interessanter Link zu den vorhergehenden moralischen Fragen. Start judging und man kann selbst entscheiden, sieht auch wie vielfältig das Ganze ist. Es gibt alte und junge Menschen, Tiere, Krimininelle, außerdem wird geachtet das z.B. manche über Rot gehen, andere bei Grün.

Fand ich ziemlich gut gemacht.

Zu den Links von @aero :
Es kommen immer mehr Leute die Unfälle haben. Gleichzeitig haben immer mehr Leute diese Autos. Statistisch sind sie wohl noch sicherer ...

Meiner Meinung nach, kann automatisiertes selbstständiges Fahren nur funktionieren, wenn ALLE Autos das haben und ggf miteinander kommunizieren können (Zb Motorschaden bei dem einen, alle im Umkreis "wissen" das, können reagieren). Dann sind unvorhersehbare Fahrfehler die Menschen nun mal tun ausgeschlossen. Muss man nur noch die Gefahr "Mensch rennt auf Straße" eliminieren..... Evtl Autobahnen nur für Selbstfahrende Autos .... abgeschirmt vom Rest ...


melden
aero ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Autonomes fahren - Wie muss man es programmieren?

01.09.2016 um 17:38
@equilly

Ich persönlich glaube das noch einiges an lehrgeld und hoffentlich nicht menschenleben zu bezahlen ist, bevor diese technik eine globale reife erlangt hat.


1x zitiertmelden

Autonomes fahren - Wie muss man es programmieren?

01.09.2016 um 18:07
Zitat von aeroaero schrieb:Ich persönlich glaube das noch einiges an lehrgeld und hoffentlich nicht menschenleben zu bezahlen ist, bevor diese technik eine globale reife erlangt hat.
Das glaube ich auch. Wird diese Technologie aber auch nicht aufhalten. So wenig wie Tote die Eisenbahn, das Auto und das Flugzeug aufgehalten haben.


melden

Autonomes fahren - Wie muss man es programmieren?

02.09.2016 um 16:28
Zitat von FluxusFluxus schrieb am 03.11.2015:Auf einmal rennt eine Gruppe von vier Menschen über den Weg ohne auf mögliche Fahrzeuge zu achten. Ein Zusammenstoß ist quasi vorprogrammiert. Das Auto könnte nur auf einen Seitenweg ausweichen auf dem aber ein Mann steht. Soll das Auto in die Gruppe fahren oder den Mann mitnehmen?
Bin ich jetzt unmoralisch wenn ich sagen würde, in so einem Fall hat der UNSCHULDIGE Vorrang gebenüber denen, die durch ihre AKTION überhaupt die Situation schaffen?


melden

Autonomes fahren - Wie muss man es programmieren?

02.09.2016 um 18:04
I just took the Moral Machine test of how I perceive life-or-death decisions made by future self-driving cars. See how I did at this link: http://moralmachine.mit.edu/results/-1255872418


melden

Autonomes fahren - Wie muss man es programmieren?

02.09.2016 um 18:24
@equilly
Hab den Test jetzt ein paar mal gemacht. Und zwar immer mit der Prämisse "Insassen des Autos auf jedenfall retten" und "nicht ausweichen wenn dadurch die Insassen nicht gerettet werden".
Ich stellte fest, das sich der Test immer verändert. Es kann also in einem Durchgang so sein das ich durch diese 2 Prämissen entweder mehr alte als junge Menschen oder mehr dicke als dünne rette oder andersrum. Oder das meine Präferenz bei mehr Menschen retten als weniger liegt usw.

Im statistischen Mittel gehe ich also davon aus das sich die Zahl der getöteten irgendwie angleichen wird. Wenn das so ist, dann braucht es meiner Meinung nach keiner Moral im auto die solche Sachen bewertet.


melden

Autonomes fahren - Wie muss man es programmieren?

03.09.2016 um 08:09
Zum EP:
Es ist ein Szenario was eher noch in der Zukunft liegt, aus technischer Sicht geht das noch nicht.
Ich durfte die Bosch Stereokamera (S-Klasse) samt Lidar/Radar aus SDK Sicht testen, es erkennt Personen und legt einen Rahmen drum rum und versucht die Bewegung(Trajektorie) zu erahnen und somit der zeitliche Verlauf und Schnittpunkt (mögliche Kollision) vorauszusagen.
Die Personengröße ist nicht eindeutig herzuleiten, es erkennt nicht Kind oder Erwachsener.

Das Auto fährt, zwei Objekte tauchen auf und kreuzen die Bahn, es leitet eine maximale Bremse ein und zwar um nicht mit dem nähersten Objekt zu kollidieren, das Zweite (entfernteste) wird nicht berücksichtigt, daher wird aktuell keine Entscheidung getroffen.
Bei den Tests in der Innenstand habe ich zu keiner Zeit zwei oder mehrere Objekte gefunden wo eine Entscheidung notwendig gewesen wäre, daher gehe ich davon aus dass dieser Zustand eher nie eintrifft (hat nur statistische Natur).

Wir haben auch über dieses Problem gequatscht, wir waren uns dann einig, dass aus rechtlicher Sicht die beste Entscheidung wäre, Spur halten, maximale Bremse.
Es gilt zwar:
Das Sichtfahrgebot verlangt, dass man stets nur so schnell fährt, dass man in der Lage ist, das Fahrzeug jederzeit innerhalb der sichtbaren Fahrstrecke anzuhalten.
...da steht nichts von Ausweichen, und da ist das Ganze auch nochmals präzisiert:
KG Berlin v. 18.09.2010:
Das Sichtfahrgebot (§ 3 Abs. 1 Satz 2 StVO) bezieht sich nur auf Hindernisse, die ein Kraftfahrer in der konkreten Situation in Rechnung stellen muss; es gilt nicht für plötzlich von der Seite auf die Fahrbahn gelangende Hindernisse, sondern betrifft die Sicht vor dem Fahrzeug. Ohne konkreten Anlass muss der Kraftfahrer seine Geschwindigkeit nicht darauf einstellen, dass ein Fußgänger plötzlich von der Seite auf der Fahrbahn treten könnte.
Trotzdem ist das System als Zugewinn für die Sicherheit aller zu bewerten, weil es eben diese Kollisionen sehr gut vorausberechnet und Vieles macht, was der Fahrer nicht macht wenn eine Kollision droht:
- es geht unmerklich vom Gas
- es legt die Bremsen schon an
Feine Sachen kann ich nur sagen, speziell nachts war ich überrascht was es alles erkennt und berücksichtigt.

Sollte die Entwicklung so weiter gehen, bin ich mir sicher dass es nicht zwischen zwei Personen entscheidet, sondern die Lücke während der maximalen Bremse sucht.


melden

Autonomes fahren - Wie muss man es programmieren?

11.09.2016 um 19:22
Die Technik ist längst schon so weit, daß wir bei sofortiger Einführung die Unfallzahlen und Unfalltoten um 70, 80, 90 % innerhalb einer Autogeneration senken könnten. Das Problem sind in der Tat die rechtlichen und ethischen Fragen.
Und je weiter die Technik voranschreitet desto größer werden die ethischen Fragen.
An dieser Stelle stellt sich nun die Frage: Sollten wir das Selbstfahrsystem nicht SOFORT einführen und 80 % aller Verkehrstoten das Leben retten ? Und die offenen ethischen und rechtlichen Fragen (vorläufig) schlicht per Zufallsgenerator entscheiden?


1x zitiertmelden

Autonomes fahren - Wie muss man es programmieren?

12.09.2016 um 10:44
Wie sähe das eigentlich rechtlich aus? Ist der Fahrer für den Autopilot verantwortlich? Und wenn ein eindeutiger technischer Mangel, z.B. An den Sensoren vorhanden ist und dadurch ein Unfall entsteht wer haftet dann?

Ich bin der ganzen Sache noch ziemlich ambivalent eingestellt.


1x zitiertmelden

Autonomes fahren - Wie muss man es programmieren?

12.09.2016 um 14:23
Zitat von schtabeaschtabea schrieb:An dieser Stelle stellt sich nun die Frage: Sollten wir das Selbstfahrsystem nicht SOFORT einführen und 80 % aller Verkehrstoten das Leben retten ? Und die offenen ethischen und rechtlichen Fragen (vorläufig) schlicht per Zufallsgenerator entscheiden?
Das wäre eine rational richtige Entscheidung und für rein rational handelnde Wesen sicherlich auch die einzig richtige.
Aber Menschen handeln und denken auch emotional und da ist es nicht mehr so einfach. Die Rechnung lautet auch nicht:
x Verkehrstote, davon y weniger mit der Automatik. Sondern es gäbe u.U. andere Tote, die bei Nichtnutzung des Systems nicht gestorben wären.
Eine reine Aufsummierung von Leben entspricht aber nicht unserer Vorstellung von Gerechtigkeit.
Zitat von abunchofcatsabunchofcats schrieb:Ist der Fahrer für den Autopilot verantwortlich? Und wenn ein eindeutiger technischer Mangel, z.B. An den Sensoren vorhanden ist und dadurch ein Unfall entsteht wer haftet dann?
Es haftet derjenige, der schuldhaft handelt (weil er die Wartung oder Kontrolle schuldhaft versäumt hat) bzw. derjenige zu einem gewissen Grad, der eine Gefahr begründet (weil er 2 Tonnen Stahl durch die Gegend bewegt).

Also so wie jetzt. Wenn die Bremsen versagen, haftet ggf. der Fahrer, der Halter, der Hersteller oder auch keiner. Je nach Fallgestaltung.


melden

Autonomes fahren - Wie muss man es programmieren?

25.09.2016 um 16:55
@kleinundgrün

Ja richtig, wir würden die Verkehrstoten deutlich mindern aber es würden auch ein paar Menschen sterben, die nach jetziger Verkehrsregelung nicht sterben würden. Nur aber ist ja der Autoverkehr den wir jetzt bereits haben nichts Naturgegebenes sondern von Menschen gemacht. Das heißt die Mehrheit der Autofahrer nimmt sich das Recht heraus, das Leben der Nicht-Autofahrer zu gefährden. Und der Nicht-Autofahrer ist auch noch Schuld am eigenen Tod, wenn er sich nicht an die von den Autofahrern gemachten Regeln gehalten hat.


melden

Autonomes fahren - Wie muss man es programmieren?

26.09.2016 um 11:03
@schtabea
Deine Argumente sind richtig - aus einer rationalen Sicht.

Aber Menschen bewerten Risiken nicht rational. Ein Risiko, durch eine Bombe in der Münchner Innenstadt getötet zu werden, erscheint viel größer als das Risiko, an der selbe Stelle überfahren zu werden. Rational ist das nicht haltbar - die Angst ist aber dennoch real. Und das Angstniveau bestimmt letztlich, wie wohl oder unwohl wir uns fühlen.

Deswegen bleibt die Frage, wie wohl fühlen wir uns, wenn Maschinen darüber "entscheiden", wer stirbt. Zumindest Stand heute akzeptieren wir den Tod, verursacht durch andere Menschen, viel eher, als wenn er durch Maschinen verursacht wurde.
Möglicherweise ändert sich die Wahrnehmung im Laufe der Zeit, wenn wir uns daran gewöhnen, dass auch Maschinen aktiv Tode verursachen können (also im Sinne, dass sie "entscheiden", eine bestimmte Handlung auszuführen oder zu unterlassen).


1x zitiertmelden