buddel schrieb:und ich bin mir sicher, dass wir in dieser zeit ethikstandards vereinbaren, die autonome maschinen und drohnen ganz explizit unter die prämissen der asimov´schen gesetze der robotronik stellen.
Erstens gibt es schon teilweise und trotzdem folgen sie diesen nicht.
Roboter im militärischen Bereich (automatische Waffensysteme, Smart Bombs, Drohnen, Kampfroboter) folgen diesen Gesetzen nicht
Wikipedia: RobotergesetzeZweitens, wird es wohl auch nie die Notwendigkeit haben, denn in der Regel 1.) steht.
Ein Roboter darf kein menschliches Wesen (wissentlich[2]) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich[2]) Schaden zugefügt wird.
ergo, ein Roboter kann nie etwas "wissen", egal wie weit man forscht man wird durch Hardware/Software kein menschliches(-ähnliches) Bewusstsein herstellen können.
Also tut ein Roboter immer nur folgendes, mehr oder weniger: Sein Programm oder Befehle ablaufen.
Und Sensoreneingaben verarbeiten. (ist aber keinesfalls "wissen")
Daher würd ich es eher mehr als "Sicherheitsnormen" bezeichnen und keine Ethikstandards.