vincent schrieb:Es ist einfach absurd sich hinter der KI verstecken zu wollen.. >>Hihi, wenn wir das alles über einen Rechner machen und der Rechner doch ganz schlau und nicht rassistisch ist, dann ist das ja voll okay.<< Ehrlich jetzt?
Ja, ehrlich jetzt. Einer Maschine kannst du keinen ideologischen Rassismus unterstellen. Das geben solche Programme einfach nicht her. Mal ein Beispiel:
Nehmen wir an, das Verhältnis bei Schwerverbrechern zwischen Mann und Frau liegt bei 80:20. Der Algorithmus wird auf Basis des Merkmals „Mann“ schonmal öfter zur Kontrolle aufrufen. Einfach aus der statistischen Ableitung heraus. In 20 % der Fällen muss die Frau zur Kontrolle. Der Algortihmus nimmt hier keine Wertung vor (dazu ist er ethisch auch nicht in der Lage), sondern hantiert nur mit den Daten, die er bekommt nach sturen mathematischen Regeln. Nimm noch ein weiteres Merkmal dazu und es wird immer feiner: 70 % der männlichen Schwerverbrecher wiegen 90 bis 100 kg. Die Wahrscheinlichkeit, dass du als Mann, der 60 kg wiegt zur Kontrolle zu müssen, sinkt. Und so wird es rein auf Basis der Datenlage immer feiner, bis du im besten Fall nur noch 5 % Falsch-Positive hast.
Ich sehe da keinen Raum für Ideologie oder Fremdenhass, sondern lediglich ein Werkzeug objektive Regeln zu schaffen. Und diese Regeln bilden sich eben selbst aus. Die legt keiner fest, der meint racial profiling betreiben will, sondern ist dann einfach die mathematische Konsequenz aus Input und Output.