CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?
16.05.2017 um 09:01@Balthasar70
Es ist möglich, dass sich eine hochentwickelte Intelligenz zur Kooperation entscheidet, mit dem Menschen oder jedem beliebigen anderen Wesen.
Du stellst das ja ebenso als MÖGLICHKEIT hin.
Was ist, wenn es nicht so ist.
Ich habe auch nicht die Wahrscheinlichkeit ausgerechnet. Meine Erwartungswert-Argumentation ging davon aus, dass es zu gefährlich ist, selbst wenn die Wahrscheinlichkeit (mit 1%) sehr gering ist, dass ein globales Auslöschungsereigniss eintritt. Natürlich kann ich für das spekulative Ereignis keine echte Wahrscheinlichkeit angeben, aber meine (konservative) Rechnung war 10% Wahrscheinlichkeit das es KI geben wir und 10% dass die Ziele schädlich sind und zu einem solchen Ereignis führen.
0,1*0,1 = 0,01
Ich bin eigentlich davon überzeugt das die Wahrscheinlichkeit höher ist. Nicht, dass eine KI sich bewusst dazu entscheidet Menschen auszulöschen, sondern dass ihre Ziele so fremdartig sind und so weit abweichen von unseren, dass unsere Auslöschung eine Konsequenz deren Umsetzung ist.
Dein Gleichnis ist aus meiner Sicht in seiner Wahrscheinlichkeit etwas zu tief gegriffen. Denn beispielsweise verorten ja alle Experten die Wahrscheinlichkeit das es KI geben wird weit höher.
Und dann wäre es für uns potenziell sehr gefährlich.
Ich will nicht sagen, dass das Büroklammer-Szenario besonders realistisch ist. Daher habe ich es auch nicht intensiver thematisiert. Es ist einfach zu weit entfernt. Mein X3-Szenario hat mir gefallen, weil ich Geschichten spannend finde in denen gute Intentionen scheitern.
Realistisch finde ich das Szenario, dass eine KI völlig fremdartige Ziele hat oder uns Menschen für zu bedrohlich/gefährlich hält.
Es ist möglich, dass sich eine hochentwickelte Intelligenz zur Kooperation entscheidet, mit dem Menschen oder jedem beliebigen anderen Wesen.
Du stellst das ja ebenso als MÖGLICHKEIT hin.
Was ist, wenn es nicht so ist.
Ich habe auch nicht die Wahrscheinlichkeit ausgerechnet. Meine Erwartungswert-Argumentation ging davon aus, dass es zu gefährlich ist, selbst wenn die Wahrscheinlichkeit (mit 1%) sehr gering ist, dass ein globales Auslöschungsereigniss eintritt. Natürlich kann ich für das spekulative Ereignis keine echte Wahrscheinlichkeit angeben, aber meine (konservative) Rechnung war 10% Wahrscheinlichkeit das es KI geben wir und 10% dass die Ziele schädlich sind und zu einem solchen Ereignis führen.
0,1*0,1 = 0,01
Ich bin eigentlich davon überzeugt das die Wahrscheinlichkeit höher ist. Nicht, dass eine KI sich bewusst dazu entscheidet Menschen auszulöschen, sondern dass ihre Ziele so fremdartig sind und so weit abweichen von unseren, dass unsere Auslöschung eine Konsequenz deren Umsetzung ist.
Dein Gleichnis ist aus meiner Sicht in seiner Wahrscheinlichkeit etwas zu tief gegriffen. Denn beispielsweise verorten ja alle Experten die Wahrscheinlichkeit das es KI geben wird weit höher.
Und dann wäre es für uns potenziell sehr gefährlich.
Balthasar70 schrieb:Mal davon abgesehen, was ist von einer "Intelligenz" zu halten, die Beschließt sich selber zu zerstören, weil sie das Universum mit Büroklammern Fluten möchte?😊Das gleiche wie von einer biologischen Intelligenz, die sich umbringt um ins Paradies zu den Jungfrauen zu kommen :)
Ich will nicht sagen, dass das Büroklammer-Szenario besonders realistisch ist. Daher habe ich es auch nicht intensiver thematisiert. Es ist einfach zu weit entfernt. Mein X3-Szenario hat mir gefallen, weil ich Geschichten spannend finde in denen gute Intentionen scheitern.
Realistisch finde ich das Szenario, dass eine KI völlig fremdartige Ziele hat oder uns Menschen für zu bedrohlich/gefährlich hält.