Künstliche Intelligenz
30.05.2011 um 12:47Wie kommen denn hier eigentlich immer alle auf diesen ... ich nenne es mal ... Blödsinn, dass eine KI "unzufrieden" sein könnte. Wie soll das passieren?
Nur weil ein System "intelligent" ist, bedeutet das nicht gleichzeitig, dass es ein Bewusstsein hat. Das hat nichts mit KI zu tun. Und ein Bewusstsein ist nötig um selbstreflektierende Aussagen zu treffen wie "ich bin unzufrieden" oder "ich werde als Arbeitssklave ausgebeutet".
Eine KI kann so ein Bewusstsein nicht aus sich heraus entwickeln, dazu sind solche Systeme überhaupt nicht gedacht. Man müsste ein System absichtlich so bauen, dass es ein Bewusstsein besitzt, eine gewisse Intelligenz hat und außerdem in der Lage ist, Sachverhalte zu "erkennen". Alles das ist zunächst mal heute noch gar nicht möglich. Der nächste Punkt ist, dass das nichts mehr mit der eigentlichen KI zu tun hat, die ihr hier großteils versucht auf den Scheiterhaufen zu stellen.
Worüber hier also eigentlich diskutiert wird ist, dass ihr annehmt, dass Wissenschaftler hingehen, ein System mit einer KI ausstatten, ihm außerdem mit irgend einer Zukunftstechnologie zunächst die Möglichkeit geben, Zusammenhänge zu erkennen und neue Sachverhalte zu "begreifen / erkennen" und anschließend auch noch so sadistisch sind, dem System ein Bewusstsein zu verpassen, nur damit es in der Lage ist zu erkennen, dass es "ausgebeutet" wird.
1. Warum sollte jemand so etwas entwickeln?
2. Warum sollte man dieses System in einer Position einsetzen, in der es die Macht hat, seinen Erschaffern zu schaden?
@SethSteiner:
Zunächstmal klauen KIs keine Arbeitsplätze sondern erledigen lässtige oder für den Menschen nicht zu bewältigende Arbeit. Außerdem finde ich kann dieses Argument nicht gelten, oder findest Du Fabrikroboter auch alle schlimm und hättest lieber wieder Menschen an den Fließbändern, die ihr Leben lang monotone Arbeiten verrichten, von denen Sie bleibende Schäden davon tragen?
Zu dem Punkt mit den Fehlentscheidungen: Da, wo KIs eingesetzt werden, treffen Sie in der Regel deutlich weniger Fehlentscheidungen als Menschen, genau deshalb werden sie dann auch eingesetzt. Du kannst normalerweise davon ausgehen, dass Menschen zwischen 5 und 10 Prozent Fehlenscheidungen treffen, während eine KI (sofern sauber entwickelt) nur 2 Prozent Fehler macht.
Nur weil ein System "intelligent" ist, bedeutet das nicht gleichzeitig, dass es ein Bewusstsein hat. Das hat nichts mit KI zu tun. Und ein Bewusstsein ist nötig um selbstreflektierende Aussagen zu treffen wie "ich bin unzufrieden" oder "ich werde als Arbeitssklave ausgebeutet".
Eine KI kann so ein Bewusstsein nicht aus sich heraus entwickeln, dazu sind solche Systeme überhaupt nicht gedacht. Man müsste ein System absichtlich so bauen, dass es ein Bewusstsein besitzt, eine gewisse Intelligenz hat und außerdem in der Lage ist, Sachverhalte zu "erkennen". Alles das ist zunächst mal heute noch gar nicht möglich. Der nächste Punkt ist, dass das nichts mehr mit der eigentlichen KI zu tun hat, die ihr hier großteils versucht auf den Scheiterhaufen zu stellen.
Worüber hier also eigentlich diskutiert wird ist, dass ihr annehmt, dass Wissenschaftler hingehen, ein System mit einer KI ausstatten, ihm außerdem mit irgend einer Zukunftstechnologie zunächst die Möglichkeit geben, Zusammenhänge zu erkennen und neue Sachverhalte zu "begreifen / erkennen" und anschließend auch noch so sadistisch sind, dem System ein Bewusstsein zu verpassen, nur damit es in der Lage ist zu erkennen, dass es "ausgebeutet" wird.
1. Warum sollte jemand so etwas entwickeln?
2. Warum sollte man dieses System in einer Position einsetzen, in der es die Macht hat, seinen Erschaffern zu schaden?
@SethSteiner:
Zunächstmal klauen KIs keine Arbeitsplätze sondern erledigen lässtige oder für den Menschen nicht zu bewältigende Arbeit. Außerdem finde ich kann dieses Argument nicht gelten, oder findest Du Fabrikroboter auch alle schlimm und hättest lieber wieder Menschen an den Fließbändern, die ihr Leben lang monotone Arbeiten verrichten, von denen Sie bleibende Schäden davon tragen?
Zu dem Punkt mit den Fehlentscheidungen: Da, wo KIs eingesetzt werden, treffen Sie in der Regel deutlich weniger Fehlentscheidungen als Menschen, genau deshalb werden sie dann auch eingesetzt. Du kannst normalerweise davon ausgehen, dass Menschen zwischen 5 und 10 Prozent Fehlenscheidungen treffen, während eine KI (sofern sauber entwickelt) nur 2 Prozent Fehler macht.