@uatu Vielen Dank für den Artikel!
Ich frage mich, wie eine KI in den bisherigen kritischen Momenten der Geschichte - ich spreche hier über die Vorkommnisse in der Kuba-Krise 1962 und die beiden kritischen Momente im Jahr 1983 - reagiert hätte.
In
diesen Fällen haben wenige bedachtsame Menschen - entgegen dem Mainstream - Entscheidungen getroffen, die eine Eskalation - und somit den globalen Weltkrieg - verhindert haben.
Zu dem Artikel selbst frage ich mich auch, wie weit dieser einfach nur Bestandteil des aktuellen medialen Schlagabtausches der beiden alten Gegner USA und Russland ist.
Dass man im Rahmen eines derartigen "Kriegs der Worte" auch mal Entscheidungen durchwinken kann, für die man sonst kaum ausreichend Zustimmung kriegen würde, ist eine Sache. Andererseits könnte ich mir gut vorstellen, dass auch in diesem Zusammenhang einige wenige Menschen mit klarem Verstand hemmungslosem Aktionismus einen Riegel vorschieben würden. Und: es könnte durchaus sein, dass man hier Möglichkeiten und einen Entwicklungsstand suggerieren möchte, der so gar nicht da ist.
Hoffe ich jedenfalls.
Was allerdings nur für ein kurz- oder bestenfalls mittelfristiges Aufatmen sorgen sollte. Langfristig sehe ich - ebenfalls durchaus sorgenvoll, auch wenn ich nicht über das technische Wissen verfüge, die Folgen und Gefahren im Detail zu erkennen - keine Chance, die Entwicklung immer leistungsfähigerer KI's unter den Gesichtspunkt ausreichender Vorsichtsmaßnahmen stellen zu können. Dafür ist der Wettbewerb der einzelnen Konzerne viel zu scharf. Dort will man möglichst spektakuläre Erfolge sehen, schon um die Shareholder zu erfreuen.
Irgendwann wird sich ein Forscher-Team finden, dass den Weg wagt. Und sei es nur, weil man beobachten möchte, wie sich eine sich selbst verbessernde KI denn so entwickelt und verhält.
Könnte nach hinten los gehen.
Just my 2 cent...