@Taln.Reich:
Taln.Reich schrieb:Und wie will die KI die Stromkappungsoption umgehen, ohne unerlaubte Stromkabel zu verlegen oder eigene Kraftwerke hochzuziehen (was sich beides nicht unbemerkbar durchführen lässt)?
Stell Dir ein Team aus den besten Unternehmern, den besten Offizieren, den besten Wissenschaftlern, den besten Ingenieuren, den besten Was-weiss-ich der Welt vor, die sich allesamt super miteinander verstehen, und perfekt zusammenarbeiten. Könnte so ein Team das Problem -- u.U. auf sehr ungewöhnliche Weise -- lösen? Ich würde nicht dagegen wetten. Falls so ein Team es kann, wird eine entsprechend weit entwickelte KI es erst recht können. Die KI ist dabei auch nicht an eine einzige Strategie gebunden, sondern kann Dutzende möglicher Lösungen gleichzeitig verfolgen. Darüber hinaus wird das in einer Welt geschehen, die -- wie
@nocheinPoet treffend beschrieb -- sehr viel weiter technisiert und vernetzt ist als unsere heutige.
In frühen Phasen wird man KIs noch durch "Steckerziehen" stoppen können. Später würde ich mich nicht mehr darauf verlassen.
Taln.Reich schrieb:Doch, ich würde schon sagen, das spielt eine Rolle. Wenn die Entwicklung irgendwo ihre Grenze hat, egal wo, dann wird von dort aus die Entwicklung nichtmehr weitergehen, und die Menschen werden sich, mit der Zeit, an die neue Supertechnologie (die sich ja nichtmehr weiterentwickeln kann weil das Ende der Fahnenstange erreicht ist) gewöhnen.
Ein "Ende der Fahnenstange" in dem Sinne, wie Du es Dir vorstellst, wird es nicht geben. Eine Grenze gibt es höchstens für die Informationsverarbeitungskapazität
pro Rauminhalt, von der wir aber noch sehr, sehr weit weg sind. Bei Annäherung an diese Grenze wird sich die Entwicklung bezogen auf den Rauminhalt zwar verlangsamen, was sich aber durch die Nutzung von mehr Raum ausgleichen lässt. Für die technologische Singularität spielt das sowieso keine Rolle. Sobald Menschen der Entwicklung nicht mehr folgen können (was lange vor der Annäherung an die Grenze der Informationsverarbeitungskapazität pro Rauminhalt geschehen wird), weiss niemand, wie es danach für die Menschheit weiter geht. Das ist das Wesen der technologischen Singularität.
Taln.Reich schrieb:Kein Wunder, dass bei dir die KI so unbesiegbar scheint, schließlich gehst du davon aus, dass der KI von Anfang an unbegrenzte Freiheiten im Bau und Modifikation ihrer ausführenden Organe, ohne jegliche Aufsicht, eingeräumt werden, und unbegrenzt Nebenbetriebe (wie soll die KI umgehen das für die neue Produktionslinie Computerchips Maschinen gebraucht werden die sie nicht hat? Nur in dem sie die Maschinen selbst herstellt, was wiederum die Geräte für die Herstellung dieser Maschinen erfodert usw. usf.) aufziehen kann, ohne das z.b. das Bauamt an der Tür klopft und nach der Baugenehmigung all der von der KI neugebauten Fabriken fragt (selbst wenn das Gebäude nur von der KI/ihre ausführenden Organen konstruiert, gebaut und betreten wird, wird das Bauamt noch lange nicht den Bau dieses Gebäudes absegenen ohne den Bauplan begutachtet zu haben).
In Deutschland wird die KI am Bauamt scheitern, kein Zweifel.
;) Die Entscheidung, der KI zu ermöglichen, ihre Hardware direkt selbst weiterzuentwickeln, wird sich ganz einfach aus Wettbewerbsgründen ergeben. Wer die am weitesten entwickelte KI hat, wird auf der Welt führend sein, und die am weitesten entwickelte KI wird diejenige sein, die sich am schnellsten entwickelt. Irgendjemand wird trotz aller Gefahren den ersten Schritt tun (vielleicht noch nicht im Sinne einer vollständigen, aber doch teilweisen Autonomie der KI), und den anderen wird nichts anderes übrig bleiben, als zu folgen. Spätestens nach ein paar Zwischenstufen werden die KIs weitgehend "freie Hand" bei der Weiterentwicklung ihrer Hardware haben.
Bzgl. der Produktionsmaschinen gibt es sei langer Zeit den Trend, dass eine immer leistungsfähigere Produktion auf immer kleinerem Raum möglich ist. Man kann heute mit Spitzenklasse-CNC-Maschinen, -3D-Druckern, -Bestückungsmaschinen, etc. in einem Keller eine Produktion aufziehen, für die vor 50 Jahren noch eine ganze Fabrik erforderlich gewesen wäre. Dieser Trend wird sich weiter verstärken, und durch die breite Verfügbarkeit von universell einsetzbaren Robotern (woran aktuell in Hunderten von Unternehmen weltweit intensiv gearbeitet wird, siehe z.B.
Boston Dynamics) nochmal einen erheblichen Schub bekommen. In ein paar Jahrzehnten wird der Stand (insbesondere auch durch den Fortschritt bei 3D-Druckern) für eine rekursive Weiterentwicklung einer KI in der Art, wie ich sie beschrieben hatte, ausreichend sein.
Taln.Reich schrieb:Asimov war kein Programmierer, und hat somit das Oder verwendet wie ein Mensch es verstehen würde, nicht als logisches Oder. Also der Roboter muss beide Bedingungen erfüllen, um das Gesetz zu erfüllen. Es wäre also eher: "Ein Roboter darf kein menschliches Wesen verletzen UND darf auch nicht durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird."
Wenn Asimov "und" gemeint hätte, hätte er wohl auch "und" geschrieben.
;) Unabhängig trifft Deine Beschreibung genau das Problem: Ein Computer interpretiert von Menschen vorgegebene Ziele und Regeln eben
nicht unbedingt so, wie es ein Mensch tun würde.