uatu schrieb:Stell Dir ein Team aus den besten Unternehmern, den besten Offizieren, den besten Wissenschaftlern, den besten Ingenieuren, den besten Was-weiss-ich der Welt vor, die sich allesamt super miteinander verstehen, und perfekt zusammenarbeiten. Könnte so ein Team das Problem -- u.U. auf sehr ungewöhnliche Weise -- lösen? Ich würde nicht dagegen wetten.
Ich würde schon sagen, dass selbst so ein Team dieses Problem nicht lösen könnte. Was meinst du, was die Stromkonzerne dafür geben würden, die Möglichkeit zu haben Energie direkt beim Kunden erscheinen zu lassen, ohne die Notwendigkeit Stromkabel zu verlegen und/oder Kraftwerke hochzuziehen.
uatu schrieb:Darüber hinaus wird das in einer Welt geschehen, die -- wie @nocheinPoet treffend beschrieb -- sehr viel weiter technisiert und vernetzt ist als unsere heutige.
Weswegen, wie ich bereits mehrfach erklärte, es unverantwortlich wäre, einer KI Internetzugriff zu geben.
uatu schrieb:In Deutschland wird die KI am Bauamt scheitern, kein Zweifel. ;)
Das war eher schnippisch gemeint, dass einer derartig exponentielle entwickelnde KI zwangsläufig Grenzen überschreitet die der Mensch zu tolerieren bereits ist. Spätestens wenn die KI anfängt außerhalb des Werksgeländes Amok zu laufen und Staatsbürger zu Rohstoffen für den neuesten Super-Ultra-Mega-Computerchip zu verarbeiten wird selbst die KI-toleranteste Regierung dem Betreiber mit Androhung eines Haftbefehls an die Tür klopfen wenn er die KI nicht abschaltet, während sämtliche Konkurenten ebenfalls zu einer Zwangsabschaltung ihrer KI's verdonnert werden. Und die anderen Nationen werden das auch sehen, und sicherlich nicht sagen "was für eine Überreaktion, lass uns unseren KI's weiter totale Narrenfreiheit genießen lassen bis unsere Staatsbürger für ihre Rohmaterialien verhackstückelt werden".
uatu schrieb:Die Entscheidung, der KI zu ermöglichen, ihre Hardware direkt selbst weiterzuentwickeln, wird sich ganz einfach aus Wettbewerbsgründen ergeben. Wer die am weitesten entwickelte KI hat, wird auf der Welt führend sein, und die am weitesten entwickelte KI wird diejenige sein, die sich am schnellsten entwickelt. Irgendjemand wird trotz aller Gefahren den ersten Schritt tun (vielleicht noch nicht im Sinne einer vollständigen, aber doch teilweisen Autonomie der KI), und den anderen wird nichts anderes übrig bleiben, als zu folgen. Spätestens nach ein paar Zwischenstufen werden die KIs weitgehend "freie Hand" bei der Weiterentwicklung ihrer Hardware haben.
1.) ist derjenige mit der besten KI der totale, unanfechtbare Herrscher der Welt der sämtliche Konkurenz hinwegfegt oder ist es ein brutales Kopf-an-Kopf-Rennen wo jeder der auch nur das absoloute Minimum an vernünftigen Sicherheitsmaßnahmen trifft hilflos untergeht?
2.) Technologie ist nicht alles, auch nicht in der Geschäftswelt. Es gibt da noch weitere Faktoren, wie Markentreue, Marketing und (der Relevante Teil hier) ob es überhaupt einen Bedarf für die neue Technologie gibt. Ich meine, lange bevor die Geschwindigkeit des technischen Fortschritts die menschliche Verständnisfähigkeit übetrifft, wird sie den stetigen Software-Bloat übertreffen. Welche Veranlassung hätte der durchschnittliche Kunde sich einen neuen Computer mit tausendmal mehr Leistung anzuschaffen wenn der den er bereits hat alles was der Kunde darauf laufen lassen will ohne jede merkbare Verlangsamung durch unzureichende Leistung laufen lassen kann?
3.) Wirtschaftlich ist unbegrenzte Innovationsgeschwindigkeit nicht die beste Strategie. Es gibt einen Produkt Lebenszyklus (bzw. hier den Unterteil des Technologielebenszyklus). Man bewegt sich also von Einführungs- über die Wachstums- und Reifungs- zur Sättigungsphase (
Wikipedia: Produktlebenszyklus ) wobei der Maximale Gewinn in der Reifephase erfolgt, die Innovation erfolgt in der Sättigungsphase um einen neuen Zyklus einzuleiten. Bei unbegrenzt hoher Innovationsgeschwindigkeit würde nie die Einführungsphase verlassen werden, schlichtweg weil der Kunde nicht so schnell reagieren kann (Ich meine, selbst wenn sich Computerleistung alle 10 Sekunden statt aller 2,5 Jahre verdoppeln würde, würden sich die Kunden sicherlich nicht jede Minute einen neuen Computer kaufen, und die Betriebsinhaber würden sicherlich nicht tolerieren dass die KI alle 30 Minuten die komplette Fabrik [ und die aufgebauten Zulieferbetriebe und Zulieferbetriebe der Zulieferbetriebe und Zulieferbetriebe der Zulieferbetriebe der Zulieferbetriebe] für das neue Informationsverarbeitungsprinzip komplett umbaut, nur um diese unvermarktbare Innovationsgeschwindigkeit eine weitere Halbe Stunde aufrechtzuerhalten)
uatu schrieb:Wenn Asimov "und" gemeint hätte, hätte er wohl auch "und" geschrieben.
Bei genauer Betrachtung bezieht sich das "Nicht" nicht auf die Bedingungen, sondern auf das "Oder". Es ist also kein "Or"-Operator mit zwei verneinten Bedingungen, sondern ein "NOR"-Operator mit zwei Bedingungen. Es ist also so zu interpretieren, dass das 1. Asimovsche Gesetz nur erfüllt ist, wenn weder durch Aktivität noch durch Inaktivität menschlicher Schaden verursacht wird.