Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

19.01.2018 um 09:21
Zitat von tarentaren schrieb:Das Hauptproblem ist eigentlich der Energieverbrauch und die daraus resultierende Abwärme, genau genommen sind die wirklichen Computer aktuell ziemlich winzig.
Es geht eher darum das ab einer bestimmten Größe die Quantenmechanik greift, dann hat es sich mit Leiterbahnen.

Also was verkleinrun oder Mindestgröße angeht gibt es grenzen bei der Jetzigen Technik.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 10:15
Zitat von uatuuatu schrieb:Stell Dir ein Team aus den besten Unternehmern, den besten Offizieren, den besten Wissenschaftlern, den besten Ingenieuren, den besten Was-weiss-ich der Welt vor, die sich allesamt super miteinander verstehen, und perfekt zusammenarbeiten. Könnte so ein Team das Problem -- u.U. auf sehr ungewöhnliche Weise -- lösen? Ich würde nicht dagegen wetten.
Ich würde schon sagen, dass selbst so ein Team dieses Problem nicht lösen könnte. Was meinst du, was die Stromkonzerne dafür geben würden, die Möglichkeit zu haben Energie direkt beim Kunden erscheinen zu lassen, ohne die Notwendigkeit Stromkabel zu verlegen und/oder Kraftwerke hochzuziehen.
Zitat von uatuuatu schrieb:Darüber hinaus wird das in einer Welt geschehen, die -- wie @nocheinPoet treffend beschrieb -- sehr viel weiter technisiert und vernetzt ist als unsere heutige.
Weswegen, wie ich bereits mehrfach erklärte, es unverantwortlich wäre, einer KI Internetzugriff zu geben.
Zitat von uatuuatu schrieb:In Deutschland wird die KI am Bauamt scheitern, kein Zweifel. ;)
Das war eher schnippisch gemeint, dass einer derartig exponentielle entwickelnde KI zwangsläufig Grenzen überschreitet die der Mensch zu tolerieren bereits ist. Spätestens wenn die KI anfängt außerhalb des Werksgeländes Amok zu laufen und Staatsbürger zu Rohstoffen für den neuesten Super-Ultra-Mega-Computerchip zu verarbeiten wird selbst die KI-toleranteste Regierung dem Betreiber mit Androhung eines Haftbefehls an die Tür klopfen wenn er die KI nicht abschaltet, während sämtliche Konkurenten ebenfalls zu einer Zwangsabschaltung ihrer KI's verdonnert werden. Und die anderen Nationen werden das auch sehen, und sicherlich nicht sagen "was für eine Überreaktion, lass uns unseren KI's weiter totale Narrenfreiheit genießen lassen bis unsere Staatsbürger für ihre Rohmaterialien verhackstückelt werden".
Zitat von uatuuatu schrieb:Die Entscheidung, der KI zu ermöglichen, ihre Hardware direkt selbst weiterzuentwickeln, wird sich ganz einfach aus Wettbewerbsgründen ergeben. Wer die am weitesten entwickelte KI hat, wird auf der Welt führend sein, und die am weitesten entwickelte KI wird diejenige sein, die sich am schnellsten entwickelt. Irgendjemand wird trotz aller Gefahren den ersten Schritt tun (vielleicht noch nicht im Sinne einer vollständigen, aber doch teilweisen Autonomie der KI), und den anderen wird nichts anderes übrig bleiben, als zu folgen. Spätestens nach ein paar Zwischenstufen werden die KIs weitgehend "freie Hand" bei der Weiterentwicklung ihrer Hardware haben.
1.) ist derjenige mit der besten KI der totale, unanfechtbare Herrscher der Welt der sämtliche Konkurenz hinwegfegt oder ist es ein brutales Kopf-an-Kopf-Rennen wo jeder der auch nur das absoloute Minimum an vernünftigen Sicherheitsmaßnahmen trifft hilflos untergeht?
2.) Technologie ist nicht alles, auch nicht in der Geschäftswelt. Es gibt da noch weitere Faktoren, wie Markentreue, Marketing und (der Relevante Teil hier) ob es überhaupt einen Bedarf für die neue Technologie gibt. Ich meine, lange bevor die Geschwindigkeit des technischen Fortschritts die menschliche Verständnisfähigkeit übetrifft, wird sie den stetigen Software-Bloat übertreffen. Welche Veranlassung hätte der durchschnittliche Kunde sich einen neuen Computer mit tausendmal mehr Leistung anzuschaffen wenn der den er bereits hat alles was der Kunde darauf laufen lassen will ohne jede merkbare Verlangsamung durch unzureichende Leistung laufen lassen kann?
3.) Wirtschaftlich ist unbegrenzte Innovationsgeschwindigkeit nicht die beste Strategie. Es gibt einen Produkt Lebenszyklus (bzw. hier den Unterteil des Technologielebenszyklus). Man bewegt sich also von Einführungs- über die Wachstums- und Reifungs- zur Sättigungsphase ( Wikipedia: Produktlebenszyklus ) wobei der Maximale Gewinn in der Reifephase erfolgt, die Innovation erfolgt in der Sättigungsphase um einen neuen Zyklus einzuleiten. Bei unbegrenzt hoher Innovationsgeschwindigkeit würde nie die Einführungsphase verlassen werden, schlichtweg weil der Kunde nicht so schnell reagieren kann (Ich meine, selbst wenn sich Computerleistung alle 10 Sekunden statt aller 2,5 Jahre verdoppeln würde, würden sich die Kunden sicherlich nicht jede Minute einen neuen Computer kaufen, und die Betriebsinhaber würden sicherlich nicht tolerieren dass die KI alle 30 Minuten die komplette Fabrik [ und die aufgebauten Zulieferbetriebe und Zulieferbetriebe der Zulieferbetriebe und Zulieferbetriebe der Zulieferbetriebe der Zulieferbetriebe] für das neue Informationsverarbeitungsprinzip komplett umbaut, nur um diese unvermarktbare Innovationsgeschwindigkeit eine weitere Halbe Stunde aufrechtzuerhalten)
Zitat von uatuuatu schrieb:Wenn Asimov "und" gemeint hätte, hätte er wohl auch "und" geschrieben.
Bei genauer Betrachtung bezieht sich das "Nicht" nicht auf die Bedingungen, sondern auf das "Oder". Es ist also kein "Or"-Operator mit zwei verneinten Bedingungen, sondern ein "NOR"-Operator mit zwei Bedingungen. Es ist also so zu interpretieren, dass das 1. Asimovsche Gesetz nur erfüllt ist, wenn weder durch Aktivität noch durch Inaktivität menschlicher Schaden verursacht wird.


3x zitiertmelden

Technologische Singularität

19.01.2018 um 10:20
@uatu
Und hier ein Artikel, was Charles Stross zum Thema Singularität zu sagen hat: http://www.antipope.org/charlie/blog-static/2011/06/reality-check-1.html


1x zitiertmelden

Technologische Singularität

19.01.2018 um 10:32
Zitat von Taln.ReichTaln.Reich schrieb:Eine Annalogie: du kannst mit einer Kamera mit ungeheurer Einfachheit von jeden beliebigen Gemälde eine Kopie erstellen (und bei fast allen heute üblichen Kameras diese Kopie auch gleich auf einer, von der originalen Leinwand sehr verschiedenen Oberfläche betrachten). Diese Kopie hat dieselben Ästhetischen Qualitäten wie das Original, da...usw
Okay, jetzt verstehe ich, also so wie ich es ja auch meinte. Das Prinzip ist natürlich, aber das Produkt ist künstlich. Oder nicht?


1x zitiertmelden

Technologische Singularität

19.01.2018 um 10:33
Zitat von Taln.ReichTaln.Reich schrieb:uatu schrieb:
Darüber hinaus wird das in einer Welt geschehen, die -- wie @nocheinPoet treffend beschrieb -- sehr viel weiter technisiert und vernetzt ist als unsere heutige.
Weswegen, wie ich bereits mehrfach erklärte, es unverantwortlich wäre, einer KI Internetzugriff zu geben.
Genau diesen Leichtsinn sehe ich auch dabei.


melden

Technologische Singularität

19.01.2018 um 10:38
Zitat von skagerakskagerak schrieb:Okay, jetzt verstehe ich, also so wie ich es ja auch meinte. Das Prinzip ist natürlich, aber das Produkt ist künstlich. Oder nicht?
Kommt drauf an, was du mit Produkt meinst. Wenn das Produkt ein Resultat des Musters ist, und das Muster natürlich ist (weil kopiert aus dem natürlichen) wäre auch das Produkt natürlich.


melden

Technologische Singularität

19.01.2018 um 10:42
Gerade kommt mir da ein Gedanke. Selbst wenn wir es schaffen alle Vorsichtsmaßnahmen zu beherzigen. Stromkreise kontrollieren, Netzverbindungen nicht dulden, einen Panzerschrank drum rum bauen, und alles tun, was der KI einen Kontakt zur Außenwelt verwehrt.. wäre es nicht trotzdem möglich, dass bei einem ausreichend hohen Niveau der KI, sie anfängt die Menschen, die mit ihr interagieren, nach ihrem Gutdünken zu programmieren? Pawlow style eben. :) Zumindest sie so zu manipulieren, dass sie nicht mal merken, wie ihnen geschieht?


2x zitiertmelden

Technologische Singularität

19.01.2018 um 10:43
Zitat von FedaykinFedaykin schrieb:Es geht eher darum das ab einer bestimmten Größe die Quantenmechanik greift, dann hat es sich mit Leiterbahnen.

Also was verkleinrun oder Mindestgröße angeht gibt es grenzen bei der Jetzigen Technik.
Die Frage ist müssen wir überhaupt verkleinern, wenn die wirkliche CPU gerade mal so groß wie ein Fingernagel ist. Jetzt im Vergleich das menschliche Gehirn, wesentlich größer und ein dreidimensionales Volumen. Würden wir die heutigen CPUs in 3D aufbauen oder einfach auf 10 qdm verteilen reicht das auch aus. 1 qcm passt in 1 qdm und 100x rein, würde wir in 3D gehen dann haben wir gleich noch ein vielfaches. Eine kleine CPU mag für ein Smartphone wichtig sein aber für ein größeres Gerät wie einen PC völlig egal, da kann man sich auch einen Würfel mit einem 1m Kantenlänge hinstellen, wichtig sind hier dann der Energieverbrauch und die Abwärme. Jetzt kann man sich ausrechnen was eine heutige CPU vergrößert in ein derartiges Volumen leisten würde...


1x zitiertmelden

Technologische Singularität

19.01.2018 um 11:14
@Taln.Reich
Naja, das gesamte Konstrukt in dem es “hineinkopiert“ wird, aber ist auch egal, gehe da vielleicht ungewollt auf Wortklauberei hinaus.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 11:30
Das Problem ist folgendes und wird von vielen nicht erkannt : es kommt der Punkt, an dem eine KI intelligentere und in einem ganz allgemeinen Sinne bessere Entscheidungen trifft als der Mensch. Wir überprüfen das , indem wir der KI viele Tausend Entscheidungen vorlegen, deren Richtigkeit oder Falschheit sich sehr kurzfristig herausstellen wird. Und wir stellen fest : Die KI liegt zu 100% richtig. Wir selbst nur zu 20, 50, 70 %

Wir wissen also : Unsere KI ist perfekt.


Nun steht eine wirklich große, wichtige und gefährliche Entscheidung an, bei der die Zukunft der Menschheit auf dem Spiel steht: es gibt zwei Möglichkeiten : eine scheinbar relativ sichere und eine scheinbar hochriskante, die wir nicht verstehen.

Was tun ???

Die Antwort ist klar : Wir müssen und werden der KI vertrauen. Es macht keinen Sinn, eine KI zu entwickeln, deren Entscheidungen erwiesenermaßen immer besser sind als unsere und dann ausgerechnet bei wichtigen Entscheidungen doch selbst zu entscheiden.

Ihr versteht das Problem ? Sobald wir eine KI haben, die erwiesenermaßen besser ist als wir, werden wir ihr auch alle denkbare Macht zur Verfügung stellen.

Niemand wird den Stecker ziehen.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 11:35
Ich hätte im Beispiel oben noch dazu schreiben sollen : Die KI entscheidet sich für die gefährliche hochriskante Option. Die wir Menschen nicht verstehen.

Was tun ?


1x zitiertmelden

Technologische Singularität

19.01.2018 um 11:53
Zitat von schtabeaschtabea schrieb:Ich hätte im Beispiel oben noch dazu schreiben sollen : Die KI entscheidet sich für die gefährliche hochriskante Option. Die wir Menschen nicht verstehen.

Was tun ?
von der KI eine für uns verständliche Erklärung verlangen.


2x zitiertmelden

Technologische Singularität

19.01.2018 um 11:57
Zitat von Taln.ReichTaln.Reich schrieb:von der KI eine für uns verständliche Erklärung verlangen.
Ja, mach mal. Erkläre mal bitte einem Regenwurm die Relativitätstheorie. Aber bitte so, daß der Regenwurm sie versteht.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 11:58
Zitat von PhilippPhilipp schrieb:Gerade kommt mir da ein Gedanke. Selbst wenn wir es schaffen alle Vorsichtsmaßnahmen zu beherzigen. Stromkreise kontrollieren, Netzverbindungen nicht dulden, einen Panzerschrank drum rum bauen, und alles tun, was der KI einen Kontakt zur Außenwelt verwehrt.. wäre es nicht trotzdem möglich, dass bei einem ausreichend hohen Niveau der KI, sie anfängt die Menschen, die mit ihr interagieren, nach ihrem Gutdünken zu programmieren? Pawlow style eben. :) Zumindest sie so zu manipulieren, dass sie nicht mal merken, wie ihnen geschieht?
Pawlowische Konditionierung beruht ja darauf, einen neutralen Reiz mit einer physischen Belohnung zu verbinden, sodass die Konditionierte Entität selbst dann die Belohnung verspürt, wenn nur der neutrale Reiz vorliegt. Ich sehe nicht, wie eine von physischen Interaktionsmöglichkeiten abgekoppelte KI dies tun sollte.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 12:05
Zitat von skagerakskagerak schrieb:Naja, das gesamte Konstrukt in dem es “hineinkopiert“ wird, aber ist auch egal, gehe da vielleicht ungewollt auf Wortklauberei hinaus.
Von Wortklauberei abgesehen, hat man es immer noch mit Qualitativen Unterschieden zwischen einen Mind-Upload und einer künstlichen Intelligenz wie wir sie bisherdiskutiert haben zu tun. Ein Mind-Upload, basierend auf dem menschlichen Gehirn, hätte auch menschliche Motivationen (wäre somit eher Manipulierbar) und einige Schwächen (Unfähigkeit zur eigenständigen Intelligenzexplosion. Hardwareupgrades würden die Simulation nur schneller machen, nicht intelligenter [ein Dorfidiot, um das tausendfache beschleunigt, ist immer noch ein Dorfidiot]) und, am wichtigsten, er hätte ein klares Verstänbdnis dafür, was Menschen/ihre Interessen sind (also kein Paperclip-Maximizer-Szenario - sofern wir nicht einen Soziopathischen Briefklammer-Fetishisten als erstes hochladen).


melden

Technologische Singularität

19.01.2018 um 12:06
Zitat von schtabeaschtabea schrieb:Ja, mach mal. Erkläre mal bitte einem Regenwurm die Relativitätstheorie. Aber bitte so, daß der Regenwurm sie versteht.
Ein Regenwurm hat keine Fähigkeit zur Abstraktion, ein Mensch schon.


melden

Technologische Singularität

19.01.2018 um 12:18
@Taln.Reich

Es gibt Entscheidungen, die könnte eine KI uns erklären. Es gibt auch welche, deren Grundlage so komplex ist, daß wir sie nicht verstehen könnten.

Es ändert aber nichts an der Fragestellung: Wenn Hunderte von Versuchsreihen ergeben haben, daß eine KI bessere Entscheidungen trifft als wir, dann wird es keinen Sinn machen, daß weiterhin wir die Entscheidungen treffen.

Wir werden die Macht der KI übergeben. Und wenn nicht wir die Macht übergeben, dann werden andere Forscher irgendwo auf der Welt die Macht übergeben. Freiwillig und aus tiefster gutwilliger Überzeugung.


melden

Technologische Singularität

19.01.2018 um 13:28
Zitat von Taln.ReichTaln.Reich schrieb:Pawlowische Konditionierung beruht ja darauf, einen neutralen Reiz mit einer physischen Belohnung zu verbinden, sodass die Konditionierte Entität selbst dann die Belohnung verspürt, wenn nur der neutrale Reiz vorliegt. Ich sehe nicht, wie eine von physischen Interaktionsmöglichkeiten abgekoppelte KI dies tun sollte.
Es beruht nicht zwingend auf einer physischen Belohnung, sondern darauf, das Belohnungszentrum auf welche Weise auch immer anzutriggern. Das kann auch durch verbale Interaktion geschehen, oder durch sonstige intellektuelle Stimuli, die hier immer wieder so angebracht werden können, dass die Menschen über Jahre, Jahrzehnte ja sogar über ganze Generationen auf das konditioniert werden könnten, was die Maschine sich als Plan ausdenkt. Zeit spielt da ja keine Rolle, sie beobachtet, lernt das menschliche Verhalten genau, kennt alle psychologischen Trix und Kniffe und wendet die dann langsam, stetig aber auch unmerklich an.

Kann vllt über Musik geschehen, die die Stimmung des Menschen entsprechend steuert, und ein bestimmtes Verhalten zu konditionieren begünstigt. Oder über ein Spielchen, das sie einen gezielt gewinnen lässt, wenn sie gerade irgendein Verhalten belohnt, ..sowas in der Art stelle ich mir vor. Wer weiß, welche psychologischen Zusammenhänge ihr sich noch so erschließen, wenn sie den Menschen lange genug beobachtet. Könnte mir auch vorstellen, das selbst die Art und Weise, wie der Mensch momentan mit ihr kommuniziert, und welche Dinge er bearbeitet darauf schließen lässt, wie empfänglich er gerade für bestimmte Ideen ist, was die KI auch entsprechend für sich nutzt.


melden

Technologische Singularität

19.01.2018 um 13:52
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:Und hier ein Artikel, was Charles Stross zum Thema Singularität zu sagen hat: http://www.antipope.org/charlie/blog-static/2011/06/reality-check-1.html
LOL:
Charles Stross, 53, is a full-time science fiction writer and resident of Edinburgh, Scotland.

(Charlie's Diary FAQ)
Sorry, aber die Ansichten von Charles Stross sind nicht besonders relevant. Es gibt durchaus eine Menge Gegner des Konzepts der technologischen Singularität, oder sogar bereits des Konzepts der künstlichen Intelligenz. Sieht man sich ihre Qualifikation an, sieht das dann meist so aus: Philosophen, Psychologen, Soziologen, ... und offensichtlich auch Science-Fiction-Autoren. Natürlich, wirst Du sehr vereinzelt auch jemanden mit einer tatsächlich relevanten naturwissenschaftlich/technischen Qualifikation in dieser Gruppe finden, aber das sind seltene Ausnahmen. Dem gegenüber stehen Leute eines ganz anderen Kalibers, wie Stephen Hawking und Elon Musk, die die Risiken der technologischen Singularität sehr ernst nehmen.


melden

Technologische Singularität

19.01.2018 um 13:56
@uatu
Selbst wenn du die Qualifikationen der Person in Frage stellst, kannst du die vorgebrachten Argumente entkräften?


1x zitiertmelden