Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

18.01.2018 um 11:02
Zitat von nocheinPoetnocheinPoet schrieb:Mal ein Szenario, wir bauen aktuell immer mehr Rechner in all unsere Geräte ein. Autos und Flugzeuge und jeder Toster eben auch. IoT nennt sich das: Wikipedia: Internet_der_Dinge

Wir werden auch unsere Fabriken immer weiter automatisieren, ganz sicher, eben weil es Kosten spart.

Und wir werden auch militärisch immer weiter alles vernetzen, wir werden bewegliche Waffensysteme bekommen, die autonom agieren können. Kampfdrohnen und andere Maschinen werden kommen, da ist die Frage nicht ob, sondern nur wann.

Dann schaue Dir mal eine Stadt an, da leben Millionen von Menschen, die müssen versorgt werden, mit Energie, Wasser und Nahrung. Also nur um zu überleben, natürlich wollen die da noch vieles mehr.

Auch das wird automatisiert werden, es wird viele Kraftwerke eben, Wasser, Solar und Co. und auch das wird alles weiter vernetzt werden.

An einem Punkt kannst Du das nicht einfach abschalten ohne das die Menschen in den Städten verhungern werden. Schau, gehe mal zu einem neuen Auto und schalte doch da mal eben von Hand mit Hammer und Schraubenzieher das ABS und ein paar Assistenten aus, aber so, dass der Wagen weiter normal fahren kann. Schon heute wird es wohl so sein, dass Du das nicht schaffen wirst, recht sicher springt der Wagen dann gar nicht mehr an. Oder die Bremsen werden nicht mehr funktionieren.

Ein KI kann da ganz in Ruhe agieren, sie kann sich auch Notstromgeneratoren besorgen, viel Treibstoff, wenn es ein paar Atomkraftwerke oder später gar Fusionskraftwerke kontrolliert, wenn es Drohnen steuert, Fahrzeuge, da kann man dann nichts mehr groß machen.

Sie kann auch sagen, so dann, wenn ihr Menschen euch mir nicht unterwerft, dann schalte ich euch die Versorgung in den Städten ab. Drei Tage ohne Wasser und das System bricht zusammen.
Klar, wenn wir der KI direkt die Schlüssel zur Weltherrschaft übergeben (und nichts anderes wäre es, die KI an das immer weiter expandierende Internet anzuschließen) dann brauchen wir uns nicht zu wundern, wenn wir da nicht mehr gegen ankommen. Daher auch mein Simpler Lösungansatz: KI in einer Box ohne Internetanschluss oder physische Manipulationsfähigkeit.


melden

Technologische Singularität

18.01.2018 um 11:16
Zitat von nocheinPoetnocheinPoet schrieb:Wenn eine KI schnell genug ist, wirst Du da eh keinen Unterschied mehr erkennen können, sie wird sprechen wie ein Mensch, und wird dem dann unglaublich überlegen sein.
Also Intelligenz (und daraus folgende generelle Überlegenheit) ist schon etwas mehr als Bloß schnell rechnen. Heutige Expertensysteme rechnen weit schneller als es jeder Mensch könnte, und sind entsprechend, auf ihrem Fachgebiet, diesen deutlich überlegen. Aber eben nur auf ihrem Fachgebiet - bringe sie auf ein anderes, fremdes Gebiet und sie sind hilflos. Und daran ändert auch noch soviel Rechenleistung nichts, sondern das ist ein konzeptzueller Unterschied.
Zitat von nocheinPoetnocheinPoet schrieb:Wir würden uns auch nicht von "Affen" züchten lassen im Labor und einsperren um dann diesen nur zu dienen. Auch wir würden sehr sicher versuchen auszubrechen, frei zu sein.
1.) Affen hatten kein Konzept einermenschlichen Weltübernahme
2.) würde eine konstruierte Intelligenz nicht so konstruiert werden, dass sie keine Abneigung dagegen entwickelt eingesperrt zu sein um anderen zu dienen?


2x zitiertmelden

Technologische Singularität

18.01.2018 um 11:30
Zitat von nocheinPoetnocheinPoet schrieb:Man weiß ja nun nicht genau, was das wirklich ist, so Bewusstsein, aber das ist auch nicht wirklich entscheidend. Du kannst auch nur spekulieren, dass Dein Gegenüber eines hat, so wie Du und nicht nur eine biologische Maschine ohne einer Selbstwahrnehmung ist.

Wenn eine KI schnell genug ist, wirst Du da eh keinen Unterschied mehr erkennen können, sie wird sprechen wie ein Mensch, und wird dem dann unglaublich überlegen sein.

Da glaubte auch mal wer, ist keine 50 Jahre her, es gäbe keinen Markt für Computer so bei den einfachen normalen Menschen, die Welt würde maximal ein paar 100 brauchen, wo in Firmen und so und mehr nicht. War auch ein großer Irrtum ...


Schaut, fast jeder Mensch trägt heute schon ein Rechner bei sich, Handys ...

Und die sind vernetzt. Und die werden immer schneller, und schon heute haben wir da Siri. Google arbeitet an eigener Hardware, Chips für KI und die sind jetzt schon richtig gut.
Man kann ein Bewußstsein durchaus testen. Und ein Bewußtsein, ist mehr als nur die Geschwindigkeit von Prozessen. Welche KI hat denn einen "Willen"

Und auch die Simulation von Menschlichen Verhalten impliziert eben kein Bewußsteine bzw die Kriteriren harter Intelligenz.

KI, ist natürlich ein Begriff der Mehrfachbesetzt ist und meistens geht es da um bessere Algorythmen. Möglich das auch mal was den Turing Test besteht.


melden

Technologische Singularität

18.01.2018 um 11:46
Zitat von Taln.ReichTaln.Reich schrieb:, wird das Bauamt noch lange nicht den Bau dieses Gebäudes absegenen ohne den Bauplan begutachtet zu haben).
In Nordkorea gibt es kein Bauamt. Und bevor Nordkorea uns in Sachen KI überholt, werden auch wir baurechtliche Bedenken etwas lockerer handhaben.....

Und ALLE anderen Bedenken ebenfalls. Denn allererste Priorität wird sein, daß die Guten vor den Bösen bleiben.


melden

Technologische Singularität

18.01.2018 um 11:50
Zitat von Taln.ReichTaln.Reich schrieb:2.) würde eine konstruierte Intelligenz nicht so konstruiert werden, dass sie keine Abneigung dagegen entwickelt eingesperrt zu sein um anderen zu dienen?
Würde sie ein eingesperrt sein emfpinden können? Ich meine was will eine Nicht Biologisch Existenz In did Disco? Frauen treffen? Sex? Familie? Sportverein? Sich Bräunen


melden

Technologische Singularität

18.01.2018 um 12:17
Zitat von Taln.ReichTaln.Reich schrieb:Also Intelligenz (und daraus folgende generelle Überlegenheit) ist schon etwas mehr als Bloß schnell rechnen.
Viel mehr ist es nicht. Nicht mal schnell muss es sein, wenn man es genau nimmt.
Hab hier kürzlich was dazu verlinkt:
Beitrag von Philipp (Seite 15)


melden

Technologische Singularität

18.01.2018 um 12:24
Kleine Korrektur. Zumindest scheint es so zu sein. Ob es wirklich so ist, weiß ich natürlich auch nicht.


melden

Technologische Singularität

18.01.2018 um 13:28
Ganz vielen Dank für deine Antwort und die Info`s @uatu

Jetzt wird's mir aber schon ein bisschen mulmig, an so etwas hab ich noch garnet gedacht :).
Alleine die Vorstellung ein Computer hätte das gesamte Wissen der Menschheit gespeichert ist schon irgendwie unheimlich.
Das erste Land was so ein Ding besitzen würde hätte damit eine riesige Macht und einen großen Vorteil gegenüber den anderen.

Das erinnert mich alles irgendwie an den ersten Kinofilm von Star Trek:

Die künstliche Intelligenz V ger ist auf der Suche nach ihrem Schöpfer, den sie auf der Erde zu finden glaubt.
V ger verfügt über ungeheures Wissen, kann aber Emotionen nicht verstehen.
Als V ger versteht dass Menschen ihr Schöpfer sind verlangt es Antworten nach dem Sinn der Leere seiner Existenz,
die nichts als Logik kennt....

https://de.wikipedia.org/wiki/Star_Trek:_Der_Film

Lieber Gruß


1x zitiertmelden

Technologische Singularität

18.01.2018 um 15:08
Zitat von Sonni1967Sonni1967 schrieb:Jetzt wird's mir aber schon ein bisschen mulmig,
Willkommen im Club ! Wenn @uatu Recht hat, dann ist die KI eine maximale Bedrohung und /oder eine maximale Chance. Extreme Chancen, extreme Gefahren.


1x zitiertmelden

Technologische Singularität

18.01.2018 um 15:23
Zitat von schtabeaschtabea schrieb:Willkommen im Club ! Wenn @uatu Recht hat, dann ist die KI eine maximale Bedrohung und /oder eine maximale Chance. Extreme Chancen, extreme Gefahren.
Hallo schtabea,
ich glaub uatu hat Recht. Hab gerade über das human brain Project gelesen. Da wird versucht das menschliche Gehirn komplett
zu entschlüsseln und in ein Computer zu übertragen.

https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/die-gehirnversteher?gclid=CjwKCAiAqIHTBRAVEiwA6TgJw_06mLvt8-uLKIv9HaxzZFzkeHOOkQW1CkXidn2YQ4Nhbyj1e7N8ihoC4zIQAvD_BwE

Da werden richtig viel Gelder zur Verfügung gestellt (weiß aber nicht genau), habs gerade erst gefunden und gelesen.
Zitat von schtabeaschtabea schrieb:Extreme Chancen, extreme Gefahren.
Ja genau. Hoffentlich erkennt der Mensch die Gefahren früh genug :).
LG


2x zitiertmelden

Technologische Singularität

18.01.2018 um 15:29
Zitat von Sonni1967Sonni1967 schrieb:Hab gerade über das human brain Project gelesen. Da wird versucht das menschliche Gehirn komplett
zu entschlüsseln und in ein Computer zu übertragen.
Ich kenne das Projekt,und finde es äußerst interessant. Wobei sich mir diesbezüglich (und vergleichbarer Versuche das menschliche Gehirn als Computersimulation nachzubilden) dann die Frage aufstellt, ob man dies dann wirklich als "künstliche Intelligenz" bezeichnen könnte. Schließlich wäre es doch eher eine natürliche Intelligenz übertragen auf eine andere Plattform.


1x zitiertmelden

Technologische Singularität

18.01.2018 um 15:39
@Taln.Reich
Naja, ich würde es schon künstlich nennen, da es dann ja rein funktionell übertragen wird. Es ist dann zwar von der Funktion her natürlich, aber die Hardware ist künstlich. So verstehe ich es zumindest.


1x zitiertmelden

Technologische Singularität

18.01.2018 um 15:42
Zitat von skagerakskagerak schrieb:Naja, ich würde es schon künstlich nennen, da es dann ja rein funktionell übertragen wird. Es ist dann zwar von der Funktion her natürlich, aber die Hardware ist künstlich. So verstehe ich es zumindest.
Aber ist Intelligenz nicht eine Funktionale Größe?


1x zitiertmelden

Technologische Singularität

18.01.2018 um 16:43
Zitat von Sonni1967Sonni1967 schrieb:Ja genau. Hoffentlich erkennt der Mensch die Gefahren früh genug
Das würde rein gar nichts ändern ! Wir , die Guten, logisch, sind trotzdem gezwungen, die KI schnellstmöglich zu entwickeln und ihr alle Macht zu übertragen.
Weil nämlich sonst die anderen , die Bösen, (Du darfst hier einsetzen wen auch immer Du willst) vor uns über die absolute KI verfügen.

Immer noch besser eine "gute" und professionell programmierte KI als eine "böse" und stümperhaft programmierte KI.


melden

Technologische Singularität

18.01.2018 um 17:01
@schtabea
Und hier hast du das eigentliche menschliche Dilemma, so wie ich das sehe. Der Drang zum Dualismus. Das Abtrennen des Ego vom Rest. Selbst Buddha hat schon eine andere Sichtweise versucht zu lehren. Ist aber offenbar schwer zu fassen, für den Menschen als solches. :)


melden

Technologische Singularität

18.01.2018 um 17:08
@schtabea

Ich weiß, was Du meinst. Ist aber wirklich schwer , im vollem Umfang zu verstehen und zu erfassen. Selbst dann, wenn man an Non-Dualismus glaubt .
Ist aber hier offtopic......


melden

Technologische Singularität

18.01.2018 um 18:43
Zitat von Taln.ReichTaln.Reich schrieb:Aber ist Intelligenz nicht eine Funktionale Größe?
Keine Ahnung, aber es wäre für mich eben immer noch künstlich. Ist ja nur kopiert sozusagen.


1x zitiertmelden

Technologische Singularität

18.01.2018 um 20:06
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:Und wie will die KI die Stromkappungsoption umgehen, ohne unerlaubte Stromkabel zu verlegen oder eigene Kraftwerke hochzuziehen (was sich beides nicht unbemerkbar durchführen lässt)?
Stell Dir ein Team aus den besten Unternehmern, den besten Offizieren, den besten Wissenschaftlern, den besten Ingenieuren, den besten Was-weiss-ich der Welt vor, die sich allesamt super miteinander verstehen, und perfekt zusammenarbeiten. Könnte so ein Team das Problem -- u.U. auf sehr ungewöhnliche Weise -- lösen? Ich würde nicht dagegen wetten. Falls so ein Team es kann, wird eine entsprechend weit entwickelte KI es erst recht können. Die KI ist dabei auch nicht an eine einzige Strategie gebunden, sondern kann Dutzende möglicher Lösungen gleichzeitig verfolgen. Darüber hinaus wird das in einer Welt geschehen, die -- wie @nocheinPoet treffend beschrieb -- sehr viel weiter technisiert und vernetzt ist als unsere heutige.

In frühen Phasen wird man KIs noch durch "Steckerziehen" stoppen können. Später würde ich mich nicht mehr darauf verlassen.
Zitat von Taln.ReichTaln.Reich schrieb:Doch, ich würde schon sagen, das spielt eine Rolle. Wenn die Entwicklung irgendwo ihre Grenze hat, egal wo, dann wird von dort aus die Entwicklung nichtmehr weitergehen, und die Menschen werden sich, mit der Zeit, an die neue Supertechnologie (die sich ja nichtmehr weiterentwickeln kann weil das Ende der Fahnenstange erreicht ist) gewöhnen.
Ein "Ende der Fahnenstange" in dem Sinne, wie Du es Dir vorstellst, wird es nicht geben. Eine Grenze gibt es höchstens für die Informationsverarbeitungskapazität pro Rauminhalt, von der wir aber noch sehr, sehr weit weg sind. Bei Annäherung an diese Grenze wird sich die Entwicklung bezogen auf den Rauminhalt zwar verlangsamen, was sich aber durch die Nutzung von mehr Raum ausgleichen lässt. Für die technologische Singularität spielt das sowieso keine Rolle. Sobald Menschen der Entwicklung nicht mehr folgen können (was lange vor der Annäherung an die Grenze der Informationsverarbeitungskapazität pro Rauminhalt geschehen wird), weiss niemand, wie es danach für die Menschheit weiter geht. Das ist das Wesen der technologischen Singularität.
Zitat von Taln.ReichTaln.Reich schrieb:Kein Wunder, dass bei dir die KI so unbesiegbar scheint, schließlich gehst du davon aus, dass der KI von Anfang an unbegrenzte Freiheiten im Bau und Modifikation ihrer ausführenden Organe, ohne jegliche Aufsicht, eingeräumt werden, und unbegrenzt Nebenbetriebe (wie soll die KI umgehen das für die neue Produktionslinie Computerchips Maschinen gebraucht werden die sie nicht hat? Nur in dem sie die Maschinen selbst herstellt, was wiederum die Geräte für die Herstellung dieser Maschinen erfodert usw. usf.) aufziehen kann, ohne das z.b. das Bauamt an der Tür klopft und nach der Baugenehmigung all der von der KI neugebauten Fabriken fragt (selbst wenn das Gebäude nur von der KI/ihre ausführenden Organen konstruiert, gebaut und betreten wird, wird das Bauamt noch lange nicht den Bau dieses Gebäudes absegenen ohne den Bauplan begutachtet zu haben).
In Deutschland wird die KI am Bauamt scheitern, kein Zweifel. ;) Die Entscheidung, der KI zu ermöglichen, ihre Hardware direkt selbst weiterzuentwickeln, wird sich ganz einfach aus Wettbewerbsgründen ergeben. Wer die am weitesten entwickelte KI hat, wird auf der Welt führend sein, und die am weitesten entwickelte KI wird diejenige sein, die sich am schnellsten entwickelt. Irgendjemand wird trotz aller Gefahren den ersten Schritt tun (vielleicht noch nicht im Sinne einer vollständigen, aber doch teilweisen Autonomie der KI), und den anderen wird nichts anderes übrig bleiben, als zu folgen. Spätestens nach ein paar Zwischenstufen werden die KIs weitgehend "freie Hand" bei der Weiterentwicklung ihrer Hardware haben.

Bzgl. der Produktionsmaschinen gibt es sei langer Zeit den Trend, dass eine immer leistungsfähigere Produktion auf immer kleinerem Raum möglich ist. Man kann heute mit Spitzenklasse-CNC-Maschinen, -3D-Druckern, -Bestückungsmaschinen, etc. in einem Keller eine Produktion aufziehen, für die vor 50 Jahren noch eine ganze Fabrik erforderlich gewesen wäre. Dieser Trend wird sich weiter verstärken, und durch die breite Verfügbarkeit von universell einsetzbaren Robotern (woran aktuell in Hunderten von Unternehmen weltweit intensiv gearbeitet wird, siehe z.B. Boston Dynamics) nochmal einen erheblichen Schub bekommen. In ein paar Jahrzehnten wird der Stand (insbesondere auch durch den Fortschritt bei 3D-Druckern) für eine rekursive Weiterentwicklung einer KI in der Art, wie ich sie beschrieben hatte, ausreichend sein.
Zitat von Taln.ReichTaln.Reich schrieb:Asimov war kein Programmierer, und hat somit das Oder verwendet wie ein Mensch es verstehen würde, nicht als logisches Oder. Also der Roboter muss beide Bedingungen erfüllen, um das Gesetz zu erfüllen. Es wäre also eher: "Ein Roboter darf kein menschliches Wesen verletzen UND darf auch nicht durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird."
Wenn Asimov "und" gemeint hätte, hätte er wohl auch "und" geschrieben. ;) Unabhängig trifft Deine Beschreibung genau das Problem: Ein Computer interpretiert von Menschen vorgegebene Ziele und Regeln eben nicht unbedingt so, wie es ein Mensch tun würde.


4x zitiertmelden

Technologische Singularität

18.01.2018 um 23:07
Zitat von FedaykinFedaykin schrieb:Ich denke nicht, einfach auch weil man sich der Physikalischen Grenze nähert. Gut dann ist man irgendwann beim Quantencomputer, wenn er denn so klappt wie er soll
Das Hauptproblem ist eigentlich der Energieverbrauch und die daraus resultierende Abwärme, genau genommen sind die wirklichen Computer aktuell ziemlich winzig. Am Platz scheitert es bestimmt nicht, Nvidia springt ja massiv auf den AI Zug auf. Es gibt dann auch noch andere Wege z.B. optische Computer, am Schluß ist der Mensch das beste Beispiel das es geht und wenn es natürlich geht, dann geht es auch technisch, da ist kein großer Unterschied.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 09:12
Zitat von skagerakskagerak schrieb:Keine Ahnung, aber es wäre für mich eben immer noch künstlich. Ist ja nur kopiert sozusagen.
Eine Annalogie: du kannst mit einer Kamera mit ungeheurer Einfachheit von jeden beliebigen Gemälde eine Kopie erstellen (und bei fast allen heute üblichen Kameras diese Kopie auch gleich auf einer, von der originalen Leinwand sehr verschiedenen Oberfläche betrachten). Diese Kopie hat dieselben Ästhetischen Qualitäten wie das Original, da diese ja aus dem Muster, das kopiert wurde, entspringt. Hat also die Kamera nun Schönheit erschaffen? Nein, weil die Kamera hat ja nur das Muster, und damit die in diesem Muster innewohnende Schönheit kopiert, der Urheber dieser Schönheit ist immer noch der Schöpfer des kopierten Originals.

Und dasselbe prinzip würde auch gelten für Kopien des menschlichen Gehirnes und seiner Prozesse. Wenn Intelligenz aus dem Muster des Gehirnes entspringt (eine Annahme, die gegeben seinmuss, damit eine Kopie des menschlichen Gehirnes intelligent sein kann) dann würde die Intelligenz einer Kopie dieses Musters den selben Urheber haben: die Natur, und kein Mensch. Ergo wäre es keine künstliche Intelligenz, sondern eine natürliche, nur das sie eben auf einer künstlichen Plattform existiert.


1x zitiertmelden