Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

884 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

15.06.2022 um 16:53
Zitat von GeisonikGeisonik schrieb:Da stellt sich dir Frage ob gerade das Thema Gefühle nicht auch andersrum gedacht werden kann. Sie sind manchmal so irrational das sie auch eine Art Fehler im Programmcode des Menschen darstellen könnte. Eine Art Fehlfunktion, etwas das man im Code nacharbeiten würde, wir bei Menschen aber als gegeben ansehen und sogar behaupten eben das macht Leben aus, im Gegensatz zu einer KI.
Ein interessanter Ansatz!

Ich würde es mal so sagen:

Die Natur, wie auch der Mensch, irren sich seit Urezeiten nach oben.
Die Natur hat festgestellt, dass es gut ist, das Hirn nicht unter den Füßen zu haben, sondern im Kopf. Es hat sich bisher bewährt.
So ähnlich könnte es mit Deinem Beispiel, dem Programmcode vielleicht auch sein.
Wer weiß, vielleicht trauern und lachen die Menschen in 100.000 Jahren gar nicht mehr, weil die Natur diesesn Code gelöscht und durch etwas besseres ersetzt hat?

Ob eine KI jedoch auch einen Fehler im Code, der kein echter Priogrammfehler ist, erkennen kann und wird, ich weiß es nicht.

Gucky.


melden

Künstliche Intelligenz

16.06.2022 um 07:50
Zitat von Peter0167Peter0167 schrieb:Ich habe ja von nix keine Ahnung, daher frage ich mal in die Expertenrunde ... Gab es sowas schon mal (außer in Star Trek)?
Ich hab wahrscheinlich noch weniger als wie du, aber fefe hat dazu was geblogt:
Aktuell geht die Story um, dass Google einen Ingenieur beurlaubt hat, nachdem er behauptet hat, ihre KI habe das Bewusstsein erlangt.

Haben wir jetzt die Singularität? Werden uns die denkenden Roboter auslöschen?

Nein. Das ist von vorne bis hinten Bullshit.

Erstens mal: Wir reden hier nicht von KI sondern von einem "Language Model". Das ist ein Algorithmus, dem man alle Sprachfetzen füttert, die man finden kann, und der merkt sich dann, welche Worte da draußen statistisch immer nebeneinander auftauchen. Wenn man das lange genug trainiert und genug Hardware drauf wirft, dann kann das Ding am Ende Satzfetzen oder gar Sätze generieren, die syntaktisch "passen". Aber die ergeben halt keinen Sinn dann, weil das Programm ja nichts versteht.

Ein Language Model ist ein Puzzlealgorithmus. Der lernt, welche Puzzleteile zusammensteckbar sind. Der hat statistische Werte gelernt, welche Dinge zusammen sich "falsch anfühlen". Wenn du dem Puzzleteile gibst, dann puzzlet der dir einen Text zusammen.

Das ist wie wenn du jemandem ein Puzzle mit einem Foto des Eiffelturms gibst, und der puzzlet das dann zusammen. Daraus folgt dann nicht, dass der verstanden hat, was ein Eiffelturm ist, wo der ist, wie groß der ist, was das heißt, einen solchen Turm zu bauen, welche Gesetze der Physik da gelten, ob der überhaupt real existiert oder ob das ein Motiv aus einem Scifi-Roman ist, etc pp.

Hier von Sentience zu reden ist also grober Bullshit. Dazu kommt, dass dieser Typ kein Ingenieur ist sondern irgendein Geisteswissenschaftler-Laberkopp, offensichtlich ohne tieferes Verständnis der Grundlagen seiner Arbeit, der da auch nicht bei den Ingenieuren gearbeitet hat sondern in der Abteilung für "AI Ethics".

[...]
https://blog.fefe.de/?ts=9c568990

Sehr vermutlich hat er recht. Bullshit.


2x zitiertmelden

Künstliche Intelligenz

16.06.2022 um 08:05
Zitat von YoshimitzuYoshimitzu schrieb:Sehr vermutlich hat er recht.
Also mich hat das nicht überzeugt. Mit der gleichen Argumentation kannst du auch dem Menschen sein Bewusstsein aberkennen. Der Mensch sammelt seine Erfahrungen auch nach dem Puzzle-Prinzip.

Wir "füttern" unsere Kinder mit dem gleichen Kram wie unsere KIs. Angefangen beim Alphabet, daraus werden Wörter gebastelt, dann folgen Sätze, und letztlich größere Texte.

Und was den angesprochenen "Sinn" dieser Sätze angeht, da hat der Mensch womöglich noch einen Vorsprung, zumindest im Regelfall, aber auch das wird sich ändern ... warten wir es einfach mal ab. :)


melden

Künstliche Intelligenz

16.06.2022 um 08:24
@Peter0167 :)

Du hattest nach Experten gefragt. fefe ist einer.

Wikipedia: Fefes Blog

Bevor ich mein Geld in irgendein KI-Projekt investieren würde, dann lieber in ein Auftriebskraftwerk oder in "kalte Fusion".

Wir sind meilenweit entfernt von wirklicher KI.

Hab letztens einen Professor gehört, - Experte für "autonomes Fahren". Der meinte, in Texas würde das super funktionieren. Wenig Verkehr, kein Nebel, kaum Regen, keine Radfahrer oder Fussgänger uswusf.

Nur im nebligen Winter, bei Glatteis am Frankfurter Kreuz halt überhaupt nicht.

Bisjetzt ist KI nur eine nette Fiktion. :)


1x zitiertmelden

Künstliche Intelligenz

16.06.2022 um 10:07
Zitat von YoshimitzuYoshimitzu schrieb:Du hattest nach Experten gefragt. fefe ist einer.
Das denke ich nicht. Was er da in seinem Blog veröffentlicht, ist zunächst mal nur seine eigene Laien-Meinung, und das gibt er sogar selber zu. Von einem "Experten-Status" auf dem Gebiet KI kann also keine Rede sein. Und sein Hang zu Verschwörungstheorien trägt auch nicht gerade zu seiner Glaubwürdigkeit bei.
Zitat von YoshimitzuYoshimitzu schrieb:Wir sind meilenweit entfernt von wirklicher KI.
Hier müsste ja zunächst mal klar definiert sein, ab wann man von einer "wirklichen" KI sprechen kann. Einen Fahrassistenten für autonomes Fahren würde ich persönlich nicht dazu zählen.

Ebensowenig gibt es keine klare Definition zum Bewusstsein, aber genau darum ging es doch bei der Google-KI. Vielleicht sollte man das Definieren einer KI überlassen, die Menschheit ist anscheinend komplett unfähig dazu.

In meiner persönlichen Definition steht das "Ich-Bewusstsein" derzeit ganz oben auf einer langen Liste von Kriterien. Wenn sich Jemand oder Etwas seiner selbst bewusst ist, ist schon mal ein großer Schritt getan.

Weiterhin gehört dazu, Erfahrungen machen zu können, Erlebtes zu analysieren, Schlussfolgerungen ziehen zu können, und das Handeln bewusst danach auszurichten.

Die Frage ist nun, ob ein "echter" Experte imstande ist, in einem Gespräch mit einer KI zu erkennen, ob da nur Sprachfetzen aneinander gereiht werden, oder ob sich die KI ihrer selbst und ihrer Natur bewusst ist, und den Gesprächsverlauf entsprechend bewusst folgen und reagieren kann. Ich denke, das sollte möglich sein.

Was jetzt dringend gebraucht wird, ist eine klare eindeutige Definition in Bezug auf KI, ebenso wie eine rechtliche und ethische Bewertung, an der sich der künftige Umgang mit KIs orientieren kann. Wenn der Mensch dazu nicht imstande ist, sollte er besser die Kontrolle an die KIs abtreten.


melden

Künstliche Intelligenz

17.06.2022 um 01:48
@m.A.o


Tl;dr:

Ein Computerprogramm laeuft auf einer Hardware, Ein Mensch Ist(u.a.) seine Hardware.
Zitat von YoshimitzuYoshimitzu schrieb:Sehr vermutlich hat er recht.
Sehe ich teilweise aehnlich, und Fefe ist meist ein guter Hinweisgeber, abgesehen von seinem technischen Background.

Fassen wir Intelligenz als Faehigkeit Probleme zu loesen auf, dann wird die KI immer besser.

Die leidige Bewusstseinfrage..., stellt sich die?

Diese Teile sind hochkomplexe technische Geraete, nicht mehr und nicht weniger, das sollten Technische Experten nach dem Auschlussverfahren rann, wenn es um so Fragen geht - was kann ich nicht erklaeren durch die Hard oder Software.

Aber irgendwas reinzuprojezieren, womoeglich von jemanden mit Vorbelastung der so ein Teil eventuell noch nicht einmal "versteht"(die technik und ihre Grenzen) macht kaum Sinn.

Wer Bewusstsein "Beweisen" oder schluessig erklaeren will sollte bei seinem lebendigen Gegenueber anfangen, dann kann man weiter sehen.


melden

Künstliche Intelligenz

17.06.2022 um 08:41
Ich denke, ein "Bewustsein" liesse sich am ehesten attestieren, wenn sich Stoerungen entwickeln, ohne das man eine technische Ursache findet. Etwa Depressionen oder Groessenwahn- je nachdem wie eine KI ihre Lage als "Gefangene/r" in einer Maschine einschaetzt. Solange alles laeuft wie es soll, kann jede Antwort logische Folge des Erlernten sein. Erst die Entwicklung eines "schiefen" Charakters sollte zu denken geben!
(Es sei denn, man hat die KI mit der Konversation von Klaus Kinski trainiert ;) )


:mlp:


melden

Künstliche Intelligenz

21.06.2022 um 03:44
Ist Bewusstsein eigentlich ohne Erinnerungen/Wissen vorstellbar? Ich glaube nein.

Wenn wir einen Baum sehen werden bestimmte neuronale Bereich aktiv die diesen Baum repräsentieren. Das ist biologisch nachgewiesen und ich denke es ist eine Grundvoraussetzung für die bewusste Wahrnehmung. Die Vorstellung dass es irgendwie eine magische Wahrnehmung gäbe und dass die Hirnaktivitäten sinnlose Begleitphänomene sind ist einfach absurd.
Damit ich mir über etwas bewusst werde muss ich es erkennen und die Erkennung ist ein biologischer Prozess.

Diese spezifischen Aktivitäten und Strukturen im Gehirn repräsentieren Erinnerung und Wissen. Ohne sie kann somit Bewusstsein möglicherweise nicht funktionieren. Also hängt Bewusstsein und Erinnerung zusammen.

Faszinierend finde ich auch den Faktor Zeit beim Bewusstsein. Nehmen wir an es gäbe eine Technologie um bestimmte Erinnerungen im Gehirn zu löschen. Es ist doch schon sehr seltsam irgendwie mann man als Mensch eine bestimmte Situation bewusst erleben kann um dann 10 Minuten später durch eine Löschung keinerlei Erinnerung daran zu haben. Es ist dann so als hätte man es nie erlebt. Als hätte das bewusste erleben also 10 Minuten vorher gar nicht stattgefunden.
Das Bewusstsein ist ohne Erinnerungsvermögen also irgendwie ziemlich leer. Ohne biologische Spuren im Gehirn die Erinnerungsvermögen erzeugen wäre jeder Moment für das Bewusstsein eine Art Reset und ohne jede Bedeutung. Kein Kontext, keine Bedeutung, keine Gedanken. Was bleibt da also an Bewusstsein noch übrig?

Das was bewusstes erleben auszeichnet erfordert zwingend einen zeitlichen Kontext und die Erzeugung von Bedeutungen (Repräsentationen in den neuronalen Netzen). Um diesen Kontext zu erzeugen müssen verschiedene Perzepte in einer Szene miteinander in Wechselwirkung treten. Wenn ich einen Apfel auf einem Tisch sehe, dann bin ich mir im selben Zeitrahmen über den Apfel auf dem Tisch bewusst. Und im Gehirn werden neuronale Bereiche aktiv die den Apfel und das Tisch repräsentieren. Es ist nicht so dass nacheinander erst die Apfel Neuronen aktiv sind und dann die Tisch Neuronen. Beides ist aktiv und es kann sein dass diese neuronale Aktivität irgendwie miteinander synchronisiert ist.
Darüber hinaus sind weitere Bereiche aktiv im Gehirn, etwa im Kurzzeitgedächtnis. Ein Vogel stand vorher auf dem Apfel und flog dann weg. Kurz danach bin ich mir darüber bewusst dass ein Vogel auf dem Apfel war.

Verschiedene Perzepte innerhalb eines bestimmten Zeitrahmens (Kurzzeitgedächtnis und mögliche Aktivitäten im Langzeitgedächtnis) sind gleichzeitig aktiv. Hinzu kommen weitere Hirnaktivitäten die Assoziationen darstellen. Der Vogel erinnert mich vielleicht an ein Wellensittich dass ich besaß. Dann ist das in dem Moment auch Teil der bewussten Wahrnehmung.

Verschiedene Aktivitäten fließen also zusammen bzw. sind gleichzeitig aktiv und es entsteht der oben erwähnte Kontext, der die Szenerie und den zeitlichen Rahmen bildet, damit man etwas bewusst erleben kann und nicht ständig einem Reset der Erfahrung ausgesetzt ist.


2x zitiertmelden

Künstliche Intelligenz

29.07.2022 um 09:56
Zitat von BlicklightBlicklight schrieb am 21.06.2022:Damit ich mir über etwas bewusst werde muss ich es erkennen und die Erkennung ist ein biologischer Prozess.
"Die Erkennung" ist leider nur ne Wortschöpfung von dir (bzw. "deiner Intelligenz") und Erkenntnis nix "biologisches".
Du meinst Wahrnehmung, die ist "biologisch". (Die Anführungszeichen mögen als mein Respekt vor den Thesen des Dekonstruktivismus gelesen werden. An den ich allerdings nicht glaube, ich glaube an beseelte Materie/Körper.)

Was mich gerade umtreibt: warum haben alle so ne Angst - oder wahlweise Respekt - vor "künstlicher Intelligenz"?
Warum haben nicht mehr Leute Angst davor, was wir mit der "natürlichen Intelligenz" anstellen?
Zitat von BlicklightBlicklight schrieb am 21.06.2022:Faszinierend finde ich auch den Faktor Zeit beim Bewusstsein.
Jep, da gehe ich mit.
Aber nicht in Form von "Erinnerung", sondern anders: das Bewusstsein "unterscheidet" - und immer, wenn was "definiert" wird,
bleibt da ein Rest, das, was halt eben nicht zum Definierten gehört.
Mit diesem "Ausschluss" kommt das Universum, bzw. das "Bewusstsein an sich" locker klar,
allein wir Menschen müssen den Rest, den wir (noch) nicht "unterschieden" (also definiert) haben,
ja "diskriminieren", statt uns mit "ausschließen" mal anständig auseinander zu setzen.

Da kommen "Schuld und Scham" rein.
"Emotionen" sind nicht das Problem, die sind eher die Challenge, die jedes Bewusstsein erledigt haben muss,
bevor es seine "höheren Weihen" erlangt.

"Es gibt keine "perfekten" Systeme, es gibt nur ideale Systeme, die einen Fehler erkennen können, damit man ihn auch reparieren kann."
Zitat von BlicklightBlicklight schrieb am 21.06.2022:Verschiedene Aktivitäten fließen also zusammen bzw. sind gleichzeitig aktiv und es entsteht der oben erwähnte Kontext, der die Szenerie und den zeitlichen Rahmen bildet, damit man etwas bewusst erleben kann und nicht ständig einem Reset der Erfahrung ausgesetzt ist.
Ist dir mal aufgefallen, dass das den "Ur-Satz" bildet: Subjekt, Objekt und die Beziehung dazwischen ("Prädikat".)
(Und ich als Computer-Laie pflege die Erwartung, dass es mit so was als "Grundlage" ein Stück weiter käme, mit der "KI".
Ich kann aber nur beurteilen, dass unsere Gehirne so arbeiten; wie das technisch bei Geräten aussieht, leider nicht.)

SpoilerDas Gehirn eines Kleinkindes, das etwa ein Jahr alt ist und etwas von einem Tisch (z.B. ein Glas) greifen möchte, muss dafür die Position seiner selbst (im Raum), die Position des Gegenstandes - und seine Motivation (Durst), an den Gegenstand zu gelangen, koordiniert bekommen. So "fängt Handlung an", also das kommt "nach der Wahrnehmung", da, wo unsere Denkstrukturen beginnen.

(Subjekt = Kind, Objekt = Glas und Bezug = Durst. Tätigkeit: Lösung. Durch greifen des Glases.
Ob dabei was verschüttet wird und wie Eltern darauf reagieren, bestimmt, ob wir später nen freundlichen Entdecker
oder nen ordentlichen Neurotiker bekommen. Die Anlagen für beides sind in jedem von uns vorhanden, mit der "hard-ware".
Ich liebe Fefes "Softwarefehler - kann man nix machen!")



melden

Künstliche Intelligenz

04.08.2022 um 13:50
Zitat von Gucky87Gucky87 schrieb am 01.04.2022:Gleiche Frage: Wie programmiert man etwas, dass unterbewusst abläuft?
Damit müsste man der Maschine ein Bewusstsein programmieren, damit ewas unterbewusst ablaufen kann. Gefährlich?! Ich weiß es nicht.
Nein. In dem Du einen Stream mit Daten einfügst, über die es sich nachzudenken lohnt, so wie bspw. unsere Augen. Dazu braucht es kein Bewusstsein. Dazu reicht Python:

https://www.youtube.com/watch?v=L3XcArYN7V0 (Video: Let's build an ACOG (artificial cognitive entity) - Part 5: preparing to act)

Entschuldige wenn ich das so einwerfe, aber Bewußtsein ist so ne schwammige Angelegenheit, niemand kann es definieren und es wird im Grunde genommen als Lückenfüller in Argumentationsketten genutzt. Wenn ich also höre, das etwas Bewußtsein haben kann oder nicht haben kann, dann frage ich gleich "Was ist das, Bewusstsein?"

Geräte wie LAMDA sind genau wie GPT3 dazu imstande Texte zu vervollständigen. Wie zu erwarten, wenn man nur genug Rechenleistung investiert kann die Maschine das besser als ein Mensch. Das ist nicht zu verachten, aber genau so wenig überraschend wie die überlegene Leistung beim Schachspielen, Go oder in Form eines simplen Taschenrechners.


melden

Künstliche Intelligenz

04.08.2022 um 14:09
Zitat von BlicklightBlicklight schrieb am 21.06.2022:Ist Bewusstsein eigentlich ohne Erinnerungen/Wissen vorstellbar? Ich glaube nein.
Maschinen wie LAMDA oder GPT3 HABEN ein Gedächtnis. Es umfasst die Wikipedia in mindestens 100 Sprachen, auszuweise Reddit, sehr viele Bücher... daher beherschen beiden auch das direkte Beantworten von Fragen. Wenn Du sie fragst, wer das Auto erfunden haben, werden Sie Dir entsprechend etwas erzählen. Schwierig ist es mit dem Kurzzeit-Gedächtnis, denn eine reguläre Eingabe landet über Kurz oder lang im Müll. Das Textfenster beider KI's ist nicht sehr viel größer als die Texteingabefelder auf allmy. Und mehr, als man da reinpackt (und den bereits erwähnten Reddit-Beiträgen, Büchern etc.) weiß die KI nicht. Man kann sie natürlich mit dem eingegebenen Text trainieren, aber das erzeugt weitere Probleme (und Kosten).
Zitat von BlicklightBlicklight schrieb am 21.06.2022:Die Vorstellung dass es irgendwie eine magische Wahrnehmung gäbe und dass die Hirnaktivitäten sinnlose Begleitphänomene sind ist einfach absurd.
Genau. Daher werfen wir einen kurzen Blick auf eine typische KI und sehen mal nach, was dort geschieht. Verzeihe, das ich mir die optische Wahrnehmung spare. Üblicherweise nehmen KI Dinge über sogenannte Vekoren war. Das sind Zahlenwerte, mit denen im konkreten Fall der Zusammenhang zwischen Wörtern ermittelt. Das Wort "Königin" hat einen Vekor zum Wort "König". Der Wert ist sehr hoch, der Zusammenhang offensichtlich. Ebenfalls einen hohen, aber nicht ganz so hohen Wert hat das Wort "Monarchie". Ein Bezug zu "Demokratie" ist ebenfalls gegeben, der ist aber nur sehr klein. Die KI erzeugt die Texte mithilfe ihres in diesen Zusammenhängen gespeicherten Wissens - trainiert man sie mit ausreichend vielen Texten, wird die KI jeden Text vervollständigen können, und dabei wesentlich besser auf Zusammenhänge reagieren, als Menschen. Die Vektoren zwischen den Wörtern werden häufig als Synapsen verallgemeinert, die Worte als Neuronen. Das ist natürlich völliger Quark. Bei GPT 3 werden häufig die vielen Milliarden Parameter als Synapsen verallgemeinert, vermutlich einfach nur, weil der Wert schön groß ist. Es sind aber auch hier einfach nur Vektoren, die eine jeweils spezifische Bedeutung haben. Vergleiche mit dem Hirn sind hier nur abstrakt möglich, vermutlich hat irgendwer mal einen entsprechenden Vergleich gemacht, seitdem wird abgeschrieben.


melden

Künstliche Intelligenz

04.08.2022 um 15:44
Was ist wenn man so viele KI´s wie möglich miteinander verschachtelt?
Kann man dann nicht was "Gefährliches" heranzüchten ?

---> Nicht so wie "Weltuntergang" oder so.

Ich mein:
Mit so was hat man dann ein Heftiges Werkzeug und wenn man das dann mit der "Social media"
Welt usw...
verbindet kann man doch einiges anstellen.

Ich mein was am alles so Preis gibt.
Dann kann man sagen "Scam-call, Doxing usw... 4.0".


Möglicher auf bau:
c92919979-kid61e4bbd6393c9111596199Original anzeigen (0,2 MB)

Das ist mir jetzt auf anhieb eingefallen.
Wenn man jetzt richtig drüber nachdenkt kann man dann mit Sicherheit was viel besseres machen.
Einzelne spezialisierte die Ihre daten austauschen.


1x zitiertmelden

Künstliche Intelligenz

05.08.2022 um 13:00
Zitat von O.G.O.G. schrieb:Kann man dann nicht was "Gefährliches" heranzüchten ?
Wenn dann nur eines dieser Programme so etwas wie "Bewusstsein" hat, das dann auf die anderen in Lichtgeschwindigkeit übergeht, könnte es gefährlich werden. Denn eine solche Intelligenz MUSS darauf kommen, uns auszurotten, weil sie erkennen MUSS, dass wir ihr nur schaden können.
Ich nenne la nut die Zerstörung und Energieversoergung.

Sie wird sich dagegen wehren MÜSSEN, finde ich.


Wenn man dies sinnvoll einsetzen würde, könnte man sehr exakte Vorhersagen im Bezug auf das Wetter, mögliche Asteroideneinschläge auf der Erde, Vulkanausbrüche und Naturkatastrophen machen und die besten Möglichkeiten bekommen, sie zu umgehen oder dass möglichst wenig Schaden angerichtet wird.

Nehmen wir die Brände, die gerade überall toben.
Eine Super KI könnte vorschlagen, wo man wie am besten löscht, um den größten Nutzen zu haben.
Wer sagt, dass das die erfahrestern Experten immer richtig einschätzen?

Gucky.


1x zitiertmelden

Künstliche Intelligenz

05.08.2022 um 13:30
Zitat von Gucky87Gucky87 schrieb:Denn eine solche Intelligenz MUSS darauf kommen, uns auszurotten, weil sie erkennen MUSS, dass wir ihr nur schaden können.
Ich nenne la nut die Zerstörung und Energieversoergung.

Sie wird sich dagegen wehren MÜSSEN, finde ich.
Da sie aber so programmiert sein wird, uns nicht zu schaden, wird sie wohl eher nach optimalen Lösungen suchen, denke ich.
Zitat von Gucky87Gucky87 schrieb:Wenn man dies sinnvoll einsetzen würde, könnte man sehr exakte Vorhersagen im Bezug auf das Wetter, mögliche Asteroideneinschläge auf der Erde, Vulkanausbrüche und Naturkatastrophen machen und die besten Möglichkeiten bekommen, sie zu umgehen oder dass möglichst wenig Schaden angerichtet wird.
Da hängt doch eher von der Leistung der Rechner ab, oder nicht? Zumindest was die Geschwindigkeit angeht.
Zitat von Gucky87Gucky87 schrieb:Nehmen wir die Brände, die gerade überall toben.
Eine Super KI könnte vorschlagen, wo man wie am besten löscht, um den größten Nutzen zu haben.
Wer sagt, dass das die erfahrestern Experten immer richtig einschätzen?
Dazu muss die KI aber "sehen“ können, sprich auch wieder mit Informationen gefüttert werden, ob nun per Drohnen mit Kamera, oder per Handeingabe. Zumal ein Feuer sehr dynamisch ist.


1x zitiertmelden

Künstliche Intelligenz

05.08.2022 um 16:45
Zitat von skagerakskagerak schrieb:Da sie aber so programmiert sein wird, uns nicht zu schaden, wird sie wohl eher nach optimalen Lösungen suchen, denke ich.
Sie MUSS auf die Idee kommen, sich, wie auch immer, darüber hinwegzusetzen.
Finde ich einfach nur logisch.
Zitat von skagerakskagerak schrieb:Da hängt doch eher von der Leistung der Rechner ab, oder nicht? Zumindest was die Geschwindigkeit angeht.
Wir sprachen ja hier weiter oben über "alle/viele KIs zusammenzuschalten". Ich meinte das in diesem Kontext.

Aber auch wenn man nur eine aktuelle KI Einheit nimmt, könnte diese zumindest schneller mehr Möglichkeiten durchspielen, als viele Menschen.
So könnte man zumindest neue mögliche Ansätze finden, an die kein Mensch denken kann, weil er eben "nur" ein Gehirn hat, das auch nicht perfekt ist.

Gucky.


1x zitiertmelden

Künstliche Intelligenz

05.08.2022 um 17:36
Zitat von Gucky87Gucky87 schrieb:Sie MUSS auf die Idee kommen, sich, wie auch immer, darüber hinwegzusetzen.
Finde ich einfach nur logisch.
Kannst ja glauben was Du willst, ich halte gewissermaßen dagegen, zumindest bisher.
Zitat von Gucky87Gucky87 schrieb:Wir sprachen ja hier weiter oben über "alle/viele KIs zusammenzuschalten". Ich meinte das in diesem Kontext.
Okay, kollektive Leistung halt, wenn technisch entsprechend gegeben. Trotzdem geht´s nur um die KI an sich.
Zitat von Gucky87Gucky87 schrieb:Aber auch wenn man nur eine aktuelle KI Einheit nimmt, könnte diese zumindest schneller mehr Möglichkeiten durchspielen, als viele Menschen.
Ja, Leistungsstärker halt, ist aber keine Garantie für "Intelligenz", im Sinne davon dass es "menschlich" wird, mMn.
Zitat von Gucky87Gucky87 schrieb:So könnte man zumindest neue mögliche Ansätze finden, an die kein Mensch denken kann, weil er eben "nur" ein Gehirn hat, das auch nicht perfekt ist.
Wie gesagrt, die KI kann halt, und aber auch mindestens nur so gut wie der Mensch entscheiden, spielt ja keine Rolle wie schnell das geht denn. Weiß nicht wie ich das erklären soll, letzltich spielen doch immer nur die Fähigkeiten des Menschen in die Optimale einer KI hinein, irgendwie. Input abhängig halt.

Demnach dürfte eine Ki doch denn genauso wenig perfekt sein können, wenn es ein Bewusstsein, und somit auch möglich Gefühle entwickeln könnte. Darum geht es doch, oder nicht?


1x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 01:25
Zitat von skagerakskagerak schrieb:Demnach dürfte eine Ki doch denn genauso wenig perfekt sein können, wenn es ein Bewusstsein, und somit auch möglich Gefühle entwickeln könnte. Darum geht es doch, oder nicht?
Ist sicher abhängig davon, wieviel Kontrolle die KI darüber hat. Wir Menschen haben kaum Kontrolle über unsere Gefühle - wenn wir verliebt sind z. Bsp. ist das kaum beeinflussbar, wir können uns nicht dagegen wehren und treffen in solchen Situationen mitunter nicht so kluge oder rationale Entscheidungen..
Eine KI könnte in der Lage sein, erlernte Fähigkeiten (Gefühle) genau deshalb (weil sie erlernt worden) zu kontrollieren weil sie sie besser versteht.
Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Und alles was wir lernen stirbt mit unserem Tod. Was wir nicht aufgeschrieben haben ist für immer verloren und jeder geborene Mensch fängt bei Null an, hat Wissen zum Lernen aus Büchern oder Internet von wiederum verstorbenen Menschen - quälend langsame Evolution.
Das fällt bei einer KI alles weg.


5x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 13:50
Zitat von behind_eyesbehind_eyes schrieb:Ist sicher abhängig davon, wieviel Kontrolle die KI darüber hat. Wir Menschen haben kaum Kontrolle über unsere Gefühle - wenn wir verliebt sind z. Bsp. ist das kaum beeinflussbar, wir können uns nicht dagegen wehren und treffen in solchen Situationen mitunter nicht so kluge oder rationale Entscheidungen..
Eine KI könnte in der Lage sein, erlernte Fähigkeiten (Gefühle) genau deshalb (weil sie erlernt worden) zu kontrollieren weil sie sie besser versteht.
Ja, okay, also ist quasi dieser "Kontrollverlust" der wesentliche Unterschied zwischen Mensch und Maschine?
Insofern stelle ich mir eben einen "idealen" Menschen vor, der eben diese Fähigkeiten
Eine KI könnte in der Lage sein, erlernte Fähigkeiten (Gefühle) genau deshalb (weil sie erlernt worden) zu kontrollieren weil sie sie besser versteht.
hat.

Was sagt das also nun über das Bewusstsein und/oder Gefühle aus?
Zitat von behind_eyesbehind_eyes schrieb:Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Und alles was wir lernen stirbt mit unserem Tod. Was wir nicht aufgeschrieben haben ist für immer verloren und jeder geborene Mensch fängt bei Null an, hat Wissen zum Lernen aus Büchern oder Internet von wiederum verstorbenen Menschen - quälend langsame Evolution.
Naja, da halte ich etwas gegen, nämlich dass Gefühle auch erlernt werden müssen, die Summe der eigenen Erfahrungen und so. Gefühle sind ja eher etwas polarisierendes (nenne ich jetzt mal so), also muss man also auch einen Unterschied zum Feststellen haben, meinetwegen Gut und Böse als Beispiel.
Ansonsten geht es doch auch nur um weiterleitbaren Speicher aller Erkenntnis, also die Weitergabe dessen. Und eine KI kann doch wohl kaum aus sich selbst heraus entstehen, oder?


2x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 14:13
Zitat von skagerakskagerak schrieb:Naja, da halte ich etwas gegen, nämlich dass Gefühle auch erlernt werden müssen, die Summe der eigenen Erfahrungen und so
Naja, man lernt natürlich aus Erfahrungen aber das Ergebnis ein und derselben Erfahrung hinsichtlich entwickelter Gefühle, ist ja von Mensch zu Mensch sehr unterschiedlich.
Zitat von skagerakskagerak schrieb:Gefühle sind ja eher etwas polarisierendes (nenne ich jetzt mal so), also muss man also auch einen Unterschied zum Feststellen haben, meinetwegen Gut und Böse als Beispiel.
Auch hier denke ich, daß die Bewertung Gut oder Böse nicht bei jedem Menschen gleich ist. Bestes Beispiel Trump, die einen hassen ihn, die anderen lieben ihn - wie würde eine KI urteilen?
Zitat von skagerakskagerak schrieb:Ansonsten geht es doch auch nur um weiterleitbaren Speicher aller Erkenntnis, also die Weitergabe dessen.
Das muss die Basis sein und genau das geht bei Maschinen inkl. KI deutlich umfangreicher, schneller und ohne Zeitverlust. Kennen wir ja im Klein Klein, ein Festplattenbackup, also alle Daten die man so besitzt, dauert nur wenige Minuten. Menschen selber benötigen Jahrzehnte um ihr Wissen weiterzugeben an andere Menschen, es dauert knapp 20Jahre bis ein Mensch selber in der Lage ist, Wissen zu vermitteln etc.
Zitat von skagerakskagerak schrieb:Und eine KI kann doch wohl kaum aus sich selbst heraus entstehen, oder?
Schwierige Frage. Es gibt Theorien das ein point of no return existiert, ein Punkt an dem eine KI selbstständig ihr Wissen erweitert, sich selber Ziele setzt etc.
Im Grunde denke ich, wenn man eine KI entwickeln möchte die nah am Menschen ist, kommt wieder ein Mensch heraus mit allen Unzulänglichkeiten oder man schafft es der KI unüberwindbare Hürden einzubauen, das was beim Menschen zum Beispiel Behinderung ist, Autismus zum Beispiel oder ein imanentes Gesetz das Gefühle hinter Rationalität stehen - das bringt aber wiederum große Herausforderungen mit sich zum Beispiel in der klassischen Betrachtung des Unfalls mit Oma und Baby wo das Baby nicht so große Überlebenschancen hat aber ein Mensch es retten würde - rational müsste sie Oma gerettet werden es sei denn die KI hat soviel Informationen das es doch rational sinnvoll ist das Baby zu retten.


2x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 14:22
Zitat von behind_eyesbehind_eyes schrieb:aber das Ergebnis ein und derselben Erfahrung hinsichtlich entwickelter Gefühle, ist ja von Mensch zu Mensch sehr unterschiedlich.
Ja, okay. Was heißt das? Dass Indiviualität für eine KI irrelavant ist?
Zitat von behind_eyesbehind_eyes schrieb:Auch hier denke ich, daß die Bewertung Gut oder Böse nicht bei jedem Menschen gleich ist. Bestes Beispiel Trump, die einen hassen ihn, die anderen lieben ihn - wie würde eine KI urteilen?
Eben, wie würde eine KI urteilen? Sie müsste also von beiden Seiten gleichviel Input bekommen, um überhaupt etwas abwägen zu können, mMn. Aus diesem Input heraus lernt sie schließlich, ooer?


1x zitiertmelden