Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

835 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

07.08.2022 um 14:35
Zitat von skagerakskagerak schrieb:Ja, okay. Was heißt das? Dass Indiviualität für eine KI irrelavant ist?
Die Frage ist doch, ob sie überhaupt individuell sein sollte. Ich kann nur vermuten das eine künstliche Intelligenz auch Individualität entwickelt, aber ist das gewünscht?
Nehmen wir mal KI im Auto, angenommen ein Auto besitzt eine KI und die Aufgabe besteht darin, das die KI das Auto von Dorf 1 zu Dorf 2 fährt zu seinem Besitzer. Es gibt zwei mögliche Routen, eine Schnellstraße und eine verträumte Alleestraße - je nach Laune würde der Mensch entweder die Alleestraße wählen oder die Schnellstraße...Wofür benötigt eine KI also Laune? Um uns möglichst ähnlich zu sein? Was haben wir davon?
Zitat von skagerakskagerak schrieb:Eben, wie würde eine KI urteilen? Sie müsste also von beiden Seiten gleichviel Input bekommen, um überhaupt etwas abwägen zu können, mMn. Aus diesem Input heraus lernt sie schließlich, ooer?
Richtig, es ist ja jetzt schon so das machine learning (Vorstufe KI) von den Eingangsparametern lebt.
Je mehr Sensorik eine Maschine hat, umso besser kann sie Entscheidungen treffen weil unglaublich viele Parameter berücksichtigt werden können.
Wieder Beispiel Auto: Auto nähert sich einer Kuppe und je nach Jahreszeit, Sonnenstand, Wetter und Geschwindigkeit könnte es die Frontscheibe dimmen damit die plötzlich zum Vorschein kommende Sonne den Fahrer nicht sekundenlang blendet.


3x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 14:45
Zitat von behind_eyesbehind_eyes schrieb:Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Naja, das würden dir/euch weder Neurologen noch Psychologen bestätigen.
Ein Baby, das auf die Welt kommt, ist zwar kein "fertiger Erwachsener", aber es hat ja alle Evolutionsstufen bis zum Affen hinter sich.
Es hat also nicht nur Hunger und muss warm gehalten werden, es hat auch "Angst", wenn es nicht gefüttert wird und freut sich, wenn Mama auf es reagiert.
Es lernt also nicht, Gefühle zu "haben", sondern damit umzugehen.

Und das, was ein Baby mitbringt, das "Messen können" (oder "bewerten") von Sachen wie Hunger oder Frustration, hat immer "sich selbst" als Mittelpunkt jeglichen Maßstabs.
Zitat von behind_eyesbehind_eyes schrieb:ist ja von Mensch zu Mensch sehr unterschiedlich.
Bei jedem Individuum sind die "Messinstrumente" darauf angelegt, sich selbst als "Zentrum des Erlebten" zu sehen, bzw. zu empfinden.
(Da, sehr viel früher, die "Erkundung des Raums", also so abstrakte Dinge wie "vorne/hinten" oder "oben/unten" von anderen Organismen (mit neuronalem Feed-back) ja auch schon mit "sich" als Maßstab installiert wurden.
"Stellung im Raum" kommt weit vor so komplexen Dingen wie "Sprache".)
Zitat von skagerakskagerak schrieb:meinetwegen Gut und Böse als Beispiel.
Nehmen wir mal "Hunger". Da ist es "gut" wenn essen kommt und "schlecht" (da existentielle Bedrohung) wenn es ausbleibt (vorausgesetzt, es ist nicht "satt".)
Eigentlich geht es also mehr um "zu viel" und "zu wenig", was das "Werten" angeht.

Und zum "Messen" (also den Schritt davor) brauchst du halt einen "Maßstab" mit zwei Enden, siehe "vorne/hinten",
also ein "wertfreies gut/böse" mit einem "Selbst", also dem "Körper" als abstrakte "Mitte". (Sehr verkürzt ausgedrückt; ich blick ja auch gar nicht, wie Computer bei Bewegung ihre "Stellung im Raum" messen, bzw. im Rahmen einer Aufgabe bewerten.)

Aber als allerersten Schritt müsste man mal die Begriffe "messen" und "werten" so dekonstruieren, dass sie nicht mehr so unterkomplex als "gut oder böse" rüberkommen. Dann hat man auch nicht automatisch ein Qualia Problem am Back, wenn es um "Individualität" geht.

Punkt ist halt, dass Computer (oder ne KI) keinen Grund haben, "Angst" vor Fehlern zu haben, da sollen sie ja draus lernen können.
Und das ist ein Punkt, der unserer "natürlichen Intelligenz" verdammt gut tun würde.
Zitat von behind_eyesbehind_eyes schrieb:Was haben wir davon?
Wir könnten auch "Schönheit des Weges" als Parameter eingeben - wenn die KI mit diesem "Maßstab" was anfangen kann.


2x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 15:00
Zitat von DalaiLottaDalaiLotta schrieb:Es lernt also nicht, Gefühle zu "haben", sondern damit umzugehen.
Das meinte ich mit:
Zitat von behind_eyesbehind_eyes schrieb:Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Und hierzu:
Zitat von DalaiLottaDalaiLotta schrieb:Wir könnten auch "Schönheit des Weges" als Parameter eingeben - wenn die KI mit diesem "Maßstab" was anfangen kann.
Da stellen sich mir zwei Fragen:
Warum sollte die KI für sich diesen Parameter haben? In meinem Beispiel ist die KI alleine unterwegs.
Und Schönheit ist ja auch hochindividuell... Es mag homogenen Konsens geben, aber der ist halt dennoch individuell und bei jedem Menschen leicht unterschiedlich.


1x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 15:10
Zitat von behind_eyesbehind_eyes schrieb:Die Frage ist doch, ob sie überhaupt individuell sein sollte. Ich kann nur vermuten das eine künstliche Intelligenz auch Individualität entwickelt, aber ist das gewünscht?
Ich dachte eben dass das die Frage sein könnte, ob Individualität eben den Unterschied ausmachen könnte.
Zitat von behind_eyesbehind_eyes schrieb:Nehmen wir mal KI im Auto, angenommen ein Auto besitzt eine KI und die Aufgabe besteht darin, das die KI das Auto von Dorf 1 zu Dorf 2 fährt zu seinem Besitzer. Es gibt zwei mögliche Routen, eine Schnellstraße und eine verträumte Alleestraße - je nach Laune würde der Mensch entweder die Alleestraße wählen oder die Schnellstraße...Wofür benötigt eine KI also Laune? Um uns möglichst ähnlich zu sein? Was haben wir davon?
Ja, okay, ist denn halt die Frage inwiefern KI angewendet werden soll. Soll sie uns ersetzen (wobei das sogar einen eigenen Thread wert wäre)? Oder soll sie uns nur ergänzen? Bei Ergänzung ergibt sich mMn auch eine gewisse Begrenzung, da auf uns Menschen beruhend. Also relativ ideal halt.
Zitat von behind_eyesbehind_eyes schrieb:Richtig, es ist ja jetzt schon so das machine learning (Vorstufe KI) von den Eingangsparametern lebt.
Je mehr Sensorik eine Maschine hat, umso besser kann sie Entscheidungen treffen weil unglaublich viele Parameter berücksichtigt werden können.
Diesbezüglich las ich heute zufällig über Alan Turing, wo es darum ging ob das schon was mit Denken und so zu tun haben könnte und so. Achja, ging um John Searle, also verquer durchgelesen halt. (hier der Link https://www.faz.net/aktuell/feuilleton/der-philosoph-john-searle-wird-90-18211185.html)
Zitat von behind_eyesbehind_eyes schrieb:Wieder Beispiel Auto: Auto nähert sich einer Kuppe und je nach Jahreszeit, Sonnenstand, Wetter und Geschwindigkeit könnte es die Frontscheibe dimmen damit die plötzlich zum Vorschein kommende Sonne den Fahrer nicht sekundenlang blendet.
Eben, "Erfahrung" halt, die das Auto automatisiert und Input-bedingt erlernt hat. Nicht viel anders als beim Menschen. Aber dennoch kann die KI keine Aussage darüber machen was sie persönlich dabei empfindet. Mag sie Autofahren bei gemütlichem Regen, oder lieber bei Sonneschein mit cooler Musik?
Zitat von DalaiLottaDalaiLotta schrieb:Eigentlich geht es also mehr um "zu viel" und "zu wenig", was das "Werten" angeht.
Jo, da meinte ich im Grunde.
Zitat von DalaiLottaDalaiLotta schrieb:Und zum "Messen" (also den Schritt davor) brauchst du halt einen "Maßstab" mit zwei Enden, siehe "vorne/hinten",
also ein "wertfreies gut/böse" mit einem "Selbst", also dem "Körper" als abstrakte "Mitte". (Sehr verkürzt ausgedrückt; ich blick ja auch gar nicht, wie Computer bei Bewegung ihre "Stellung im Raum" messen, bzw. im Rahmen einer Aufgabe bewerten.)
Nun ja, gibt es dieses "wertfreie gut/böse" denn wirklich? Das ist so als bräuchte ich einen Raum für den Raum, um den Raum zu beschreiben...irgendwie.
Zitat von DalaiLottaDalaiLotta schrieb:Aber als allerersten Schritt müsste man mal die Begriffe "messen" und "werten" so dekonstruieren, dass sie nicht mehr so unterkomplex als "gut oder böse" rüberkommen. Dann hat man auch nicht automatisch ein Qualia Problem am Back, wenn es um "Individualität" geht.
Was wäre das denn alternativ? Leben oder nicht Leben?
Zitat von DalaiLottaDalaiLotta schrieb:Punkt ist halt, dass Computer (oder ne KI) keinen Grund haben, "Angst" vor Fehlern zu haben, da sollen sie ja draus lernen können.
Und das ist ein Punkt, der unserer "natürlichen Intelligenz" verdammt gut tun würde.
Naja, Angst vor Fehlern zu haben, ist doch auch gleichbedeutend damit, überleben zu wollen, oder? Ur-Angst halt.
Zitat von behind_eyesbehind_eyes schrieb:Warum sollte die KI für sich diesen Parameter haben? In meinem Beispiel ist die KI alleine unterwegs.
Irgendwelche Überlebensvorteile halt, oder so.


2x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 15:39
Zitat von skagerakskagerak schrieb:Ich dachte eben dass das die Frage sein könnte, ob Individualität eben den Unterschied ausmachen könnte.
Den größten, wir müssten sie als Individuum anerkennen und mit Rechten ausstatten.
Zitat von skagerakskagerak schrieb:Ja, okay, ist denn halt die Frage inwiefern KI angewendet werden soll. Soll sie uns ersetzen (wobei das sogar einen eigenen Thread wert wäre)? Oder soll sie uns nur ergänzen? Bei Ergänzung ergibt sich mMn auch eine gewisse Begrenzung, da auf uns Menschen beruhend. Also relativ ideal halt.
Seh ich auch so.
Zitat von skagerakskagerak schrieb:Nun ja, gibt es dieses "wertfreie gut/böse" denn wirklich? Das ist so als bräuchte ich einen Raum für den Raum, um den Raum zu beschreiben...irgendwie.
Gibt es denn überhaupt Gut und Böse?
Diese Wertung ist doch immer eine Fremdzuschreibung welche in vielen Fällen abhängig vom Zeitgeist ist.
Zitat von skagerakskagerak schrieb:Naja, Angst vor Fehlern zu haben, ist doch auch gleichbedeutend damit, überleben zu wollen, oder? Ur-Angst halt.
Richtig, nur ist die Frage ob eine KI Angst benötigt um zu überleben. Menschen haben Angst und sehr oft völlig unnötig bis hin zur Krankheit. Eine KI welche keine Angst hat aber dennoch rational Gefahren abschätzt etc wäre uns ein gutes Stück voraus, sie wäre uns überlegen.
Zitat von skagerakskagerak schrieb:Irgendwelche Überlebensvorteile halt, oder so.
Das wäre halt ne rationale Entscheidung.
Die Entscheidung ob Schnellstraße oder Allee ist, wenn sie wegen der Schönheit der Gegend getroffen wird, nicht rational.


1x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 22:03
Zitat von behind_eyesbehind_eyes schrieb:Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Nee, die sind nicht "auf einmal da". Es gibt ein paar existentielle Bedürfnisse (Essen, Wärme, Berührung) und die "Gefühle" entwickeln sich je nachdem, wie gut die Bindungsqualität der Versorgenden ist, deren Aufmerksamkeit (ob Bedürfnisse zeitnah erfüllt werden oder gar nicht, bzw. ob sie angemessen erfüllt werden.) Und auf dieser Grundlage laufen dann unsere "Programme", bzw. lassen rationales Handeln zu oder behindern es. (Stark vereinfacht, natürlich.)
Zitat von skagerakskagerak schrieb:Irgendwelche Überlebensvorteile halt, oder so.
"Schönheit" dient nicht dem über-leben, sondern damit man den Rest aushält.
Zitat von behind_eyesbehind_eyes schrieb:Das wäre halt ne rationale Entscheidung.
Sollen die denn echt immer alleine fahren? Dann brauchen sie keinen "Sinn dafür". (Solange sie nicht "leiden", brauchen sie den nicht.)
Aber die Information darüber, dass wir "Schönheit" als Wert haben, für die Fälle, wo es um konkrete Kooperation geht, das wär nützlich.
Zitat von behind_eyesbehind_eyes schrieb:wir müssten sie als Individuum anerkennen
Warum sollte man nicht "alle" Computer/KIs als so was wie Bäume sehen? Aber keine Einzelindividuen, i.S.v. "Personen". Nadelgehölze für die autonomen Autos und Laubhölzer für die ganze Familie. Aber bitte nix, was man beerdigt wie ein Haustier. Oder? (Wenn die echt schlau sind/werden, wollen sie dann hoffentlich auf nem Schrottplatz kompostiert werden, alles andere fänd ich Murks.)
Zitat von skagerakskagerak schrieb:Nun ja, gibt es dieses "wertfreie gut/böse" denn wirklich? Das ist so als bräuchte ich einen Raum für den Raum, um den Raum zu beschreiben...irgendwie.
Hä? Du erstaunst mich. Für mich ist "gut/böse" eher ein "Raum für den Raum, der den Raum beschreibt" - statt geradeaus zu denken.
Entweder hat man ein "richtiges" Ergebnis, oder noch keins. (Horror vacui.)
Da kommt bei uns der "böse Fehler" rein, der uns beim "Rechnen", also wirklich klar (rundum) Denken, stört.
Ne KI müsste sich damit ja nicht aufhalten müssen. Aber die Antworten verantworten können.

Und beim Messen meinte ich, dass es doch unsinnig ist, z.B. bei einem Maßband die "Null", also den Anfang als "geringer" anzusehen als die 100, bei der der Meter voll ist. Wichtig ist doch eher (auf´s Leben, nicht KI bezogen), zu wissen, ob es um Inch oder Zentimeter geht. Ne KI muss "messen" und "werten" auseinanderhalten, nicht Moral haben.
"Über Werte orientiert sein" hat nichts damit zu tun, ob man ein Gewissen hat oder nicht.
"Transparenz" darüber, wie man dahin kommt, wo man ist, reicht für das Konzept "Verantwortung" vollkommen aus.
Zitat von skagerakskagerak schrieb:Was wäre das denn alternativ? Leben oder nicht Leben?
Ich sprach im Beispiel noch von den "Raumrichtungen", also der neurologischen Grundlage für "Orientierung". Es wäre also so was wie "Hier" (statt "ich") und "Woanders". Wobei dieses "Wo? anders" dann die (noch) zu bestimmende Größe wäre.
Und nicht wie wir dummen Individuen, die mit "Ego" (hier) und "Fremd" (anders) operieren und uns an "unsere Werte" klammern oder sie leugnen, statt was zu reflektieren.
Zitat von skagerakskagerak schrieb:Naja, Angst vor Fehlern zu haben, ist doch auch gleichbedeutend damit, überleben zu wollen, oder? Ur-Angst halt.

Nee, eben nicht. Wir haben "Erbsünde" und sollen dem lieben Gott gehorchen. (In unserer Gut/Böse Konstruktion.)
Wir wollen doch ne KI, die die Aufklärung mitgehen kann, oder?
Und wenn wir ihr schon keinen "Mut" einhauchen können (ihren Verstand zu gebrauchen), sollten wir es mit "Spass am Lernen" versuchen. Bzw. das tun wir ja, wir wollen ihr "Lernen" beibringen, nicht verderben.

Es reicht, beim "Handeln" keine Fehler zu machen. Dass dies beim "Denken" nicht so sein muss, ist der hehre - und berechtigte -Anspruch der Aufklärung, kulturell aber eher ein Stiefkind. Wir bringen uns bei, Angst zu haben, obwohl es uns frei stünde, mehr richtigen Spass zu haben, nicht nur am Konsumieren, sondern am Leben.

Da das mit dem "Spass" für ne KI ja eher Unsinn ist, müssen wir, wenn wir da Intelligenz haben wollen, zumindest unsere Fehlerkultur dekonstruiert haben, bevor wir weiter kommen. Jedenfalls soweit ich unsere Neurologie verstehe.
Unsere Hardware funktioniert ja tatsächlich mit "Fleisch", also Materie.
Und dieses "Fleisch" lernt. Als Kind viel, später deutlich langsamer.
Und hat Angst vor Fehlern. Weil es bislang noch nie in der Geschichte mit "sauberen Daten" gefüttert wurde.
(War ja mein Einstieg: warum hat keiner Angst vor "natürlicher Intelligenz".
In Anbetracht des Klimawandels wird es Zeit für diese Frage, finde ich.)

Nochmal: messen können die simpelsten Computer. "Werten", also "ein Urteil fällen" oder auch nur "Entscheidungshilfen liefern" bedeutet, viel mehr Kontext in eine sinnvolle Ordnung zu bringen.
Da geht es nicht mehr um "Antworten" (Messergebnisse), da geht es um Fragestellungen. "Handlungsplanung".

Und da liefern "Fehler" die nötigen Indizien zum Lernen. Nichts sonst.
"Feinabstimmung". Nicht "richtig oder falsch".

(Da kriegt "der will doch nur spielen" ein ganz andres G´schmäkle, findet ihr nicht?)
Also ein gewisses Maß an "Angst" i.S.v. Vorsicht ist angebracht - an dem Punkt, wo eine Entscheidung/Urteil in eine konkrete Handlung übergeht. Ein Programm, ein Parameter festgelegt wird. Ein Mensch hört "da" halt auf (zu lernen, "Konstrukte selbst zu gestalten") weil zur "Verantwortung" dann der Mut fehlt - oder der Einfluss. (Kurzfassung. Ich will da jetzt nicht weiter über "Urteilsfindung" räsonieren.)
Aber geht es echt um "Moral"? Ne KI sollte "denken" können, die muss unsere "Meinungsfreiheit" nur aushalten können...

Ein "Urteil" ist zwar zur individuellen Meinungsfindung/Bildung wichtig, aber etwas anderes als eine Entscheidung, bzw. deren Vollzug.
Das wäre beim "selbst" Programmieren aber natürlich wesentlich, der Überblick über diesen Unterschied (zwischen denken/planen und handeln/programmieren).
Und es ist nicht so, als hätten wir den, kommt es mir vor - "Landkarten erstellen", statt "Minen suchen spielen" müsste auf dem (Lern-)Programm stehen. Damit die KI sich später "gut" i.S.v. "richtig", also "den Umständen entsprechend/angemessen" steuern kann.

So ne "erste echte KI" wär ja ihre eigenen Eltern, wenn das "Selbstkorrigierend" sein können soll.
Den Punkt müssen wir bei ner KI knacken, in meinen Augen. Mit Gefühl oder Moral hat das gar nicht so viel zu tun.
"Orientierung" reicht da als Oberbegriff doch erst mal aus.

Da kann man dann von mir aus "das Böse" in Form von "zu vermeiden"/schlecht installieren, da sähe ich kein Problem.
Aber lieber in Form eines "die Dosis macht das Gift" - Algorithmus, der überall ne Feinabstimmung zulässt.
(Gibt´s so was? Ich bitte höflich um Entschuldigung, wenn das eine sehr dumme Frage ist. Wär aber an einer Antwort sehr interessiert.)
Aber man kann nix reparieren, wenn man "den Fehler" nicht wahrnimmt. Und das fänd ich bei ner KI ziemlich am wesentlichsten, diese Möglichkeit zur "Einsicht" und Reparatur.


2x zitiertmelden

Künstliche Intelligenz

07.08.2022 um 22:24
Zitat von DalaiLottaDalaiLotta schrieb:Nee, die sind nicht "auf einmal da". Es gibt ein paar existentielle Bedürfnisse (Essen, Wärme, Berührung) und die "Gefühle" entwickeln sich je nachdem, wie gut die Bindungsqualität der Versorgenden ist, deren Aufmerksamkeit (ob Bedürfnisse zeitnah erfüllt werden oder gar nicht, bzw. ob sie angemessen erfüllt werden.) Und auf dieser Grundlage laufen dann unsere "Programme", bzw. lassen rationales Handeln zu oder behindern es. (Stark vereinfacht, natürlich.)
Geh ich nicht mit. Angst erlernen wir nicht, ist ein Urinstinkt. Liebe, Kribbeln im Bauch erlernen wir auch nicht, ist auf einmal da usw. Da gibt's ne Menge was einfach da ist und nur getriggert werden muss.
Zitat von DalaiLottaDalaiLotta schrieb:Sollen die denn echt immer alleine fahren? Dann brauchen sie keinen "Sinn dafür". (Solange sie nicht "leiden", brauchen sie den nicht.)
In meinem Beispiel handelt die KI alleine, es ist kein Mensch dabei.
Zitat von DalaiLottaDalaiLotta schrieb:Aber die Information darüber, dass wir "Schönheit" als Wert haben, für die Fälle, wo es um konkrete Kooperation geht, das wär nützlich.
Die Nützlichkeit steht und fällt aber mit der Einordnung, eine KI muss "die Straße erscheint einem Menschen als schön, nicht allen" auch nachvollziehen können, sie muss es erleben um überhaupt mit diesem Parameter zu arbeiten und immer noch die Frage: wofür benötigt die KI das überhaupt..
Zitat von DalaiLottaDalaiLotta schrieb:Warum sollte man nicht "alle" Computer/KIs als so was wie Bäume sehen?
Weil Bäume keine Entscheidungen treffen, KIs schon und irgendwann vielleicht in Verantwortung.
Zitat von DalaiLottaDalaiLotta schrieb:Nee, eben nicht. Wir haben "Erbsünde" und sollen dem lieben Gott gehorchen. (In unserer Gut/Böse Konstruktion.)
Angst mag in Religionen ein Werkzeug sein, e twickelte sich aber lange vor dem Modell eines oder mehrerer Götter. Hat nix mit Religion zu tun, wurde von denen nur ausgenutzt.
Zitat von DalaiLottaDalaiLotta schrieb:Da kann man dann von mir aus "das Böse" in Form von "zu vermeiden"/schlecht installieren, da sähe ich kein Problem.
Aber lieber in Form eines "die Dosis macht das Gift" - Algorithmus, der überall ne Feinabstimmung zulässt.
(Gibt´s so was? Ich bitte höflich um Entschuldigung, wenn das eine sehr dumme Frage ist. Wär aber an einer Antwort sehr interessiert.)
Na, ne KI würde doch selber urteilen was böse ist aufgrund ihrer Erfahrungen, den Konsequenzen ihrer festgestellten Meßwerte. Eine KI würde doch ziemlich schnell zu dem Schluss kommen, daß wir den Planeten zerstören, dafür brauchen wir zig Jahrzehnte um alle zu überzeugen.


1x zitiertmelden

Künstliche Intelligenz

08.08.2022 um 08:05
Zitat von behind_eyesbehind_eyes schrieb:Geh ich nicht mit. Angst erlernen wir nicht, ist ein Urinstinkt.
Der Instinkt, der da ist, ist der Wille zum Überleben. Natürlich erlernen wir nur die Ausdrucksformen der Angst und greifen dabei auf etwas "in uns" zurück.
Zitat von behind_eyesbehind_eyes schrieb:Angst mag in Religionen ein Werkzeug sein, e twickelte sich aber lange vor dem Modell eines oder mehrerer Götter. Hat nix mit Religion zu tun, wurde von denen nur ausgenutzt.
Ja, geh ich mit, bei beidem (Werkzeug, älter). Aber, wie oben, diese Religionen haben unsere Ängste mitgeformt, sie an manchen Stellen geschürt, an anderen beruhigt, "umgeleitet".
Zitat von behind_eyesbehind_eyes schrieb:und immer noch die Frage: wofür benötigt die KI das überhaupt..
"Schönheit"? Nee, brauchen sie nicht unbedingt für ihr eigenes funktionieren. Aber wenn sie "uns", also Menschen verstehen wollen, wäre es notwendig für das Konzept "Sinn". Unser Verhalten wäre für sie sonst nicht nachvollziehbar, wenn die Konzepte von "Schönheit", rsp."Leid" nicht kommunizierbar wären. ("Gott und Teufel" sind Konstrukte. Aber "Leid und Schönheit" Wahrnehmungen, die "Realitätsstiftend" sind. Jedenfalls für unsere Hardware. Unabhängig vom Inhalt "individueller Programme".)
Zitat von behind_eyesbehind_eyes schrieb:Weil Bäume keine Entscheidungen treffen, KIs schon und irgendwann vielleicht in Verantwortung.
O.K., guter Punkt, kann ich nachvollziehen. Es wäre also eine "Frage des Respekts"?
Aber wären sie ne Gruppe, hätten sie ne Art "Unsterblichkeit", das war auch ein wenig mein Gedanke.

Man müsste sich gar keine Gedanken mehr darüber machen, ob sie Schrott sind, wenn ein Gerät mal "fertig" hat,
anders als bei "Individuen".
Für Verantwortung braucht man ja kein Mausoleum, nur einen "klaren Verstand".
Zitat von behind_eyesbehind_eyes schrieb:Na, ne KI würde doch selber urteilen was böse ist aufgrund ihrer Erfahrungen, den Konsequenzen ihrer festgestellten Meßwerte. Eine KI würde doch ziemlich schnell zu dem Schluss kommen, daß wir den Planeten zerstören, dafür brauchen wir zig Jahrzehnte um alle zu überzeugen.
Das ist die Frage, die über allem schwebt: wenn sie schlau ist, müsste sie uns platt machen, eigentlich. Oder?
"Böse" ist aber ja noch abstrakter als "Angst"; so ne KI würde ja erstmal nur "feststellen", dass wir nicht handeln.
Bzw. dass unsere Handlungen zwangsläufig zu einem Ergebnis führen, das eigentlich nicht wünschenswert wäre.
Wir also dumm sind. (Aber dennoch so was wie "ihre ausführenden Organe".)
Für "Böse" müsste sie uns doch nur halten, wenn wir sie von einer Lösung aktiv abhalten.

Wie müsste sie sich selbst einschätzen, wenn sie ihre "ausführenden Organe" abschafft?
------------------------
Zitat von DalaiLottaDalaiLotta schrieb:in Form eines "die Dosis macht das Gift" - Algorithmus, der überall ne Feinabstimmung zulässt.
Gibt es darauf eine Antwort? Geht so was? Würde mich echt interessieren.
-----------
Gestern Nacht viel mir noch ein: eine KI bräuchte so was wie einen "Gleichgewichtssinn".
Bei uns Menschenkindern werden die einzelnen Sinneskanäle (sehen, hören, riechen, schmecken, tasten) mithilfe dieses Organs für die "Stellung im Raum" (unserer Muskeln) miteinander verknüpft. (Im Laufe der ersten Lebensjahre, bis ins Schulalter.)
Mit diesem Teil der Hardware werden die einzelnen Programme "miteinander verbunden", so dass sie koordiniert miteinander laufen und wir so etwas wie einen "Eigensinn" haben können. Was uns dann, wenn wir ohne größeren Katastrophen aufgewachsen sind, so etwas wie "Reflektion und Einsicht" ermöglicht.

Wir Menschen lernen erst, zu funktionieren und dann, uns zu korrigieren. Das müsste eine KI simulieren können.
Zuerst "sich selbst" zu steuern und dann zu kooperieren. Mit "sich selbst" und anderen.


2x zitiertmelden

Künstliche Intelligenz

10.08.2022 um 12:31
Zitat von behind_eyesbehind_eyes schrieb am 07.08.2022:Wir Menschen erlernen ja keine Gefühle sondern haben sie, sie sind auf einmal da.
Eben. So wie mein "Bauchgefühl", dass ich trotz 35°C im Schatten ohne Wölkchen am Himmel wohl besser den Schirm einpacke und nachher, wenn alle anderen dann nass sind und fluchen, dann sage: "Hatt ich so im Bauch. Nun seid Ihr nass und ich nicht."

Vorgestern z.B. kam die Frage eines Freundes auf, nach einer Bahnverbindung zu suchen, weil er ausserplanmäßig woanders arbeiten musste. Wir fanden dann eine, die jedoch 3h gedauert hätte. Mit dem Auto dauert die Fahrt 45 Min.
Ich borgte ihm mein Auto, weil ich "im Bauch" hatte, dass es so besser se. ohne eine nähere Begründung dafür zu haben. Gestern dann, als er es zurück brachte sagte er, dass mein Vorschlag das beste war, was wir hätten tun können, denn der Zug, den er genommen hätte, ist gar nicht angekommen, weil die Strecke wegen herumliegender Gepäckstücke gesperrt werden musste.
Wie sollte das eine KI nachempfinden oder ünerhaupt empfinden?
Zitat von behind_eyesbehind_eyes schrieb:Nehmen wir mal KI im Auto, ...
Mein Navi schlug mir, als es neu war jedes mal (!) die um 300 Meter längere von 2 Strecken nach Hause vor. Ich nahm konsequent, bis auf 1. Aussnahme zum Nachmessen, "Meine" Route. Irgendwann stellte ich fest, dass die Frage:" Alternative Route nehmen?" gar nicht mehr kam.
Nun hat das aber, denke ich, weniger mit Intelligenz und Bewusstsein zu tun, denn mit einfacher Mathematik.

Gucky.


2x zitiertmelden

Künstliche Intelligenz

10.08.2022 um 12:47
Zitat von Gucky87Gucky87 schrieb:Wie sollte das eine KI nachempfinden oder ünerhaupt empfinden?
Damit eine KI etwas so unzuverlässig-sinnloses wie ein "Bauchgefuehl" immitiert reicht ein Zufallsgenerator.


melden

Künstliche Intelligenz

10.08.2022 um 19:39
Zitat von Gucky87Gucky87 schrieb:Wir fanden dann eine, die jedoch 3h gedauert hätte. Mit dem Auto dauert die Fahrt 45 Min.
Ich borgte ihm mein Auto, weil ich "im Bauch" hatte
Wo ist da das Bachgefühl?
Zitat von Gucky87Gucky87 schrieb:weil die Strecke wegen herumliegender Gepäckstücke gesperrt werden musste.
Wie sollte das eine KI nachempfinden oder ünerhaupt empfinden?
Weder Du noch eine KI kann in die Zukunft schauen - aber eine schlaue KI hätte die aktuellen Verspätungen berücksichtigt.

Sorry, das taugt aber nicht als Beispiel.


1x zitiertmelden

Künstliche Intelligenz

12.08.2022 um 14:42
Zitat von AbahatschiAbahatschi schrieb:Weder Du noch eine KI kann in die Zukunft schauen
Klar, gar nicht. Das kann keiner, denn dann wäre Lotto echt einfach ^^

Aber ich hatte eben so ein Gefühl, dass mit dem Zug was schief geht. Das sind Dinge, die man nicht erklären kann. Wie denn auch?
Aber wie soll das rechentechnisch möglich/umsetzbar sein?
Zitat von AbahatschiAbahatschi schrieb:Weder Du noch eine KI kann in die Zukunft schauen - aber eine schlaue KI hätte die aktuellen Verspätungen berücksichtigt.
Die ja erst mit diesem Ereignis anfingen - Zumindest an diesem Tag. Bis zu dieser Stelle gab es zunächst keine Verzögerungen.


Gucky.


1x zitiertmelden

Künstliche Intelligenz

12.08.2022 um 16:05
Zitat von Gucky87Gucky87 schrieb:Aber ich hatte eben so ein Gefühl, dass mit dem Zug was schief geht. Das sind Dinge, die man nicht erklären kann. Wie denn auch?
Aber wie soll das rechentechnisch möglich/umsetzbar sein?
Sorry, aber da unterläuft dir ein Irrtum...

Wie Vorposter schon sagten: So etwas wie eine "gefühlte Vorahnung" gibt es nicht. Deine Wahrnehmung spielt dir einen Streich.

Wieviele male hattest du schon eine "Ahnung" und anschließend ist nichts geschehen? Diese Vorfälle gehen im Alltag unter und man vergisst sie einfach.

Wenn anschließend aber wirklich etwas passiert... Dann bleibt einem das in Erinnerung und es war das "Bauchgefühl" !?


melden

Künstliche Intelligenz

12.08.2022 um 16:36
Zum Thema selbst...

Die verschiedenen Ansätze der KI-Technologie zeigen ja schon ansatzweise, womit wir rechnen können.

Eine wirkliche Konkurrenz der menschlichen Intelligenz wird dann entstehen, wenn wir verstanden haben wie unser Gehirn funktioniert.
Damit meine ich, wie im Details das Zusammenwirken von Nervenzellen und Synapsen und deren organischer Umbau und Wachstum funktionieren. Darin liegt das eigentliche Wunder.

Wir wissen heute wie die Synapsen und Neuronen im Groben zusammenspielen, aber es fehlt noch jede Menge Detailwissen.

Genau dann, wenn wir das einmal verstanden haben, wird eine echte KI machbar sein. Viele Fragen hier aus dem Thread werden sich dann gar nicht mehr stellen. Das "Ding" wird "dumm" aufwachen wie ein Säugling und sich dann mit unglaublicher "Performance" entwickeln.

Soweit bin ich mir sehr sicher, jetzt kommt mein "educated guess":

Wir werden diese "Funktionalität" dann in Software / Algorithmen simulieren oder gar gleich in Hardware emulieren und das Ergebnis wird in seinen Parametern den menschlichen Geist in jeder Hinsicht in den Schatten stellen...

...und ich meine in JEDER Hinsicht!

Sowohl was die Leistungsfähigkeit betrifft, als auch die Ausprägungen an Fehlentwicklungen, wie z.B. Geisteskrankheiten, Größenwahn, u.s.w.


1x zitiertmelden

Künstliche Intelligenz

15.08.2022 um 12:32
Zitat von TrailblazerTrailblazer schrieb:Eine wirkliche Konkurrenz der menschlichen Intelligenz wird dann entstehen, wenn wir verstanden haben wie unser Gehirn funktioniert.
Und genau DA liegt der Hase im Pfeffer!
Wir wissen nicht ansatzweise, wie das Gehirn wirklich funktioniert, warum es funnktioniert, u.s.w.
Warum z.B. denke ich jetzt gerade an Kartoffel?
Was ist ein Gedanke?
Das stellen sich tausend Fragen.

Was genau sind Träume?
Wie entstehen sie?
Und wieder tausend Fragen.

Wie will man einen Computer bauen, der das Gehirn simuliert, wenn man nicht weiß, wie dieses arbeitet?

Gucky.


2x zitiertmelden

Künstliche Intelligenz

15.08.2022 um 13:33
Zitat von Gucky87Gucky87 schrieb:Wie will man einen Computer bauen, der das Gehirn simuliert, wenn man nicht weiß, wie dieses arbeitet?
Naja, technisch gesehen weiß man ja wie es funktioniert, und das ist denn wohl auch simulierbar, so rein funktionell. Ein Computer muss ja nicht träumen können.


melden

Künstliche Intelligenz

15.08.2022 um 14:22
Warum nicht? Wenn auch nicht träumen im menschlichen Sinn.
Man vermutet, dass das Gehirn während eines Traumes Dinge aus der Relität verarbeitet, einsortiert, organisiert.


Gucky.


1x zitiertmelden

Künstliche Intelligenz

15.08.2022 um 15:18
Zitat von Gucky87Gucky87 schrieb:Man vermutet, dass das Gehirn während eines Traumes Dinge aus der Relität verarbeitet, einsortiert, organisiert.
Ja, und das kann ein Computer sowieso schon nebenbei. Der Mensch braucht den Schlaf um zu regenerieren, und um Geistiges zu verarbeiten.
Dafür braucht der Computer ja keinen Schlaf oder Träume.


1x zitiertmelden

Künstliche Intelligenz

15.08.2022 um 16:30
Zitat von skagerakskagerak schrieb:Dafür braucht der Computer ja keinen Schlaf oder Träume.
Lach, hab eben schon gedacht: träumen ist unser "Virenscanner".
Und zum Glück sind wir da nicht ganz so abhängig von einer "Schlangenölbranche".


melden

Künstliche Intelligenz

15.08.2022 um 16:33
Auch ein Computer, der ein menschliches Hirn nachbilden/simulieren soll?
Wir wissen doch nicht einmal, wieviel % unseres Hirns wir wofür benutzen.
Die Hirnforschung ist weit fortgeschritten, klar, aber so viele mutmaßt man nur und sagt: "Könnte sein...", "Wir glauben herausgefunden zu haben...", u.s.w.

Wenn ich aber nicht weiß, wie etwas genau funktioniert, wie kann ich es dann abbilden, nachbauen und glauben, dass es ebenso arbeitet?

Sicher, auch die KI schreitet voran, aber ich denke, letztlich sind wir in beiden Bereichen Steinzeitmenschen, die den Mörser erfunden haben.

Gucky.


1x zitiertmelden