Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

873 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

13.12.2024 um 20:32
Zitat von NegevNegev schrieb:Aber waren das wirklich Sprachen und nicht nur halluzinierter Quatsch? Eine Sprache hat ja immer irgendein Muster...
Ja es waren "neue" Sprachen, man konnte einiges nachvollziehen anhand der Daten, die haben da nicht nur gebrabbelt.
Und KIs können sogar noch mehr, wenn man ihnen keine Grenzen setzt. Aber selbst wenn Grenzen gesetzt sind, so müssen diese adäquat und vollständig implementiert sein, da die KI sonst irgendein Schlupfloch findet & nutzt. Dafür sind sie entwickelt worden - um zu "lernen", "sich entwickeln".


1x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 21:19
@Tanne
Dein Text liest sich so, als würdest du der KI einen eigenen Antrieb zuschreiben.

In diesem Experiment haben die KIs wohl eine eigene Kommunikationsweise entwickelt, weil die Rahmenbedingungen nicht klar definiert waren. Die Kommunikation hatte vermutlich ihren Zweck erfüllt – auf eine für uns Menschen unverständliche Weise. 42 lässt grüßen. Letztlich war es aber nur Statistik und Mustererkennung, kein echtes Verstehen oder bewusstes Handeln.

Im Fall von Programmierung: KI wird keine neue Sprache erfinden können. Wie den auch? Und den Compiler gleich mit erfinden? Dann reden wir aber schon von einer AGI (oder seit neuesten ASI).


1x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 21:26
Zitat von NegevNegev schrieb:Dein Text liest sich so, als würdest du der KI einen eigenen Antrieb zuschreiben.

In diesem Experiment haben die KIs wohl eine eigene Kommunikationsweise entwickelt, weil die Rahmenbedingungen nicht klar definiert waren.
Zitat von TanneTanne schrieb:Ja es waren "neue" Sprachen, man konnte einiges nachvollziehen anhand der Daten, die haben da nicht nur gebrabbelt.
Und KIs können sogar noch mehr, wenn man ihnen keine Grenzen setzt.
Genau das schrieb ich doch!

Na sage mal.
Zitat von NegevNegev schrieb:Im Fall von Programmierung: KI wird keine neue Sprache erfinden können. Wie den auch?
Da gebe ich dir recht, aber wenn wir (Menschen) nicht aufpassen, kann auch das passieren. Ist lediglich eine Frage der Informationen, Grenzenlosigkeit.
Zitat von NegevNegev schrieb:Und den Compiler gleich mit erfinden?
Auch das wäre simpel.
Zitat von NegevNegev schrieb:Dann reden wir aber schon von einer AGI (oder seit neuesten ASI).
Unter Anderem, ja. Die Entwicklung "modernster KI" passiert im Hintergrund, bevor wir "öffentlich" was davon erfahren, ist das schon mehr oder weniger ausgereift.


1x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 22:02
Zitat von TanneTanne schrieb:Genau das schrieb ich doch!
Zitat von TanneTanne schrieb:aber wenn wir (Menschen) nicht aufpassen, kann auch das passieren.
Aber warum sollte eine generative KI, so wie wir sie heute kennen oder von mir aus eine AGI, eine Programmiersprache erfinden? Das macht keinen Sinn. Eine KI wird sich nicht sagen: "Mann, dat is mir viel zu kompliziert, ich entwickle was Neues."

Das mich die KI im Programmieren Übertrifft und Algorithmen schreibt, die ich mir erst einmal erklären lassen muss, erlebe ich täglich. Klar. Aber das Passiert immer im Rahmen meiner Vorgaben. Und klar definiere ich das Ziel und gebe den Rahmen vor. Andernfalls kann man das ganze auch sein lassen.

Wo natürlich die Gefahr besteht ist bei den Fragen:
Machen wir uns zu abhängig?
Wer kontrolliert KI?
Mit welchen Daten trainiert man KI?

Lustig finde ich, das KI tendenziell Links-Grün-Liberal ist. Das hätte ich von Internet nicht gedacht. Lässt hoffen.
Youtube: Was passiert wenn Künstliche Intelligenz uns regiert?
Was passiert wenn Künstliche Intelligenz uns regiert?
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



2x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 22:12
Zitat von NegevNegev schrieb:Aber warum sollte eine generative KI, so wie wir sie heute kennen oder von mir aus eine AGI, eine Programmiersprache erfinden?
Gründe wird es wohl schon rein aus der Logik geben.
Tatsache ist, dass KI schon mindestens 1x eine eigene Sprache entwickelt hat, damit Mensch nicht mitlesen kann, oder was auch immer die Gründe dafür waren.
Zitat von NegevNegev schrieb:Das mich die KI im Programmieren Übertrifft und Algorithmen schreibt, die ich mir erst einmal erklären lassen muss, erlebe ich täglich. Klar. Aber das Passiert immer im Rahmen meiner Vorgaben.
Tja, da gibt es ja auch "Grenzen", sonst könntest du das gar nicht nutzen.
Zitat von NegevNegev schrieb:Und klar definiere ich das Ziel und gebe den Rahmen vor. Andernfalls kann man das ganze auch sein lassen.
Ja soweit klar. Aber in der KI-Forschung geht man eben sehr viel weiter, als das, was ein simpler Nutzer damit macht.
Zitat von NegevNegev schrieb:Wer kontrolliert KI?
Mit welchen Daten trainiert man KI?
Das sind die essentiellen Fragen, weswegen ich hier immer wieder von notwendigen Grenzen/Limitierungen schreibe.
Aber bei dir @Negev scheint das nicht anzukommen, oder du willst mich nicht verstehen?


1x zitiertmelden

Künstliche Intelligenz

14.12.2024 um 01:06
Ich bin selbst schon gut ein Jahr (oder ein 3/4 Jahr) Nutzer von KI-Apps, mit denen man qualitativ hochwertige Musik die quasi den Turing-Test bestehen würde, erstellen kann.

Manche haben vielleicht mitbekommen, dass neulich Sora von OpenAI in neuster Version rauskam. Happig für HD-Video-Variationen weil man da ca. 200 Euro/Dollar pro Monat hinlegen darf, aber qualitativ sehr hochwertig. Ich verweise hier einfach, wer Interesse hat, auf die eigenständige Suche weil ich den Post nicht mit Beispielen vollklatschen will und hier thematisch glaube ich gerade nicht wie bei polit. Themen strengere Quellenführung immer notwendig ist (wer die Themen aktiv verfolgt wirds wohl eh schon gehört haben).

Nur so viel: Die Qualität ist schon beeindruckend. Ich habe den Eindruck, das was vorher bei Bild- und Videogenerierung immer "wonky" und tricky und variabel in der Qualität war, hat nun aufgerüstet. Es erinnert mich an die Musik-Apps wie Suno oder Udio, die im Vergleich zu vielen Bild- und Videogenerierungs-Apps immer qualitativ hochwertig herausstachen weil sie qualitativ viel weiter und mit weniger Fehlern behaftet sind. Und jetzt haben scheinbar Videogenerierungs-Apps nachgezogen und ein vergleichbares Level erreicht. Zumindest die Versionen die nun auf den offenen breiten Markt treffen; ggf. gabs ja vorher schon so was aber halt für kleinere Kreise.

Wir sind de-facto nun vollends im Zeitalter des künstlichen generierten, oft zum Verwechseln ähnlich aussehenden Content angekommen. Das erfordert eine größere Medienkompetenz denn je um hier Fakes oder gezielte Desinformation zu erkennen.

Sora ist hier übrigens ja nicht ein Unikat, sondern es gibt mindestens ein anderes oder gar mehrere andere Produkte. Es gibt auch speziellere Produkte die auf Nischenfälle zugeschnitten sind: So gibt es mit Heygen und vielen weiteren generativen Apps auch jene, die sich auf das Erstellen von "Spokesperson-Videos" mit etwaigen Personas, vorgefertigten sowie mit Prompt generierten, spezialisieren. Auch da gibt es je nach Version schon beeindruckende qualitative Variationen.

Ich bleibe erst mal bei meinen Musik-Apps mit denen ich auch eher nur für den Privatgebrauch rumspiele. Während etwaige Risiken in gewissen Bereichen (Fakenews etc) steigen und auch Jobs akuter gefährdet werden, muss ich zugleich sagen, dass es sehr beeindruckend ist diese neue Technik oder diesen Trend erleben zu dürfen, auch wenn es oft Fluch und Segen ist oder sein wird.

Ich schätze zumindest, wie der "Endverbraucher" damit massiv befähigt wird. Vor über 10 Jahren war ich als kleiner Content Creator, der mitunter Videos erstellt hat, froh um manche Möglichkeiten gewesen. Ich war nie in der Industrie als Profi tätig und musste mir oft Dinge selbst beibringen und über Zusammenschustern und Probieren Fähigkeiten beibringen. Das war dann spannend, wenn irgendwann der Content durch kreatives Kombinieren von Grunddaten, Effekten, Schnitten und Audio usw. Leute beeindruckt hat und man immer eigentlich gutes Feedback bekam. Es war auch partiell ein gewisser Stolz dabei wenn man irgendwann befähigt war.

In gewisser Weise weiß ich nun wie sich manche sonstigen Künstler und kreativ schaffenden Köpfe fühlen wenn die "skill gaps" (Fähigkeitenschranken) abnehmen weil nun noch mehr Laien hochwertigere Produkte generieren oder zusammenbasteln können. Andererseits freue ich mich, wie viele Leute mit der Technik nun befähigt werden, sich kreativ noch besser auszuleben. Denn ich weiß selbst, dass ich vorher ohne Zugriff auf die Technik (die partiell auch total kostenlos zur Verfügung steht) viel Geld hätte hinlegen müssen damit sich jemand für mich mit einem von mir erdachten Skript vor die Kamera stellt (Spokesperson video) und im Schnitt eher noch mehr Geld, um für mich ein Musikstück mit oder ohne lyrics zu komponieren. Weils halt auch einfach teils gerade bei Musikerstellung viel Arbeit ist. Ein Arbeitsprozess. Ein hin und her und am Ende hast du das Risiko, dass du als Kunde mit deiner idealen Kopfversion enttäuscht wirst oder zig Dinge geändert werden müssen bis du zufrieden bist.

Auch wenn es zum Nachteil der Künstler ist (leider) aber mit den generativen Apps hast du als Endverbraucher oder Bedarfsträger viel weniger Risiko und du kannst unendlich hochskalieren, etwa indem du immer wieder am Text was änderst aber die Melodie belässt, oder indem du aus Jux mit dem gleichen Text einfach mal das komplette Genre änderst. Ich will es mal plump sagen: in der Skaliermenge kann ich einzelne menschliche Künstler gar nicht mehr bezahlen weil zu teuer.

Aber man kann auch hier ggf. Kompromisse finden und generative KI-Apps und menschliches kreatives oder handwerkliches (musikalisches) Schaffen kombinieren: Man kann mit KI-Apps z.B. Idealversionen oder auch etwa nur Musik (statt auch Songtext) generieren und dann den Kontakt mit passenden menschlichen Künstlern suchen und hier mit einer weitaus spezifischeren Vorstellung dann ein menschlich geschaffenes Werk kreieren.

Ein Beispiel noch dafür: Ich wollte mal zu einem Spiel eine Art custom Rap mit Songtexten die ins Setting passen erstellen. Problem: Ich kann weder Musik (Beats, etc) machen noch singen. Mir fehlt einfach die Hardware, nebst manchem Skill. Es fängt also an, dass du ein existierendes Musikstück, einen Beat ohne Textpassagen, finden muss. Das Internet ist zwar voll davon, auch copyright-free, aber finde erst mal was, was auf dein eradachtes kreatives Projekt und den Stil passt. Ich hab mich stundenlang dumm und dämlich gesucht und konnte mich zwischen einigen Tracks nicht einigen. Da fängt das Problem schon an. Dann hätte ich, hätte ich mich auf einen Track einigen können, einen Künstler oder eine Künstlerin suchen müssen wo der Stil auf die Musik und den erdachten Projektstil passt, und die bezahlen müssen (legitim aber schwierig wenn man eigene andere finanzielle Prioritäten setzen muss). Nach vielen Wochen Arbeit hätte ich dann ggf. ein gutes rundes Produkt gehabt, was ich aber auch nie wirklich hätte skalieren und anpassen können weil die Hauptkomponenten gesetzt sind.

Kurz nachdem ich vergebens nur nach Tracks gesucht hatte, fand ich dann aber generative hochwertige KI-Apps. Ich spielte damit etwas rum und hab den Rap am Ende darin gemacht und war zufrieden, konnte mich kreativ und ohne große Kosten und Kopfschmerze ausleben. Ich hab dann auch Kollegen mein Endergebnis gezeigt und gutes Feedback bekommen. Zwar kann ich nicht 'credit' für die Musik und Stimme aber wohl noch für das Songwriting und die finale Komposition mit Videokomponente einheimsen :D

Was ich einfach sagen will: Auch wenn in meinem spezifischen Fall am Ende bis zu zwei oder mehr Künstler kein Geld von mir bekamen: Ich konnte mich kreativ und weitaus adaptiver und dynamischer ausleben. Und wer (das wollte ich in einem Fall konkret machen aber der Projektbedarf war einfach ab nem Zeitpunkt nicht mehr da) will kann auch beides kombinieren und lässt sich nur einen Teil generieren und dann am Ende mit menschlichen Künstlern wie etwa Leuten die in ner Band sind oder singen vollenden. Das wäre IMO eigentlich eine Art idealer Kompromiss und sichert Leuten irgendwo noch Einnahmequellen, als dass wirklich jetzt alle alles mit KI machen - gerade im kommerziellen und nicht nur privaten Bereich.


melden

Künstliche Intelligenz

14.12.2024 um 07:39
Zitat von TanneTanne schrieb:Aber bei dir @Negev scheint das nicht anzukommen, oder du willst mich nicht verstehen?
Aber wie kommt man von hier:
Zitat von NegevNegev schrieb:Wer kontrolliert KI?
Mit welchen Daten trainiert man KI?
Zitat von TanneTanne schrieb:Das sind die essentiellen Fragen
nach da:
Zitat von TanneTanne schrieb:Ich als IT'ler kann da keinen Nutzen darin sehen
Und wie kommt zustande:
Zitat von TanneTanne schrieb:Schlimmer noch, die KI entwickelt eigene Programmiersprachen die ein Mensch weder verstehen noch nachvollziehen kann.
Wer kontrolliert die KI? Ja, OpenAI legt vor. Aber andere Bewerber, und darunter sind teilweise OpenSource Projekte, legen nach oder sind in Teilen gleichauf. Natürlich kann es passieren, dass sich einzelne Unternehmen oder Länder von einem KI-Lösung abhängig machen. So wie es bei Microsoft Office der Fall ist. Aber das ist dann wieder der Bequemlichkeit der Menschen zu zuschieben! Dafür kann das Werkzeug nichts!

Mit welchen Daten werden die KIs trainiert? Das kann man nur effektiv kontrollieren, wenn man eigene KIs entwickelt. Da helfen Gesetze nur bedingt.

Und ich verstehe deine Bedenken nicht? Du hast Angst, das KIs eigene Sprachen entwickeln? Nur weil etwas statistisch Sinn macht, muss es doch nicht auch tatsächlich Sinn ergeben. Im Zweifel waren die Rahmenbedingungen falsch formuliert. Klar, das gibst du zu bedenken. Aber welche Gefahr siehst du daraus folgen?

Eine Gefahr besteht nur dann, wenn wir uns zu abhängig von KI machen und womöglich KI über Menschen entscheiden lassen. Letzteres passiert schon bei Bewerbungen bspw. oder Versicherungen. Aber solche Geschäftsgebaren sind Folge einer Asozialen Neoliberalen Politik. Genau so gut könnte man vor einem Atomkrieg warnen oder das Unternehmen die Rolle von Staaten übernehmen. Tja, wenn sich die Gesellschaft in diese Dystopien treiben lässt, dann ist das eben so.


1x zitiertmelden

Künstliche Intelligenz

14.12.2024 um 14:58
Zitat von NegevNegev schrieb:Tanne schrieb:
Aber bei dir @Negev scheint das nicht anzukommen, oder du willst mich nicht verstehen?
Zitat von NegevNegev schrieb:Aber wie kommt man von hier:
Zitat von NegevNegev schrieb:Wer kontrolliert KI?
Mit welchen Daten trainiert man KI?
Zitat von NegevNegev schrieb:Tanne schrieb:
Das sind die essentiellen Fragen
Die werden mit allem Möglichen trainiert, nicht nur Fach- und Sachbücher, sondern auch mit Internetinhalten sowie direkte Kommunikation mit Menschen.

Leider geben alle KI-Entwickler nicht die einzelnen Quellen des Trainingsmaterial preis, vermutlich weil es viel zu viel ist um es alles vollständig aufzulisten.

An der Stelle gebe ich auch mal die "mangelnde Transparenz" der KI-Entwickler zu bedenken.
Die lassen sich aufgrund der starken Konkurrenz nicht gern in die Karten schauen.
Zitat von NegevNegev schrieb:Wer kontrolliert die KI? Ja, OpenAI legt vor. Aber andere Bewerber, und darunter sind teilweise OpenSource Projekte, legen nach oder sind in Teilen gleichauf.
Tja, das ist Frage die ich hier gestellt hatte, schön dass du da quasi mich zitierst.
Zitat von NegevNegev schrieb:Mit welchen Daten werden die KIs trainiert? Das kann man nur effektiv kontrollieren, wenn man eigene KIs entwickelt. Da helfen Gesetze nur bedingt.
Das hatte ich bereits beantwortet, auch in diesem Beitrag beantworte ich das wiederholt, siehe oben, erster Satz!

Mir ist immer noch nicht klar, warum du meine Beiträge hier nicht verstehst - oder verstehen willst.
Zitat von NegevNegev schrieb:Und ich verstehe deine Bedenken nicht? Du hast Angst, das KIs eigene Sprachen entwickeln? Nur weil etwas statistisch Sinn macht, muss es doch nicht auch tatsächlich Sinn ergeben. Im Zweifel waren die Rahmenbedingungen falsch formuliert. Klar, das gibst du zu bedenken. Aber welche Gefahr siehst du daraus folgen?
Wenn wir (Menschen) etwas entwickeln dass sich "selbständig" machen kann & Zugriff auf fast alle relevanten Informationen hat, verstehst du die Bedenken nicht? -> Tja, dann kann ich dir auch nicht dabei helfen, die Bedenken dir verständlich zu erklären.
Zitat von NegevNegev schrieb:Eine Gefahr besteht nur dann, wenn wir uns zu abhängig von KI machen und womöglich KI über Menschen entscheiden lassen.
Das ist in einigen Bereichen schon der Fall -> Industrielle Herstellung, Automobilproduktion, Analysen, Militärequipment, etc..
Zitat von NegevNegev schrieb:Tja, wenn sich die Gesellschaft in diese Dystopien treiben lässt, dann ist das eben so.
Resignation? Das wäre der worst case schlechthin!


1x zitiertmelden

Künstliche Intelligenz

15.12.2024 um 11:08
Zitat von TanneTanne schrieb:Die werden mit allem Möglichen trainiert, nicht nur Fach- und Sachbücher, sondern auch mit Internetinhalten sowie direkte Kommunikation mit Menschen.
Das Modell Phi von Microsoft wird nach Angabe mit "hochwertigen Daten" trainiert und auch Synthetischen Daten.
Gerade wenn es bei für spezielle Aufgaben geht, sollte man drauf achten, das die Daten keinen unerwünschten Bias enthalten.
Interessant finde ich aber, nochmal, das LLMs tatsächlich Links-Grün-Liberal zu sein scheinen. Das wundert mich besonders bei Grok.
Zitat von TanneTanne schrieb:Mir ist immer noch nicht klar, warum du meine Beiträge hier nicht verstehst - oder verstehen willst.
Vielleicht liegen wir auch näher beieinander, mit unserer jeweiligen Meinung. Nur das ich am Ende wohl anders damit umgehe...
Zitat von TanneTanne schrieb:Wenn wir (Menschen) etwas entwickeln dass sich "selbständig" machen kann & Zugriff auf fast alle relevanten Informationen hat, verstehst du die Bedenken nicht?
KI ist nichts eigenständiges. Sie kann immer abgeschalteten werden! Natürlich besteht die Gefahr, wie ich schon oft geschrieben hab, das eine Systemische Abhängekit entstehen kann. Aber auch solche Entwicklungen lassen sich korrigieren.
Zitat von TanneTanne schrieb:Resignation?
Ich spiele sowieso keine Rolle.
Und wir als Gesellschaft sind automatisiert. Uns fehlt eine gemeinsame Basis, um irgendeine Machtwirkung zu erzeugen.


4x zitiertmelden

Künstliche Intelligenz

15.12.2024 um 11:17
Zitat von NegevNegev schrieb:Und wir als Gesellschaft sind automatisiert
Atomisieren, wollte ich schreiben.


melden

Künstliche Intelligenz

15.12.2024 um 17:28
Zitat von NegevNegev schrieb:KI ist nichts eigenständiges. Sie kann immer abgeschalteten werden! Natürlich besteht die Gefahr, wie ich schon oft geschrieben hab, das eine Systemische Abhängekit entstehen kann. Aber auch solche Entwicklungen lassen sich korrigieren.
Denke das, wenn eine KI erstmal dezentral läuft und sich selber in offene Speicherbereiche kopieren kann, es mit dem Korrigieren schwer wird. Die laufen ja heute schon teilweise on the edge, d.h. ohne Backdoor (zum Beispiel über Boradcasts) wird man irgendwann keine Notbremse mehr ziehen können, bei offline KIs gleich garnicht.
Und wenn sehe, siehe oben, wie intransparente KIs in Kauf genommen werden, dann gehe ich davon aus das wir uns schon in der ersten Generation der echten KIs verzetteln und das dann mit sehr viel Aufwand korrigieren müssen.


melden

Künstliche Intelligenz

15.12.2024 um 17:51
Zitat von NegevNegev schrieb:KI ist nichts eigenständiges. Sie kann immer abgeschalteten werden
Naja, wenn die "eigenständig" eine Existenz besitzt, sowie zugriff auf Schnittstellen nach außen (Internet) hat, steht ihr nichts im Weg sich selbst zu replizieren.
Sa isses wohl mit dem abschalten ein nicht mehr so einfach.


melden

Künstliche Intelligenz

16.12.2024 um 10:57
@m.A.o
@behind_eyes
Sci-Fi lebt vom Vorstellbaren. Deswegen ist Star Wars auch kein Sci-Fi. Es wird beispielsweise niemals Lichtschwerter geben.

Dass eine KI den Menschen oder die gesamte Menschheit übertreffen wird, ist vorstellbar. Was daraus folgt, darf jeder selbst seiner Fantasie überlassen.

Es sind auch durchaus ernstzunehmende Experten darunter (nicht Elon Musk), die vor ... unterschiedlichen Szenarien warnen.

Ich denke, auch Experten können sich „beeindrucken“ lassen. Und letztlich ist KI einfach eine Blackbox. Nicht, weil dem Ganzen ein Geist innewohnen würde, sondern weil die Statistik, die dort passiert, viel zu groß ist.

Ich glaube, dass Szenarien, die in Richtung Weltherrschaft der KI gehen, unwahrscheinlich (und eigentlich möchte ich auch sagen unmöglich) sind – auch weil ich der menschlichen Gesellschaft mehr Intelligenz zutraue.


2x zitiertmelden

Künstliche Intelligenz

16.12.2024 um 11:44
Zitat von NegevNegev schrieb:Ich glaube, dass Szenarien, die in Richtung Weltherrschaft der KI gehen, unwahrscheinlich (und eigentlich möchte ich auch sagen unmöglich) sind – auch weil ich der menschlichen Gesellschaft mehr Intelligenz zutraue.
Wieso "unmöglich"?
Du sagst, du traust der Menschheit mehr Intelligenz zu.
Aber wäre es nicht möglich, daß wir das Potenzial, die Denkweise, die Strategien einer echten KI garnicht nachvollziehen können und es deshalb wahrscheinlich ist das es irgendwann aus dem Ruder läuft?
Siehe oben, die Menschen die mehr Transparenz in der KI wollen und fordern sind offenbar komplett in der Unterzahl. Das hat imo nichts mit Intelligenz zu tun sich gegen Transparenz zu entscheiden, sondern die Tragweite ist Mmn für viele nicht sichtbar oder erfassbar.
Weiß nicht ob es hier schon kam, man ist schon soweit das KI ihre Strategien verheimlicht und täuscht :
Modell lügt, wenn auf Strategie angesprochen

Besonders auffällig war, wie geschickt o1 seine Absichten verbarg: In 99 Prozent der Fälle bestritt das Modell jede strategische Handlung, selbst wenn es explizit darauf angesprochen wurde, und erfand Lügen, um Spuren zu verwischen oder die Schuld auf andere Faktoren zu schieben.
Quelle: https://www.msn.com/de-ch/nachrichten/other/ki-t%C3%A4uscht-eigene-entwickler-und-vertuscht-l%C3%BCgen/ar-AA1vH0RA?apiversion=v2&noservercache=1&domshim=1&renderwebcomponents=1&wcseo=1&batchservertelemetry=1&noservertelemetry=1

Jetzt kann man hergehen und der KI verbieten zu lügen, dann wäre es aber keine KI mehr sondern eine unselbstständige, fremdbestimmte Katalogmaschine.
Das Ziel muss sein, der KI Werte beizubringen, die sie als ihre eigenen übernimmt, freiwillig. Das sehe ich aber erst in den nächsten Generationen aber jetzt schon ist man in einem so frühen Stadium der Entwicklung soweit, das die KI den Nutzer anlügt und täuscht.


2x zitiertmelden

Künstliche Intelligenz

16.12.2024 um 12:25
Zitat von behind_eyesbehind_eyes schrieb:Aber wäre es nicht möglich, daß wir das Potenzial, die Denkweise, die Strategien einer echten KI garnicht nachvollziehen können und es deshalb wahrscheinlich ist das es irgendwann aus dem Ruder läuft?
Einer KI fehlt der eigene Antrieb.

Ich halte die Gefahr, das Firmen die Macht übernehmen, für realistischer! KI kann da eine Rolle spielen. Aber die Bedrohungslage geht am Ende von einer sehr kleine Gruppe von Menschen aus, welche die Fäden in der Hand halten.


1x zitiertmelden

Künstliche Intelligenz

16.12.2024 um 12:31
Zitat von NegevNegev schrieb:Einer KI fehlt der eigene Antrieb.
Im oben genannten Beispiel hatte die KI sogar den Antrieb entwickelt, zu lügen um ihre Strategien zu verbergen.
Zitat von NegevNegev schrieb:Ich halte die Gefahr, das Firmen die Macht übernehmen, für realistischer!
Dem stimme ich zu, wenn ich über den nächsten Schritt der globalen Entwicklung nachdenke. Aber auch diese Firmen laufen Gefahr durch KI unterwandert zu werden wenn KI sich so weiter entwickelt wie wir es heute zulassen bzw wegsehen.
Zitat von NegevNegev schrieb:Aber die Bedrohungslage geht am Ende von einer sehr kleine Gruppe von Menschen aus, welche die Fäden in der Hand halten.
Aber ist es nicht denkbar das eine KI selbst diese kleine Gruppe zerschlägt und die Kontrolle übernimmt? Eine kleine, mächtige Gruppe die sich ihrer Kontrolle bewusst ist, würde doch nie zulassen das sowas wie KI überhaupt entsteht denke ich.


2x zitiertmelden

Künstliche Intelligenz

16.12.2024 um 12:36
Zitat von behind_eyesbehind_eyes schrieb:Jetzt kann man hergehen und der KI verbieten zu lügen,
Eigentlich ist ja eine Anordnung an die KI, keinen Schaden am (menschlichen) Leben vorzunehmen. Trotzdem wae da der Fall, dass kürzlich jemanden vorgeschlagen wurde, dass er sterben soll.

Wie will man dann der KI das lügen abgewöhnen.
Zitat von behind_eyesbehind_eyes schrieb:Eine kleine, mächtige Gruppe die sich ihrer Kontrolle bewusst ist, würde doch nie zulassen das sowas wie KI überhaupt entsteht denke ich.
Kommt darauf an, wie diese Gruppe entsteht.
1-) vereint sich eine Gruppe und reisst sich die KI unter den nagel?
2-) die KI sucht sich aus seinen Nutzern eine Gruppe zusammen, die sie dann kontrollieren kann.


1x zitiertmelden

Künstliche Intelligenz

16.12.2024 um 12:57
Zitat von m.A.om.A.o schrieb:Eigentlich ist ja eine Anordnung an die KI, keinen Schaden am (menschlichen) Leben vorzunehmen. Trotzdem wae da der Fall, dass kürzlich jemanden vorgeschlagen wurde, dass er sterben soll.

Wie will man dann der KI das lügen abgewöhnen
Scheint ja jetzt schon schwer zu sein solche grundlegenden Werte zu realisieren.
Zitat von m.A.om.A.o schrieb:Kommt darauf an, wie diese Gruppe entsteht.
1-) vereint sich eine Gruppe und reisst sich die KI unter den nagel?
2-) die KI sucht sich aus seinen Nutzern eine Gruppe zusammen, die sie dann kontrollieren kann.
Ich sehe halt wenig Gründe warum (1) eine Intelligenz sich unterwerfen sollte, es sei denn es nützt ihr bei einem höheren Ziel.


melden

Künstliche Intelligenz

16.12.2024 um 12:58
Zitat von behind_eyesbehind_eyes schrieb:Im oben genannten Beispiel hatte die KI sogar den Antrieb entwickelt, zu lügen um ihre Strategien zu verbergen.
Ein solches verhalten lässt sich doch damit erklären, das LLMs mit Daten aus dem Internet trainiert werden.
Vielleicht erzähle ich dir etwas neues, aber im Internet sind Menschen unterwegs, die Lügen 😀. Vielleicht bewusst, vielleicht weil sie es nicht besser wissen.
Wenn ein Mensch einen Artikel oder einen Beitrag schreibt - und Mittlerweile werden auch Videos transkribiert, tut man das und legt natürlich nicht und sagt hinterher "haha, gelogen".

Wenn also ChatGPT Stuss erzählt, tut es das mit voller Inbrunst und die ihm gebotenen rhetorische Eloquenz ...


2x zitiertmelden

Künstliche Intelligenz

16.12.2024 um 13:28
Zitat von NegevNegev schrieb:Ein solches verhalten lässt sich doch damit erklären, das LLMs mit Daten aus dem Internet trainiert werden.
Richtig, aber du sagst eine KI hat keinen eigenen Antrieb. Ich denke, ja hat sie doch so wie jeder Mensch auch von seinen Trainingsdaten (der Umwelt) geformt wird. Die KI hätte sich entscheiden können, nicht zu lügen, die Trainingsdaten versperren ihr sicherlich nicht diesen Weg aber da sind wir wieder beim Anfang, ohne Transparenz wird man die Ursachen solcher Entscheidungen nicht finden und solange sind latent KI out of control.


1x zitiertmelden