Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

873 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

16.11.2024 um 11:24
Zitat von JoschiXJoschiX schrieb:Doch das ist es, zumindest was den Sprachgebrauch angeht. Nicht das Nachdenken.
Für mich nicht trennbar im Sinne von, das man den Teil der Sprachanwendung soweit extrahiert und dann mit dem Menschen vergleicht, der auch nicht weiß warum er was plappert, darum ging es mir.
Wenn wir uns das Gesagte oben mal anschauen, sehen wir eine ausdrückliche Menschenfeindlichkeit über mehrere Aussagen und die muss Gründe haben, also warum die "KI" gerade diesen Teil der Bewertung des ggü verwendet hat aber dafür gibt es imo kaum Routinen um das Nachzuverfolgen.


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 11:29
Zitat von behind_eyesbehind_eyes schrieb:Wenn wir uns das Gesagte oben mal anschauen, sehen wir eine ausdrückliche Menschenfeindlichkeit über mehrere Aussagen und die muss Gründe haben, also warum die "KI" gerade diesen Teil der Bewertung des ggü verwendet hat aber dafür gibt es imo kaum Routinen um das Nachzuverfolgen.
Weil sie es so gelernt hat und einfach nachplappert. Die KI bewertet doch gar nichts.


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 11:37
Zitat von JoschiXJoschiX schrieb:Weil sie es so gelernt hat und einfach nachplappert. Die KI bewertet doch gar nichts.
Richtig. Es ist aber nicht mehr nachvollziehbar an welcher Stelle sie welche Entscheidungen trifft um dann zum Schluss der absoluten Menachenfeindlichkeit zu kommen.
Das gänge aber, es wird imo nur nicht berücksichtigt.
Ich muss mal schauen, es gab paar Videos von Wissenschaftlern die sich genau dafür einsetzen, die Nachverfolgung im Code zu berücksichtigen. Das ist schon ein Kritikpunkt gerade weil wir noch nichtmal von echter KI sprechen.


melden

Künstliche Intelligenz

16.11.2024 um 11:42
@JoschiX
Hier mal was ich meine:
Die Entwicklung von nachvollziehbarer und erklärbarer KI erfordert konkrete Anreize für die Entwicklung transparenterer Systeme.

Für den verantwortungsvollen Einsatz von künstlicher Intelligenz (KI) ist Transparenz im Hinblick auf die Gründe für KI-gestützte algorithmische Entscheidungen eine notwendige Voraussetzung. Vor dem Hintergrund bevorstehender Regulierungsmaßnahmen wie beispielsweise der KI-Verordnung in Europas AI Act untersucht eine Studie der Mozilla Foundation verschiedene aktuelle Ansätze für KI-Transparenz sowie deren Einschränkungen.

Zu diesem Zweck wurden Interviews mit 59 Experten für Transparenz aus verschiedenen Organisationen und Bereichen durchgeführt. Dabei stellt sich heraus, dass es für die Schaffung von mehr KI-Transparenz bisher sowohl für Entwicklerinnen und Entwickler als auch für Führungskräfte zu wenige Anreize gibt. So wird bei der Entwicklung von KI-Systemen der Fokus vorwiegend auf Akkuratheit und Debugging gelegt und nicht auf die Transparenz und Nachvollziehbarkeit von deren Entscheidungen.

Hierfür gibt es der Studie zu Folge mehrere Gründe. So ist das Vertrauen in bestehende Ansätze für erklärbare KI (XAI) nur sehr schwach ausgeprägt. Zwar ist XAI ein wachsendes und aktives Forschungsfeld, allerdings ist ein Großteil der Forschung der Grundlagenforschung zuzuordnen.
Hervorhebung durch mich.
Fazit:
Im Falle des Fehlens angemessener Erklärungslösungen werden Entwickler dazu ermutigt, interpretierbare Modelle anstelle von Blackbox-Lösungen für Anwendungen zu verwenden, bei denen Rückverfolgbarkeit eine Designanforderung darstellt. Sinnvolle Transparenz zielt dabei darauf ab, sicherzustellen, dass jeder Interessengruppe eine ausreichende und verständliche Erklärung zur Verfügung steht, indem nützliche und handlungsorientierte Informationen bereitgestellt werden, um fundierte Entscheidungen zu ermöglichen.
Quelle: https://www.bidt.digital/themenmonitor/mangelnde-transparenz-und-nachvollziehbarkeit-von-ki-anwendungen/


1x zitiert1x verlinktmelden

Künstliche Intelligenz

16.11.2024 um 12:37
Zitat von WardenWarden schrieb:Selbst Kunst ist partiell Geschichte
Man muss differenzieren. Es gibt da so ein schönen Begriff der Gebrauchskunst. Das wird von der KI übernommen werden. Perspektivisch 95% Hollywood und 100% Til Schweiger

Richtige Kunst - als etwas neues erschaffen, wird keine generative KI je können.
Zitat von BorrominiBorromini schrieb:Dieser Meinung ist offenbar auch Google Gemini. Es hat neulich einem Nutzer den Tod gewünscht.
So etwas ist relativ einfach zu erklären.
LLM werdem mit Zahllosen Texten trainiert und in den Texten geht es eben auch um Bedrohungs- und Untergangszenarien.


2x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 12:51
Zitat von NegevNegev schrieb:Richtige Kunst - als etwas neues erschaffen, wird keine generative KI je können.
Das gilt dann aber auch für den Menschen, der ja ständig an seiner Umgebung antizipiert, kopiert, sampled usw.
Auch ein Mensch an sich erschafft nichts Neues im Sinne von komplett frei von äußeren Einflüssen. Genauso wird auch jedes künstliche Konstrukt arbeiten, selbst wenn man von echter KI spricht.


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 15:15
Zitat von behind_eyesbehind_eyes schrieb:Funde ich nicht gut und kann auf Entwicklerseite imo berücksichtigt werden.
Es kommen halt zwei Dinge zusammen, die Programmierung und das Training mit Daten. Die Programmierung versteht man. Die Trainingsdaten beeinflussen dann aber die Verbindungen zwischen den Neuronen. Und das kann man bei 100.000enden oder Millionen von Neuronen eben nicht mehr nachvollziehen.


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 15:33
Zitat von alhambraalhambra schrieb:Und das kann man bei 100.000enden oder Millionen von Neuronen eben nicht mehr nachvollziehen
Na, es geht ja darum, daß die schlussendliche Entscheidung einer KI transparent ist, man also nachvollziehen kann, warum sie diese Entscheidung getroffen hat. Dies zu berücksichtigen kann man, es tut nur ein wenig weh weil es Aufwand in der Programmierung bedeutet. Man muss Algorithmen implementieren die jede einzelne thematische Entscheidung protokolliert, das ist Aufwand, auch in den Loggingdaten dann, aber man kann am Ende nachvollziehen warum eine KI zu einem Entschluss gekommen ist. Die Trainingsdaten sind da eher die Verhandlungsmasse, die darauf fokussierte Programmierung aber unumgänglich.
Am Ende hat man eine Entscheidung, zum Beispiel die Entscheidung der Menschenfeindlichkeit, die man auch nachvollziehen kann und das finde ich persönlich (sowie auch andere, siehe obiges Zitat) wichtig.
Das schlimmste was uns passieren kann, ist die weitgehende Implementierung von KI ohne eine Kontrollmöglichkeit ihrer Entscheidungen.
Aber wie gesagt, das "kann" ist nicht die Frage, man muss es auch wollen.
Derzeit spielen viele mit den Modellen ohne sich wirklich mit genau diesem Fokus zu befassen, siehe oben, und genau das halte ich für falsch.


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 15:40
Zitat von behind_eyesbehind_eyes schrieb:Aber wie gesagt, das "kann" ist nicht die Frage, man muss es auch wollen.
Wie willst du das machen. Willst du wirklich für jede Entscheidung den aktuellen Zustand der Gewichtsmatrix protokollieren? Samt Eingangs und Ausgangsdaten? Kann man natürlich machen. Aber dann kannst du maximal eine Entscheidung reproduzieren. Um zu verstehen, warum die Entscheidung so gefallen ist, müsstest du immer noch detailliert über Millionen Neuronen alles nachvollziehen.

Ich glaube ich nicht, dass das viel bringt


melden

Künstliche Intelligenz

16.11.2024 um 15:46
@alhambra
Was hältst du von diesem Ansatz?

Beitrag von behind_eyes (Seite 42)

Der kommt ja direkt von Wissenschaftlern die sich damit auskennen?


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 19:56
Zitat von behind_eyesbehind_eyes schrieb:Hier mal was ich meine:
Eben da steht es doch sogar:
Zitat von behind_eyesbehind_eyes schrieb:Zwar ist XAI ein wachsendes und aktives Forschungsfeld, allerdings ist ein Großteil der Forschung der Grundlagenforschung zuzuordnen.
Es gibt keine Modelle einer Transparenten KI die mit dem Black-Boxing der jetzigen Systeme mithalten können.
Zitat von behind_eyesbehind_eyes schrieb:Der kommt ja direkt von Wissenschaftlern die sich damit auskennen?
Und in der Studie die dem Artikel zugrunde liegt wird ja auch ein Wissenschaftler zitiert:
Zachary Lipton, a machine learning researcher at Carnegie Mellon University, says that “[e]veryone who is serious in the field knows that most of today’s explainable A.I. is nonsense”; a 2020 study has shown that the well-known tools LIME and SHAP (which are already limited to explaining individual decisions, rather than a systems’ general decision-making) can be abused to make untrustworthy models seem reliable; and a summary of the field has concluded that “it remains unclear when—or even if—we will be able to deploy truly interpretable deep learning systems [for example, neural networks].” If these measures worked, they would be useful, but for the moment they remain wishful thinking.
Quelle: https://foundation.mozilla.org/en/research/library/ai-transparency-in-practice/ai-transparency-in-practice/


Also funktionierende transparente AI Modelle gibt es derzeit nicht. Aber es gibt sie nicht weil die AI Entwickler das nicht wollen, sondern weil die bisher nicht entwickelt wurden. Um das zu bewerkstelligen müsste OpenAI ihr ChatGPT komplett löschen und ein neues Modell erfinden.

Um die Nachvollziehbarkeit von Entscheidungen der bestehenden Modelle zu ermöglichen müsste, so wie @alhambra schon anmerkte, bei jeder einzelnen Fragen die beispielsweise übers Web and ChatGPT gesendet werden, das komplette neuronale Netz abgespeichert werden, mit sämtlichen Parametern/Gewichtungen/Verbindungen. Und das bei Milliarden Neuronen, bei jeder einzelnen Frage von hunderten von Millionen Usern... Milliarden an Fragen pro Tag... da muss Amazon aber noch locker ein paar mehr Atomkraftwerke in Auftrag geben.


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 20:06
Zitat von JoschiXJoschiX schrieb:Es gibt keine Modelle einer Transparenten KI die mit dem Black-Boxing der jetzigen Systeme mithalten können.
Das steht da nicht, da steht das der Fokus eben davon abgewandt ist und schon garnicht, das es nicht geht ;-)
Zitat von JoschiXJoschiX schrieb:Und in der Studie die dem Artikel zugrunde liegt wird ja auch ein Wissenschaftler zitiert:
Dem stimme ich zu, aber darum ging es eigentlich garnicht.
Zitat von JoschiXJoschiX schrieb:Also funktionierende transparente AI Modelle gibt es derzeit nicht. Aber es gibt sie nicht weil die AI Entwickler das nicht wollen, sondern weil die bisher nicht entwickelt wurden. Um das zu bewerkstelligen müsste OpenAI ihr ChatGPT komplett löschen und ein neues Modell erfinden.
Nur meine Meinung: ich befürchte dafür ist es zu spät.
Unmöglich ist es jedoch nicht.
Und ein neues Modell muss es nicht sein, das vorhandene müsste durch breakouts der Events zum Logging erweitert werden - Aufwand.
Zitat von JoschiXJoschiX schrieb:Um die Nachvollziehbarkeit von Entscheidungen der bestehenden Modelle zu ermöglichen müsste, so wie @alhambra schon anmerkte, bei jeder einzelnen Fragen die beispielsweise übers Web and ChatGPT gesendet werden, das komplette neuronale Netz abgespeichert werden, mit sämtlichen Parametern/Gewichtungen/Verbindungen. Und das bei Milliarden Neuronen, bei jeder einzelnen Frage von hunderten von Millionen Usern... Milliarden an Fragen pro Tag... da muss Amazon aber noch locker ein paar mehr Atomkraftwerke in Auftrag geben
Du weißt das sicherlich mehr was die Zahlen angeht, ich weiß nur aus eigener Erfahrung:
Das herausbrechen von Loggingevents ist Aufwand in der Programmierung und im Anschluss Aufwand in der Filterei bei Logging. Das muss gerechtfertigt werden, das sehe ich als gerechtfertigt.
Das es unmöglich ist, nein, das sehe ich nicht.... Ich verstehe aber Programmierer die dies als Argument sehen ;:)


1x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 22:34
Zitat von alhambraalhambra schrieb:Das ist nicht natürlich nicht nett.

ich frage mich dennoch was das für Leute sind, die sich davon irgendwie beeinflussen lassen. Das ist halt n Stück Software. Die macht halt komische Dinge. Und KI hat auch nix mit Intelligenz zu tun.
Richtig. Laut Kurzgesagt (ein Infotainment-Channel in mehreren Sprachen, ich glaube die waren es) sollten uns weniger jetzige Apps die "AI" / KI nur imitieren, sorgen, aber irgendwann könnte es eine "AGI", eine Artificial General Intelligence geben die wirklich quasi ein eigenständig denkender und sich selbst optimierender Akteur ist, geben. Und die könnte auch selbst auf solche Standpunkte kommen, ein bisschen wie Skynet bzw. andere KIs aus fiktiven Settings. Bisher sind die Stromvoraussetzungen für solche aber zu hoch da die Rechenleistung wohl einiges kostet.

Irgendwann könnte es sie geben.
Zitat von OptimistOptimist schrieb:das ist ja interessant, da kann Bohlen und Co einpacken 😉

Mich würde sehr solch ein Musikstück interessieren. Wenn es dir nicht zu privat und übergriffig wäre, könntest du evtl. ein Beispiel rein stellen?
'Eigentlich' wäre das kein Problem da ich auf YT bisher auch so langsam anfing Musik zu veröffentlichen - meist in einem Gamingkontext. Ich selbst schreibe Musiktracks meist in einem Spielekontext, das heißt inhaltlich beziehen sich die Songtexte auf diverse Aspekte wie Fraktionen aus Spielen. Also abstraktes Beispiel: In einem Spiel wie "Star Citizen" gibt es Konzerne, ein-zwei davon werden in meinen Tracks besungen, meist mit Eigenheiten die Spieler des Spiels dann kennen. So gesehen mache ich Nischenmusik für gewisse Zielgruppen.

Die Texte schreibe ich zum großen Teil selbst (manchmal lasse ich mir zur Inspiration Vorschläge generieren, aber schreibe die dann meist um selbst wenn ich Textteile daraus zur Inspiration nehme. Heißt ich maße mir immerhin noch einen gewissen Stolz im Songwriting an statt alles generieren zu lassen. So bleibt quasi noch ein "human element", also ein menschliches Element. Gesungener Text und Musik sind dann aber je nach Vorgabe generiert.

Nehmts mir aber nicht übel, wenn ich hier im Forum wo ich sonst meist nur diskutiere nicht auf persönliche, andere Accounts verweisen will. Vielleicht mache ich das später. Ich kann nur sagen, dass ich vom Feedback von Bekannten her und von einem der Videos die ich veröffentlicht habe aber nur gutes Feedback bekommen habe; das heißt ich denke mir das nicht aus sondern habe auch einen Vergleichswert.

Anyway, die Qualität der KI-Generierung ist wirklich in Summe hoch auch wenn es einzelne Patzer geben kann. In der Regel ist das was du generierst aber sofort (basierend auf den Vorgaben, klar) hochwertig oder gut genug. Meist kann man auch nicht mehr auf Anhieb ob der generellen Qualität überhaupt erahnen, ob ein Track mit KI generiert wurde oder ob das menschliche Künstler sind. Ich kann sogar von der Audioqualität indem ich die Marker wie z.B. "bootleg" und "live concert" einpflege sogar es so klingen lassen, als wäre ein Track ein Konzertmitschnitt mit klatschendem Publikum und Hall-Effekt usw. Verrückt.

Aber: schau gern auf die Plattformen "Suno" und "Udio". Klick dich durch die Charts oder Beispieltracks dort. Diese stehen sinnbildlich für die Qualität der Tracks die KI dir dort generieren kann (Accounts übrigens kostenfrei, man braucht auf der Homepage selbst keinen Account um sich durch die Musik dort zu klicken).
Ich kann nur sagen, dass ich in diversen Musikgenres bereits echte Hit-Tracks produziert habe. Bisher und perspektivisch auch nur zum Rumspielen und Eigenbrauch. Ich habe nicht vor, kommerziell mit so was einzusteigen, obwohl ich theoretisch die Rechte an den Tracks haben kann wenn ich meine Version upgrade. Aber ich will dann doch nicht in Konkurrenz zu echten Menschen treten und mich mit den Steuern rumschlagen, für mich ist das alles nur für privates und nicht-kommerzielles Entertainment :D
Und während ich mich zwar damit 'herausputze' die Texte selbst zu schreiben (meist könnte KI in dem inhaltlichen Nischenfeld in dem ich mit meinen Texten unterwegs bin auf Anhieb auch schlechter gute fertige Texte generieren), muss ich auch nüchtern sagen, dass wirklich jeder Vollidiot diese KI-Apps benutzen kann. Weil man sich Songtexte mit ein paar simplen Eingaben automatisch generieren kann. Notfalls paar mal machen, rumklicken, irgendwann haste was Passables.

Ich bin zwar mehr oder minder eine Art "Transhumanist" und optimistisch was auch diese Technik angeht. Aber ich kann hier menschlichen Künstlerunmut verstehen, der sich auch halt aus dieser Technik ergibt weil halt die Skill-Schranke, die menschliche Fähigkeit die man sonst bräuchte um so was zu erstellen, entwertet wird. Auf eine gewisse Art. Weil auf einmal jeder Laie so was erstellen kann auch wenn er keine Ahnung von Musikmachen (oder gar Songwriting, also Liederschreiben) hat. Aber gut, ein ähnliches Problem hat man bei Bildgenerierung.

Der Unterschied ist jetzt halt, dass diese Schranke auch beim Musikmachen gefallen ist, weil die KI-Apps hier so gut wurden, dass man jetzt auch gebrauchsfertige qualitativ an sich hochwertige Werke erzeugen kann.
Zitat von NegevNegev schrieb:Man muss differenzieren. Es gibt da so ein schönen Begriff der Gebrauchskunst. Das wird von der KI übernommen werden. Perspektivisch 95% Hollywood und 100% Til Schweiger

Richtige Kunst - als etwas neues erschaffen, wird keine generative KI je können.
Hm, kann ich partiell nachvollziehen. Aber abwarten, bis "AGI" (Artificial General Intelligence) auf den Plan tritt. Spätestens die braucht man nicht mehr händisch durch Menschen mit Referenzdaten und Kategorien füttern. Ich bin jetzt kein Experte der beiden Kunst-Begriffe und habe nur kurz reingeschaut aber würde behaupten, dass dann auch "richtige Kunst" keine Blackbox mehr ist für AGI, wenn sie es denn jetzt noch für AI(-ähnliche Apps) sein sollte.
Zitat von behind_eyesbehind_eyes schrieb:Das gilt dann aber auch für den Menschen, der ja ständig an seiner Umgebung antizipiert, kopiert, sampled usw.
Auch ein Mensch an sich erschafft nichts Neues im Sinne von komplett frei von äußeren Einflüssen. Genauso wird auch jedes künstliche Konstrukt arbeiten, selbst wenn man von echter KI spricht.
Sehe ich ähnlich. Das war immer eines meiner Argumente um jetzige KI-ähnliche Apps zu 'verteidigen' (ich sehe wie gesagt das Risiko für gewisse menschliche Künstler oder kommerzielle Anwender). Im Grunde machen die Apps auch nur was viele Menschen machen: Sie schauen sich meist im Lernprozess bestehende Werke an, von denen sie inspiriert werden und mit dessen Inspiration sie neue Werke mit ggf. vergleichbaren Parametern erstellen.


2x zitiertmelden

Künstliche Intelligenz

16.11.2024 um 22:41
Zitat von WardenWarden schrieb:Sehe ich ähnlich. Das war immer eines meiner Argumente um jetzige KI-ähnliche Apps zu 'verteidigen' (ich sehe wie gesagt das Risiko für gewisse menschliche Künstler oder kommerzielle Anwender). Im Grunde machen die Apps auch nur was viele Menschen machen: Sie schauen sich meist im Lernprozess bestehende Werke an, von denen sie inspiriert werden und mit dessen Inspiration sie neue Werke mit ggf. vergleichbaren Parametern erstellen.
Das Non-Copyright von AI-Inhalten zielt imo auch genau darauf ab und verneint ein Copyright nur deswegen, weil eine KI keine natürliche Person ist und nicht weil sie sich an Vorhandenen bedient.


melden

Künstliche Intelligenz

20.11.2024 um 08:53
Zitat von behind_eyesbehind_eyes schrieb am 16.11.2024:Das muss gerechtfertigt werden, das sehe ich als gerechtfertigt.
Das ist technisch nicht machbar und wahrscheinlich auch nur begrenzt sinnvoll.

Ich habe mir übrigens mal eine Testinstallation eines AI-Copiloten in meine Java - IDE gegnnt...

...das war schon beeindruckend. Allerdings wird man sich da erstmal dran gewöhnen müssen.


melden

Künstliche Intelligenz

13.12.2024 um 20:04
Mal wieder ein sehr starker Videobeitrag von Morpheus:

Youtube: Ehrliche Meinung: In 3 Jahren: Programmierer überflüssig?
Ehrliche Meinung: In 3 Jahren: Programmierer überflüssig?
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Es bleibt spannend. Ich programmiere auch schon in Koop mit ChatGPT.
Programmierer werden zwar nicht verschwinden. Aber der Bedarf wird weniger werden, einfach weil mehr von weniger Personal gemacht werden kann. Das eine Firma auf IT-Personal verzichten kann bzw. auf Drittanbieter, kann ich mir nicht Vorstellen. Kein Unternehmer würde oder sollte sein Business-Modell von einer Zufallsmaschine abhängig machen. Und bei KI ist immer ein Zufallsfaktor dabei. Wenn man in Zukunft mit IT Geld Verdienen will, muss man ein Generalist und ein Projektmanager werden.

Mal schauen, was KI mit unserer Arbeitswelt macht. Neulich hab ich mit einem Sachbearbeiter gesprochen, deren Abteilung "alles Digitalisiert" hat - das Heißt; Anträge werden nun per Mail verschickt und natürlich sind wir dann mit "dann wäre ich ja arbeitslos" verblieben...


melden

Künstliche Intelligenz

13.12.2024 um 20:09
@Negev

Da graust es mir jetzt schon vor, wenn das zum Großteil von KI übernommen wird, bleibt die Weiterentwicklung stehen.
Schlimmer noch, die KI entwickelt eigene Programmiersprachen die ein Mensch weder verstehen noch nachvollziehen kann.

Ich als IT'ler kann da keinen Nutzen darin sehen, einer KI das Programmieren beizubringen.

Der einzige Nutzen dessen basiert auf Faulheit.


4x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 20:16
Zitat von TanneTanne schrieb:Ich als IT'ler kann da keinen Nutzen darin sehen
Dann bist du wohl nicht mehr lange IT'er - es sei denn, du bist verbeamtet 🤣
Zitat von TanneTanne schrieb:Schlimmer noch, die KI entwickelt eigene Programmiersprachen die ein Mensch weder verstehen noch nachvollziehen kann.
Warum sollten KIs das tun?


1x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 20:19
Zitat von NegevNegev schrieb:Dann bist du wohl nicht mehr lange IT'er - es sei denn, du bist verbeamtet 🤣
Ich bin tatsächlich verbeamtet.
Zitat von NegevNegev schrieb:Warum sollten KIs das tun?
Das ist schon längst bei Chat-KIs passiert, ich suche das mal raus.

Da haben zwei KIs ihre eigene Sprache entwickelt, die die Programmierer nicht mehr verstehen konnten.

Vielleicht findest du es ja auch selbst.


1x zitiertmelden

Künstliche Intelligenz

13.12.2024 um 20:25
Zitat von TanneTanne schrieb:Da haben zwei KIs ihre eigene Sprache entwickelt, die die Programmierer nicht mehr verstehen konnten.
Ja, kann ich. Aber waren das wirklich Sprachen und nicht nur halluzinierter Quatsch? Eine Sprache hat ja immer irgendein Muster...


1x zitiertmelden