Negev schrieb:Tanne schrieb:
Aber bei dir @Negev scheint das nicht anzukommen, oder du willst mich nicht verstehen?
Negev schrieb:Aber wie kommt man von hier:
Negev schrieb:Wer kontrolliert KI?
Mit welchen Daten trainiert man KI?
Negev schrieb:Tanne schrieb:
Das sind die essentiellen Fragen
Die werden mit allem Möglichen trainiert, nicht nur Fach- und Sachbücher, sondern auch mit Internetinhalten sowie direkte Kommunikation mit Menschen.
Leider geben
alle KI-Entwickler nicht die einzelnen Quellen des Trainingsmaterial preis, vermutlich weil es viel zu viel ist um es alles vollständig aufzulisten.
An der Stelle gebe ich auch mal die "mangelnde Transparenz" der KI-Entwickler zu bedenken.
Die lassen sich aufgrund der starken Konkurrenz nicht gern in die Karten schauen.
Negev schrieb:Wer kontrolliert die KI? Ja, OpenAI legt vor. Aber andere Bewerber, und darunter sind teilweise OpenSource Projekte, legen nach oder sind in Teilen gleichauf.
Tja, das ist Frage die ich hier gestellt hatte, schön dass du da quasi mich zitierst.
Negev schrieb:Mit welchen Daten werden die KIs trainiert? Das kann man nur effektiv kontrollieren, wenn man eigene KIs entwickelt. Da helfen Gesetze nur bedingt.
Das hatte ich bereits beantwortet, auch in diesem Beitrag beantworte ich das wiederholt, siehe oben, erster Satz!
Mir ist immer noch nicht klar, warum du meine Beiträge hier nicht verstehst - oder verstehen willst.
Negev schrieb:Und ich verstehe deine Bedenken nicht? Du hast Angst, das KIs eigene Sprachen entwickeln? Nur weil etwas statistisch Sinn macht, muss es doch nicht auch tatsächlich Sinn ergeben. Im Zweifel waren die Rahmenbedingungen falsch formuliert. Klar, das gibst du zu bedenken. Aber welche Gefahr siehst du daraus folgen?
Wenn wir (Menschen) etwas entwickeln dass sich "selbständig" machen kann & Zugriff auf fast alle relevanten Informationen hat, verstehst du die Bedenken nicht? -> Tja, dann kann ich dir auch nicht dabei helfen, die Bedenken
dir verständlich zu erklären.
Negev schrieb:Eine Gefahr besteht nur dann, wenn wir uns zu abhängig von KI machen und womöglich KI über Menschen entscheiden lassen.
Das ist in einigen Bereichen schon der Fall -> Industrielle Herstellung, Automobilproduktion, Analysen, Militärequipment, etc..
Negev schrieb:Tja, wenn sich die Gesellschaft in diese Dystopien treiben lässt, dann ist das eben so.
Resignation? Das wäre der worst case schlechthin!