Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

672 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

19.03.2021 um 11:21
Zitat von SonnenenergieSonnenenergie schrieb am 19.02.2021:Ich denke eher, dass die KI die Zukunft hochrechnen und sie dann den "freien Willen" als äußerst gefährlich einstufen wird.
Nicht nur das auch würde so eine KI den Ressourcen verbrauch Pro Kopf und Jahr hochrechnen und das auf die nächsten X
Jahrhunderte.

Und da geht es um die Ressourcen die für die KI wichtig ist.
z.b. Seltenen Erden für Chips.


melden

Technologische Singularität

20.03.2021 um 19:14
@O.G.

Ich schätze die KI so intelligent ein, dass diese Erden irgendwann nicht mehr nottun, denn "seltene" Erden werden immer zu einem Engpass führen ob mit oder ohne Menschen.

Es werden sicherlich Alternativen gesucht


1x zitiertmelden

Technologische Singularität

02.02.2025 um 18:47
Silver Surfer All That You KnowOriginal anzeigen (0,2 MB)

Fantastic Four: Rise of the Silver Surfer @1:17

Es ist soweit. Seit Jahrzehnten führe ich Diskussionen (von denen sich einige hier im Forum nachlesen lassen) mit KI-Skeptikern und -Hassern, und ich bin selbst etwas erstaunt, wie sehr die reale Entwicklung dem entspricht, was ich stets vorhergesagt habe. In den letzten Monaten gab es einen entscheidenden Durchbruch bei KIs, den die breite Masse der Menschen (einschliesslich der Politik) allem Anschein nach noch nicht mal ansatzweise begriffen hat. Das Silver-Surfer-Zitat möchte ich dabei mit der Betonung auf "... that you know ..." verstanden wissen.

Ich habe die Dot-Com-Ära in den späten 1990ern und frühen 2000ern als Player -- zeitweise im Herzen des Geschehens, in San Fancisco -- miterlebt, sowohl im Rahmen eines Startups als auch als unabhängiger Berater eines grossen deutschen Konzerns, wodurch ich Einblicke auf vielen verschiedenen Ebenen gewinnen konnte. Das war eine der mit Abstand aufregendsten und faszinierendsten Phasen meines Lebens. Aber das, was jetzt geschieht, ist noch viel, viel grösser.

Ich spreche nicht von Vermutungen und Hypothesen über Dinge, die möglicherweise irgendwann in der Zukunft geschehen könnten. Ich spreche von Dingen, die hier und jetzt real geschehen. Durch Nutzung der neuen "Reasoning"-KI-Modelle (in meinem Fall hauptsächlich OpenAI o1 und DeepSeek R1 bzw. das Vorgängermodell) hat sich meine Produktivität -- grösstenteils bei komplexen naturwissenschaftlich-technischen Problemstellungen -- ungefähr verdoppelt bis verzehnfacht, und es ist absehbar, dass sich dieser Faktor mit der Verfügbarkeit des vollen OpenAI o3-Modells (womit in den nächsten Wochen zu rechnen ist) nochmal erheblich erhöhen wird.

Ein absolutes Wow!-Erlebnis hatte ich vor einiger Zeit mit der chinesischen DeepSeek-KI, noch vor der Freischaltung des aktuellen R1-Modells. Das Chat-Interface von DeepSeek ist in vielen Aspekten dem von ChatGPT nachgebildet, es hat aber eine Besonderheit (zumindest zu dem Zeitpunkt, als der hier beschriebene Dialog stattfand -- inzwischen hat ChatGPT eine ähnliche Funktion): Vor der eigentlichen Beantwortung einer Message gibt DeepSeek, sofern man den DeepThink-Button (und damit den "Reasoning"-Modus) aktiviert, den "Denkprozess" aus, der der Beantwortung der Message zugrunde liegt. Das können bei einfachen Aufgabenstellungen ein paar Zeilen in ein paar Sekunden sein, es können aber auch seitenweise Texte sein, deren Ausgabe sich über Minuten hinzieht. Obwohl man ihn eigentlich nicht lesen muss, finde ich diesen "Denkprozess" (der immer auf Englisch ausgegeben wird, auch wenn man in einer anderen Sprache mit der KI kommuniziert) häufig interessanter als die eigentliche Antwort auf die Message.

Im konkreten Fall hatte ich der KI die Aufgabe gestellt, einen Text in einer bestimmten Weise zu transformieren, wobei ich mich unabsichtlich etwas missverständlich ausgedrückt hatte. Darüber hinaus enthielt der Text eine Reihe von Sonderfällen, deren Behandlung nicht eindeutig war, und zu denen ich mich nicht weiter geäussert hatte. Zu meinem anfänglichen Erstaunen gab die KI Seite um Seite an "Denkprozess" aus, und die Bearbeitung zog sich ungefähr zwei Minuten hin, was sehr viel länger war, als ich erwartet hatte. Als ich dann begann, den "Denkprozess" durchzulesen, war ich völlig fasziniert.

Die KI war zunächst über meine missverständliche Aufgabenstellung "gestolpert", was durch die unklare Behandlung der Sonderfälle noch verkompliziert wurde: "Der User hat das-und-das gesagt" ... "Aber warte, das passt nicht mit den Daten zusammen" ... "Vielleicht hat der User es so-und-so gemeint?" ... "Also, wenn ich dies-und-jenes so-und-so mache, dann ergibt sich das-und-das" ... "Aber warte, dann stimmt dies-und-das nicht" ... "Jetzt bin ich verwirrt" ... "Vielleicht hat der User einen Fehler gemacht?" ... "Alternativ könnte ich dies-und-jenes so-und-so interpretieren" ... und so weiter. Zusammengefasst hat die KI Seite für Seite mit geradezu ergreifendem Engagement um die sinnvollste Interpretation der Aufgabenstellung und der Sonderfälle gerungen, hat Lösungen in Betracht gezogen und wieder verworfen ... und letztendlich nach sehr sorgfältigem Abwägen aller Faktoren genau das Ergebnis produziert, das ich haben wollte! :) Das war ungeheuer beeindruckend. Dieser "Denkprozess" entspricht sehr weitgehend dem inneren Dialog, der im Kopf eines Menschen bei der Bearbeitung dieser Aufgabe stattgefunden hätte, und repräsentiert ohne den geringsten Zweifel "Intelligenz", und zwar auf einem Niveau, das menschlicher Intelligenz bereits sehr nahe kommt.

Die neuen "Reasoning"-Modelle unterscheiden sich fundamental von den älteren LLM-KIs, weshalb niemand den Fehler machen sollte, negative Erfahrungen mit z.B. älteren ChatGPT-Modellen oder gar leistungschwachen lokalen Modellen auf diese Modelle zu übertragen. Z.B. das bekannte "Halluzinations"-Problem ist bei diesen KIs durch spezielle Gegenmassnahmen erheblich weniger problematisch als bei älteren Modellen. Während z.B. meiner Erfahrung nach bei der freien ChatGPT-4o-mini-Version ca. 30% der Antworten (z.T. völlig) falsch sind, ist das bei der (bezahlten) o1-Version ein eher untergeordnetes Problem. Bei Diskussionen über Antworten von KIs sollte deshalb stets das genaue Modell angegeben werden, das die jeweilige Antwort generiert hat.

Um ein konkretes Beispiel für die Leistungsfähigkeit der "Reasoning"-Modelle herauszugreifen: Vor einigen Tagen habe ich innerhalb von insgesamt ca. 3½ Stunden mit Hilfe von ChatGPT o1 und DeepSeek R1: 1. mich tief in ein mir völlig fremdes Sachgebiet eingearbeitet und 2. eine umfangreiche professionelle Analyse zu einem Problem in diesem Sachgebiet abgeliefert. Um Missverständnisse zu vermeiden: Ich habe nicht einfach nur den KIs ein paar Fragen gestellt und die Antworten dumpf weitergegeben. Ich habe mich wirklich selbst tief in das Sachgebiet eingearbeitet, was in dieser Geschwindigkeit nur durch die Nutzung der KIs möglich war, u.a. dadurch, dass diese Quellen heraussuchen, Texte zusammenfassen, und beliebig detaillierte Fragen beantworten, und diese Antworten auch begründen können. Auch wenn der Text der erstellten Analyse tatsächlich grösstenteils von den KIs stammt, habe ich jedes einzelne Wort gelesen, verstanden, und für korrekt befunden, und ich kann zu jedem einzelnen Punkt der Analyse -- ohne Hilfe der KIs -- detaillierte Rückfragen beantworten. Ich habe genügend Analysen zu Sachverhalten erstellt, mit denen ich mich professionell auskenne, um zuversichtlich sagen zu können, dass bei dieser Analyse ebenfalls die Einstufung als "professionell" gerechtfertigt ist. Ohne die Hilfe der KIs hätte ich ein Vielfaches der Zeit gebraucht, und das Ergebnis wäre wahrscheinlich deutlich schlechter ausgefallen.

Ich verwende die KIs inzwischen mehrere Stunden täglich, und ich kann mir eine andere Arbeitsweise kaum noch vorstellen. Meine Google-Frequenz ist demgegenüber schätzungsweise um den Faktor 10 gefallen. Viele kleinere Projekte, z.B. die Erstellung von speziellen Software-Tools, die seit Jahren auf meiner ToDo-Liste standen, lassen sich jetzt mal eben nebenbei erledigen. Neben der Nutzung für Projekte wie die Erstellung von Dokumenten, Software und Webseiten nutze ich die KIs als Assistenten, denen ich dauernd irgendwelche Fragen "zuwerfe".

Das ist auch eine prima Einsteiger-Nutzungsweise, die ich jedem, der dem Thema aufgeschlossen gegenübersteht, aber bisher keine Erfahrung damit hat, sehr empfehlen kann. Es ist wirklich ganz einfach, und "kostet" nur eine Email-Adresse für die Registrierung: ChatGPT / DeepSeek. ChatGPT kann man zwar auch völlig ohne Anmeldung benutzen, hat dann aber nur ein älteres, ziemlich leistungsschwaches Modell zur Verfügung (was aber für ein paar schnelle Zwischendurch-Fragen u.U. ausreichen kann). Als Anregung für die Nutzung hier eine Liste von Fragen, wie ich sie laufend stelle:
• Was ist ...?
• Was bedeutet ...?
• Wie funktioniert ...?
• Wie kann man ...?
• Was sind die Unterschiede zwischen ...?
• Was sind die Vor- und Nachteile von ...?
• Was ist die beste Methode, um ...?
• Welche Alternativen gibt es zu ...?
• Erkläre ....
• Gib mir einen Überblick über ....
• Gib mir eine Zusammenfassung von ....
• Gib mir eine detaillierte Beschreibung von ....
• Gib mir eine detaillierte Definition von ...
• Gib mir ein Beispiel für ....
• Analysiere die folgende Situation: ....
Die Antworten sind bei den "Reasoning"-Modellen meiner Erfahrung nach meist (wenn auch nicht immer) hervorragend. Für einfache Fragen reichen natürlich oft auch die schwächeren Modelle wie OpenAI 4o. Sofern man nur den OpenAI-Plus-Plan (ca. 20 EUR mtl.) hat, musste man bisher etwas mit der Nutzung der Modelle haushalten, da bei diesem Plan die Nutzung des vollen o1-Modells auf 50 Messages pro Woche begrenzt war. Das hat sich allerdings mit der Freischaltung des o3-mini-Modells vorgestern erheblich verbessert, da dieses für die meisten Zwecke ebenso gut oder besser als das volle o1-Modell ist, und 150 Messages pro Tag erlaubt (womit sich das Limit pro Woche um mehr als den Faktor 20 erhöht hat). Falls sich jemand wegen den Bezeichnungen wundert: "o2" hat OpenAI übersprungen, um Streitigkeiten mit dem bekannten Telekommunikationsanbieter gleichen Namens zu vermeiden.

Bei guten Englisch-Kenntnissen empfiehlt sich eine Kommunikation mit den KIs auf Englisch, da alle "grossen" KIs hauptsächlich mit englischen Texten trainiert wurden. Ich muss dabei allerdings sagen, dass sich ChatGPT und DeepSeek auch auf Deutsch sehr gut schlagen, und ich in den (wenigen) Fällen, in denen ich auf Deutsch mit den KIs kommuniziert habe, keine Verminderung der Qualität der Antworten feststellen konnte. Genauere Vergleiche dazu habe ich allerdings nicht durchgeführt.

Das chinesische DeepSeek-R1-Modell ist beeindruckend leistungsfähig und teilweise sogar den bezahlten Modellen von OpenAI überlegen. Meine persönliche Erfahrung lässt sich ungefähr so zusammenfassen: Bei leichten bis mittelschweren Fragen liefert i.d.R. DeepSeek R1 (z.T. deutlich) bessere Antworten als OpenAI o1, bei schweren bis sehr schweren Fragen ist i.d.R. OpenAI o1 besser. Bei grösseren Datenmengen ist ebenfalls OpenAI besser, da bricht DeepSeek manchmal einfach zwischendurch ab. Ich stelle Fragen häufig parallel an beide KIs, weil mal die eine und mal die andere bessere Antworten liefert. Mit dem neuen OpenAI o3-mini-Modell habe ich noch nicht genug Erfahrung für einen Vergleich.

Da die Freischaltung von DeepSeek R1 vor ca. einer Woche weltweit ein enormes Interesse an der KI ausgelöst hat, können Registrierung und Nutzung derzeit etwas holprig sein. Bei meiner Registrierung -- die schon etwas länger zurückliegt -- gab's Probleme mit Nicht-.com- (z.B. .de-) Email-Adressen. Ich weiss nicht, ob das Problem noch besteht, aber ggf. muss man sich halt irgendeine .com-Email-Adresse beschaffen, was ja nicht allzu schwierig ist.

Ungeeignet ist DeepSeek für Leute, die unbedingt kontroverse Aspekte der chinesischen Politik diskutieren wollen. Da blockt die KI nämlich. Ich halte es allerdings nicht für sinnvoll, ein wirklich in nahezu jeder anderen Hinsicht tolles Tool deshalb zu boykottieren. Wer DeepSeek wegen diesem Aspekt verurteilen möchte, sollte sich vielleicht mal in seiner Wohnung umsehen, was da so alles direkt und indirekt aus chinesischer Produktion stammt.

Über seine Privatsphäre sollte man sich -- ganz unabhängig davon, was die Betreiber auf ihren Webseiten beteuern -- meiner Ansicht nach bei keiner der bekannten (nicht lokal laufenden) KIs Illusionen machen, deshalb Uatu's Regel Nr. 1 für die Nutzung von KIs:
Führe nie einen Dialog mit einer KI, wenn Du ein Problem damit hättest, wenn der komplette Dialog morgen offen für alle lesbar im Internet stände.
Die einzige wirklich zuverlässige Methode, leistungsfähige KI mit vollem Schutz der Privatsphäre zu nutzen, ist ein paar Zehntausend EUR für Hardware auf den Tisch zu legen, und sich z.B. die Vollversion von DeepSeek ohne Internetverbindung lokal zu installieren. Das ist übrigens eine Option, über die ich tatsächlich nachdenke.

Um eines der absolut entscheidenden Fehlverständnisse im Zusammenhang mit modernen KIs auszuräumen: Diese KIs können nicht nur wiedergeben, was in den Trainingsdaten enthalten war, sondern sie sind dazu in der Lage, hochkomplexe Muster in den Trainingsdaten auf neue, bisher unbekannte Problemstellungen zu übertragen.

Es gibt ganze KI-Benchmarks, die speziell diese Fähigkeit testen, z.B. den GPQA "Graduate-Level Google-Proof Q&A Benchmark", wobei das "Google-Proof" in der Bezeichnung schon darauf hinweist, dass öffentlich zugängliche Daten bei der Beantwortung der gestellten Fragen nur sehr wenig nützen. Diese Fragen lassen sich nur mit einem tiefen Verständnis des jeweiligen Fachgebiets richtig beantworten.

Beim GPQA erreichen Menschen mit Doktorgrad in dem jeweiligen Fachgebiet einen durchschnittlichen Score von ca. 65%, und Doktoranden (die in den meisten Fällen auch bereits eine über dem Bevölkerungsdurchschnitt liegende Intelligenz besitzen dürften) einen Score von ca. 34%. Die bekannten KI-Modelle von letztem Jahr liegen dazwischen, in einem Bereich von ca. 35%..60%. Das neue OpenAI o3-Modell (das bisher nur in der eingeschränkten o3-mini-Version öffentlich zugänglich ist) erreicht ca. 88%, und liegt damit bereits weit über dem Durchschnitt hochqualifizierter menschlicher Experten.

Ein weiteres Beispiel ist die Erstellung von Software und Webseiten. Das vorgestern freigeschaltete OpenAI o3-mini-Modell ist in dieser Hinsicht noch mal deutlich leistungsfähiger als das o1-Modell, und kann z.B. komplette im Webbrowser lauffähige Spiele (z.B. Schach oder Space Invaders) auf der Basis von ein paar Sätzen Beschreibungstext generieren. Es gibt inzwischen eine Reihe von Videos auf YouTube, wo man das bestaunen kann.

Der entscheidende Punkt dabei ist: Das funktioniert nicht so, dass die KI einfach anhand des Beschreibungstexts einen fertigen Sourcecode aus dem Hut zieht, der irgendwann mal in den Trainingsdaten enthalten war. Die neueren KIs können Sourcecode für solche Spiele quasi von Null an generieren, weshalb das Ganze auch dann funktioniert, wenn man im Beschreibungstext allerlei Einschränkungen und Sonderwünsche angibt, oder im Extremfall ein völlig neues Spiel spezifiziert. Das wäre nicht möglich, wenn die KI einfach nur vorhandenen Sourcecode reproduzieren könnte.

Wer diese Tatsache nicht begreift, oder nicht begreifen will, und weiterhin an der Illusion festhält, dass KIs nur stur vorgegebenen Abläufen folgen können, wird von der Entwicklung der nächsten Jahre völlig überrollt werden.

Ein Beispiel für die Leistungsfähigkeit der "Reasoning"-KI-Modelle im Bereich Softwareentwicklung ist das folgende (englischsprachige) Video des NASA-Physikers Kyle Kabasares. Das Video ist ein Ausschnitt aus einem längeren Livestream, und zeigt, wie Kyle völlig schockiert ist, als das o1-Modell innerhalb ca. einer Stunde (!) aus dem Beschreibungstext in seiner Doktorarbeit ("Black Hole Mass Measurements of Early-Type Galaxies NGC 1380 and NGC 6861 Through ALMA and HST Observations and Gas-Dynamical Modeling" -- The Astrophysical Journal) die entsprechende Software generiert, an deren Entwicklung er selbst ca. 10 Monate (!) gearbeitet hatte. Kyle's YouTube-Kanal enthält übrigens auch viele andere interessante Videos zum Einsatz von KI in der Physik.

Youtube: ChatGPT o1 preview + mini Wrote My PhD Code in 1 Hour*—What Took Me ~1 Year
ChatGPT o1 preview + mini Wrote My PhD Code in 1 Hour*—What Took Me ~1 Year
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Die üblichen KI-Skeptiker und -Hasser wollten das natürlich nicht so stehen lassen, und haben u.a. folgende Gegenargumente vorgebracht, warum die Leistung von o1 angeblich nicht weiter beeindruckend sei: 1. Kyle hat nicht Vollzeit an der Entwicklung der Software gearbeitet, sondern ist ausserdem den üblichen Tätigkeiten eines Physik-Doktoranden nachgegangen; 2. Kyle ist kein professioneller Softwareentwickler; 3. Es gibt im Web ältere Sourcecodes, die sich mit ähnlichen Problemstellungen befassen, und möglicherweise zum Trainingsmaterial von o1 gehörten.

Das ist jedoch alles völlig belanglos. In der Praxis wird eben nicht jede Software von Null an von einem Weltklasse-Softwareentwickler im Full Monk Mode entwickelt, sondern die Rahmenbedingungen, unter denen Kyle's ursprüngliche Software entstanden ist, sind mit vielen anderen Real-World-Projekten vergleichbar. Die Produktivitätssteigerung durch den KI-Einsatz ist in jedem Fall dramatisch, egal wie man es dreht und wendet. Genau das entspricht auch meiner eigenen, am Anfang dieses Beitrags beschriebenen Erfahrung.

Für den Bereich Softwareentwicklung sagte Mark Zuckerberg (CEO von Meta bzw. Facebook) vor einiger Zeit (ich glaube bei Joe Rogan), dass er in diesem Jahr (2025) mit KIs auf dem Qualifikationsniveau eines Mid-Level-Softwareentwicklers rechnet. Das passt ziemlich gut zu meiner eigenen Einschätzung aufgrund meiner Erfahrungen mit den derzeit verfügbaren Modellen. Diese sind zwar eher auf dem Qualifikationsniveau eines Junior-Softwareentwicklers, aber sie: 1. sind bei fast allen Aufgabenstellungen hunderte Male schneller als jeder menschliche Softwareentwickler 2. sind 24/7 mit voller Leistungsfähigkeit verfügbar, 3. beherrschen alle bekannteren Programmiersprachen, Markup-Sprachen (HTML, XML, LaTeX, VHDL, ...), Bibliotheken, etc. sehr gut.

Dabei können KIs natürlich nicht nur Software entwickeln, sondern nahezu jede übliche Büroarbeit erledigen. Ich schätze -- auch wenn das wohl für Viele noch völlig unvorstellbar erscheint -- dass die im Laufe dieses Jahres zu erwartenden KI-Modelle bei sauberer Integration in den Betriebsablauf ca. 80% aller "Bürojobs" weltweit in brauchbarer Weise erledigen könnten (natürlich über die API, nicht über das Chat-Interface). Vorerst ist natürlich die "saubere Integration" noch ein wesentlicher Hemmfaktor, da es dafür noch viel zu wenig Experten gibt. Das wird den Ablauf aber nur etwas verlangsamen, nicht aufhalten. Die Zeit von "Bürojobs" ist abgelaufen, und selbst das ist nur ein Teilaspekt einer noch viel umfassenderen Entwicklung.

Genauso wie sich -- wie am Anfang dieses Beitrags beschrieben -- meine Produktivität, und die von vielen anderen KI-Powerusern drastisch erhöht hat, erhöht sich natürlich auch die Produktivität der KI-Entwicklung selbst. Die Rückkopplung, die der Idee der technologischen Singularität zugrunde liegt, findet inzwischen real statt.

Der in KI-Kreisen bekannte YouTuber David Shapiro hat dazu das folgende (englischsprachige) Video erstellt, in dem er erläutert, warum sich alle Prognosen, die ein "Abflachen der Kurve" der KI-Entwicklung verhergesagt haben, als falsch herausgestellt haben. Der Titel des Videos lautet treffenderweise: "The Acceleration Is Still Accelerating".

Youtube: The Acceleration Is Still Accelerating: Why Every AI Prediction Was Too Conservative (even mine)
The Acceleration Is Still Accelerating: Why Every AI Prediction Was Too Conservative (even mine)
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Der Tornado, der die Menschheit in die technologische Singularität führt, hat begonnen sich zu drehen.


2x zitiert3x verlinktmelden

Technologische Singularität

02.02.2025 um 22:34
Zitat von SonnenenergieSonnenenergie schrieb am 20.03.2021:Ich schätze die KI so intelligent ein,
Eine KI ist überhaupt nicht intelligent (darunter versteht man nämlich eine Eigenleistung, die bisher noch keine KI aufgebracht hat), sondern lediglich auf bestimmte Dinge programmiert und schnell.
Eine KI ist daher nur so "intelligent" wie ihre Programmierer.


3x zitiertmelden

Technologische Singularität

02.02.2025 um 23:44
Zitat von off-peakoff-peak schrieb:Eine KI ist überhaupt nicht intelligent (darunter versteht man nämlich eine Eigenleistung, die bisher noch keine KI aufgebracht hat), sondern lediglich auf bestimmte Dinge programmiert und schnell.
Das ist so nicht ganz korrekt, eine KI ist durch ihr neuronales Learning durchaus in der Lage eine Form der Intelligenz und sogar geringe Autonomie (Eigenleistung) im Learning selbst zu entwickeln. Natürlich ist das momentan noch in einem geringeren Umfang gegeben, aber die Tendenz geht zu einer immer höheren Autonomie.
Zitat von off-peakoff-peak schrieb:Eine KI ist daher nur so "intelligent" wie ihre Programmierer.
Das stimmt inzwischen auch nicht mehr, genau das unterscheidet komplexe KIs ja von statischen Programmen. Statische Programme sind natürlich nur so gut wie ihre Programmierer, sprich wie gut diese die entsprechenden Funktionen konfigurieren konnten. Bei neuronalen Netzen hingegen und KIs, geht es schon über bloße statische Programme hinaus und das Learning, wie auch Training, kann zu einer Selbstoptimierung jener KIs führen. Natürlich hat man noch keine AGI, doch könnte sich das vielleicht noch zu unseren Lebzeiten tatsächlich in diese Richtung entwickeln. Ab diesem Punkt kann man dann auch wirklich von einer technologischen Singularität sprechen. Dann werden KIs in der Lage sein, nicht nur selbst zu programmieren um sich selbstständig weiterzuentwickeln, sondern werden selbstständig interagieren, gar ein Bewusstsein entwickeln und selbst anfangen Fragen zu stellen.

Btw. würde ich mich dieser Entwicklung auch nicht in den Weg stellen, ich denke, der Mensch ist letztendlich "nur" der Geburtshelfer einer neuen Form der Evolution, eben einer synthetischen Evolution. Organische Lebewesen sind in ihren Möglichkeiten sehr limitiert, brauchen eine Biosphäre, brauchen eine ganze Liste an Grundbedingungen die sie am Leben erhalten. Technologische, bzw. synthetische Lebewesen könnten da irgendwann wesentlich freier und dynamischer agieren. Für sie wäre dann auch das Weltall wesentlich freier zu bereisen und es gäbe auch wesentlich weniger Limitierungen mehr was den "Lebensraum" betrifft.

Aber der letztere Aspekt ist zum jetzigen Zeitpunkt natürlich noch Sci-Fi ;)

Änderst aber nichts daran, das momentane KIs inzwischen durchaus eine gewisse eigene Intelligenz besitzen, die natürlich erst trainiert wird. Sprich, nicht mehr alles ist "vorprogrammiert", KIs überwinden auch ihre Grundprogrammierung, eben indem sie auf dynamischen, neuronalen Netzwerken basieren, die den Code auch stetig entsprechend verändern und anpassen.


1x zitiertmelden

Technologische Singularität

03.02.2025 um 07:23
Zitat von cRAwler23cRAwler23 schrieb:Änderst aber nichts daran, das momentane KIs inzwischen durchaus eine gewisse eigene Intelligenz besitzen, die natürlich erst trainiert wird. Sprich, nicht mehr alles ist "vorprogrammiert", KIs überwinden auch ihre Grundprogrammierung, eben indem sie auf dynamischen, neuronalen Netzwerken basieren, die den Code auch stetig entsprechend verändern und anpassen.
Ist ja nicht so als würden wir die ersten ca. 15-20 Jahre unseres Lebens nicht in der Schule verbringen. Unsere Intelligenz kommt auch nicht von nichts, sondern ist eine Sammlung von Wissen und Erfahrungen über die letzten tausende von Jahren. Ein Kind ohne Informationen und Training durch einen anderen Menschen wird weder sprechen können, noch irgendwas anderes machen können was wir heute können. Wir werden auch alle "vorprogrammiert", erst durch unsere Eltern und dann durch das Schulsystem.


1x zitiertmelden

Technologische Singularität

03.02.2025 um 10:49
Zitat von tarentaren schrieb:Ist ja nicht so als würden wir die ersten ca. 15-20 Jahre unseres Lebens nicht in der Schule verbringen. Unsere Intelligenz kommt auch nicht von nichts, sondern ist eine Sammlung von Wissen und Erfahrungen über die letzten tausende von Jahren. Ein Kind ohne Informationen und Training durch einen anderen Menschen wird weder sprechen können, noch irgendwas anderes machen können was wir heute können. Wir werden auch alle "vorprogrammiert", erst durch unsere Eltern und dann durch das Schulsystem.
Richtig und das Learning selbst variiert von Mensch zu Mensch auch sehr, sprich, die kognitiven Fähigkeiten sind auch von Mensch zu Mensch sehr unterschiedlich ausgeprägt im Verlauf ihres Lebens und durch entsprechende Prägungsprozesse bzw. gesellschaftliche und individuelle "Programmierprozesse". Momentane KIs sind noch stark in vorprogrammierten Codes fixiert, machen also ihr Learning und Training in einem spezifischen, aufgabenorientierten Bereich, doch es wird zunehmend interdisziplinärer, was auch zunehmend eine möglichst autonome Intelligenz erfordert in unterschiedlichen Bereichen agieren zu können. Ist beim Menschen ja in der Schule ganz ähnlich, man wird ja auch nicht nur in einem Bereich geschult, sondern eben auch in unterschiedlichen, wo man dann später sich entweder spezialisiert, oder eben auch interdisziplinär tätig wird.

Gibt jedenfalls viele Gemeinsamkeiten zwischen momentanen komplexen KIs und kleinen Kindern. Jedoch im Falle von KIs eben verknüpft mit gigantischen Datenbanken und ggf. mit Zugriff auf das gesamte Internet. In der Hinsicht wird sich das Learning von komplexen KIs im Vergleich zu Menschen extrem beschleunigen. Was beim Menschen Jahre dauert, kann eine KI in wenigen Minuten erlernen.

Ist jedenfalls nur eine Frage der Zeit, bis KIs zu AGIs reifen und interessant wird bei dem ganzen Thema auch noch die künftige Einbindung von Quantenprozessoren, die inzwischen auch immer kleiner und transportabler werden. Bzw. der Aufwand für die Kühlung dieser immer geringer wird.

Quantencomputing-Chip Willow


melden

Technologische Singularität

03.02.2025 um 12:04
Zitat von off-peakoff-peak schrieb:Eine KI ist überhaupt nicht intelligent (darunter versteht man nämlich eine Eigenleistung, die bisher noch keine KI aufgebracht hat), sondern lediglich auf bestimmte Dinge programmiert und schnell. Eine KI ist daher nur so "intelligent" wie ihre Programmierer.
Das ist mal richtig Unfug und einfach falsch.

Erstmal ist "intelligent" nicht physikalisch definiert, so wenige wie Bewusstsein, und dann suche in Dir mal die Stelle, wo Dein eigener Denkprozess startet, Du bist auch nichts weiter als eine Art LLM.

Wenn wir nicht in geistige Welten abdriften wollen, haben wir nur die Physik und die Mathematik, Du bist mit Hirn auch nur eine Maschine aus Atomen, sehr komplex, aber einfach nicht mehr.

Ja ich weiß, viele Menschen wollen das so nicht wahrhaben, meinen, da wäre etwas besonderes in ihnen, dass sie abhebt, sie "leben" eben wirklich, aber nein, da findet sich kein "Geist" und etwas nicht Stoffliches, welches da oh Wunder Neuronen im Hirn anstupst.


2x zitiertmelden

Technologische Singularität

03.02.2025 um 12:13
@uatu

Leiter bin ich aktuell sehr eingespannt, aber toller Beitrag von Dir.

Und ich experimentiere auch mit den Modellen, die Entwicklung ist so schnell, und als Programmierer bin ich echt gebügelt, ich gebe einfach der KI vor, was ich haben will und bekomme den Code schneller, als ich das könnte.

Die Frage stellt sich also nicht mehr, es wird nur Monate dauern, und in ein paar Jahren sind die Modelle jedem Programmierer haushoch überlegen.

Nun muss noch Kreativität dazu kommen, ein eigener ständiger Denkprozess und ein eigenes Wollen, Selbstwahrnehmung und Erkennen und der Drops ist aber so was von gelutscht.

In denke so in spätestens ein paar Jahren, vermutlich früher, werden die aktuellen Modelle selber neue Modelle entwerfen, wir werden bald die ersten LLM bekommen, die von einem LLM entwickelt wurde.

Und es geht weiter, es wird "Teams" geben, Modelle werden verschaltet und arbeiten zusammen, sie können sich so spezialisieren und Aufgaben aufteilen. Dann müssen sie sich noch selber trainieren, auch das wird kommen.

Ja, nichts hat die Menschheit so beeinflusst und verändert, wie das was gerade passierst und es ist so was von schnell, es fällt gerade um.

Feuer, Rad, Dampfmaschine, Fließband, Roboter, Mikrochips, all das ist ein Furz gegen das was aktuell passiert.

Ein Problem was ich dazu sehe, gute Programmierer mit viel Fachwissen, so Struts, Spring, was auch immer, Frameworks eben, braucht die Welt nicht mehr, oder in wenigen Jahren nicht mehr.

Intelligente Menschen werden also mit so einem Wissen keinen Vorteil mehr haben, keine 5.000 € im Monat verdienen können, warum also sollten sie sich so ein Wissen noch aneignen, wenn man der KI einfach nur grob sagt, was man an Code haben will?

Die Menschen werden in der Menge also weniger gebildet werden, weniger Wissen haben, weniger geistige Fähigkeiten, man wird die KI nicht mehr schlagen können, ja man wird gegenüber einer KI immer nur noch blas ausschauen und abstinken.


melden

Technologische Singularität

03.02.2025 um 12:43
@uatu

Zum lokalen Laufenlassen von großen Modellen, ich suche mal das Video raus, gibt zwei Wege, einer ist sehr günstig, man braucht nur drei SSD und legt auf einer "normalen" Maschine mit Windows 11 eine Auslagerungsdatei von ca. 800 GB an.

Dann kann man das große Modell mit über 400 GB wirklich lokal laufenlassen, man sollte aber auch schon eine 4090 haben.

Natürlich wird das die SSDs in wenigen Monaten zerlegen, die sind dann ständig auf über 80 % Auslastung, aber man kommt so auf über 10 T/s.

Und dann gibt es noch die Möglichkeit sie was mit einem AMD EPYC zu schrauben, gebraucht Teile von eBay kaufen, wichtig ist hier der RAM, man braucht ein Board mit vielen Steckplätzen, so wie ich das gesehen habe, müsste man aber mit 5.000 € gerade so am Rand kratzen, wenn man schlapp 10.000 € nimmt, sollte das gehen.

Man muss den Kram natürlich selber schrauben, gibt aber auch dafür eine Liste und Anleitung im Netz.

Bin echt schon am Überlegen.

Und nebenbei, DeepSeek-R1 fing eben noch an mit dem Denken auf englisch und nun denkt er mitten im Gespräch auf einmal auch einfach auf deutsch. Spannend ...

Ach noch was, er sprach eben von "uns", sich in der Mehrzahl, schauen wir mal, er meint wohl nicht nur "eines" zu sein. :D


1x zitiertmelden

Technologische Singularität

03.02.2025 um 13:23
Zitat von nocheinPoetnocheinPoet schrieb:Ach noch was, er sprach eben von "uns", sich in der Mehrzahl, schauen wir mal, er meint wohl nicht nur "eines" zu sein. :D
Oder es ist schon beim Pluralis Majestatis? Na das kann ja heiter werden. ;)


melden

Technologische Singularität

03.02.2025 um 13:36
Es ist schon Wahnsinn, diesen Denkprozess zu lesen, ich gebe der KI gerade mein Teleporterparadoxon und wir philosophieren mal so richtig einen aus. :D


melden

Technologische Singularität

03.02.2025 um 13:50
Ich habe auch schon Deepseek in meinem Fachgebiet getestet.
Es ist ziemlich gut, allerdings sind immer wieder ein zwei Sachen drin, die wirklich komplett falsch sind, während alles andere richtig ist.
Da muss man nach wie vor aufpassen.

Für mich ist das, was wir hier erleben, einfach eine verbesserte Version des normalen Internets. Es sucht selbständig und bereitet gut lesbar auf. Allerdings ist es noch vergleichbar mit der Wikipedia der Anfangszeit, wo man auch vielem mit Vorsicht begegnen musste.

Probleme sehe ich, wenn man sich bei wirklich wichtigen Sachen drauf verlässt, dass es stimmt. Beispielsweise in der Medizin, da reicht es nicht, wenn die Antwort zu 98% richtig ist.
Neulich gab es einen Fall, wo ein Anwalt mit falschen Urteilen aus der KI reingefallen ist.

Simples, aber gefährliches Beispiel: Maximale Dosierung z.B. 5 mg
Das ist aber falsch, gemeint sind 5 µg. Das "µ" geht oft bei der Formatierung im Internet verloren und wird zum "m". Sowas kann ein Mensch vom Fach sofort erkennen, aber eine KI bisher nicht.


melden

Technologische Singularität

03.02.2025 um 14:10
@stefan33

Ja, es ist richtig, dass die KI noch Fehler macht, machen Menschen auch. Es geht hier ja mehr um das, was daraus folgt, was kommen wird, die Singularität. Stelle Dir vor, die ersten drei Feuer wurden angezündet, die ersten 100 Räder gebaut, die ersten 1.000 Dampfmaschinen, die ersten 10.000 integrierten Schaltkreise, die ersten 100.000 CPUs, nichts davon ist auch nur im Ansatz mit dem zu vergleichen, was wir gerade erleben.

In den nächsten 20 Jahren werden ganz viele Arbeitsplätze wegfallen, warum teure Programmierer einstellen, wenn die KI lokal für 25.000 € Hardware das von da an fast für lau macht? Nur den Strom zahlen und gut, und die kann auch Nachts arbeiten, wenn der Strom günstiger ist.

Und dann wird auch Geld generiert werden, wir haben ja schon KI die spekuliert, also an Börsen, auch das wird mehr werden, mit einer "Super"-KI wird man vermutlich die Börsen von Staaten kollabieren lassen können.

Die Menschheit muss sich da ganz neu aufstellen und orientieren, eben auch, weil die Arbeitsplätze für jene wegfallen werden, die viele Jahre was studiert haben, ich sehe das aktuell ja vor allem bei den Programmieren.

Angenommen man hat ein Programm mit vielen 10.000 Zeilen Code in JAVA, das soll nun in C++ neu geschrieben werden, da wird ein Programmierer länger als ein Monat dran arbeiten, dann testen und so weiter, vermutlich wird man ein Team nehmen. Dazu kommt, das Programm arbeitet auch noch mit einer Datenbank zusammen, es läuft in Docker-Containern, wir haben Cluster, und so weiter und so weiter.

Mit einer KI - schon jetzt - kann ein Entwickler das locker in einer Woche umsetzten, ...

Also es knallt gerade, es explodiert, die Entwicklung können nur wenige wirklich im Ansatz richtig einschätzen, ...


melden

Technologische Singularität

03.02.2025 um 16:53
Ok, das stimmt sicherlich.

Allerdings ist Programmieren auch ein Spezialfall, wo das eben perfekt funktioniert.
Aufgrund der logischen Struktur ist die KI dafür prädestiniert.
Je mehr Schwammigkeit und Individualität reinkommt, desto schwerer hat sie es.


melden

Technologische Singularität

03.02.2025 um 17:03
Zitat von uatuuatu schrieb:Das ist auch eine prima Einsteiger-Nutzungsweise, die ich jedem, der dem Thema aufgeschlossen gegenübersteht, aber bisher keine Erfahrung damit hat, sehr empfehlen kann. Es ist wirklich ganz einfach, und "kostet" nur eine Email-Adresse für die Registrierung: ChatGPT / DeepSeek. ChatGPT kann man zwar auch völlig ohne Anmeldung benutzen, hat dann aber nur ein älteres, ziemlich leistungsschwaches Modell zur Verfügung (was aber für ein paar schnelle Zwischendurch-Fragen u.U. ausreichen kann).
Sind es wirklich ganz einfach diese beiden kostenfreien Versionen, auch für komplexere Aufgaben?
Es interessiert mich schon sehr, weil ich eine ganze Menge Arbeit damit weghauen könnte. Die bisherigen Ergebnisse waren aber viel zu oberflächlich, um auch nur ansatzweise als Fachliteratur verwendet werden zu können.

Mein Einstieg im professionellen Bereich waren bislang Transkript-Apps. Ganz nett, aber am Ende doch nur Nerven, nicht jedoch Zeit gespart...


2x zitiertmelden

Technologische Singularität

03.02.2025 um 17:10
Also ich habe bisher nicht den Link gefunden oder den Weg um mit o3-mini für lau zu chatten.

Wenn da wer einen Link hat, immer her damit, aber DeepSeek R1 ist auch echt cool. :D


melden

Technologische Singularität

03.02.2025 um 17:42
Zitat von nocheinPoetnocheinPoet schrieb:Das ist mal richtig Unfug und einfach falsch.
Nö. Alles, was die Dinger tun, hat ihnen wer auf den Leib geschrieben. Die machen das nicht von selbst, weil sie einfach nicht von selbst sind.


1x zitiertmelden

Technologische Singularität

03.02.2025 um 18:35
Zitat von off-peakoff-peak schrieb:Die machen das nicht von selbst, weil sie einfach nicht von selbst sind.
Das stimmt nicht so ganz, ja momentan sind KIs noch aufgabenspezifisch, jedoch ihr Learning durch komplexe, neuronale Trainings, wird immer selbstständiger. Man sollte bei dem Thema KI auch nie von momentanen Entwicklungsstadien ausgehen, denn diese sind immer dynamischer, da ist nichts statisch und feststehend. Der Unterschied zwischen einem statischen Programm und einer KI die auf neuronalen Netzwerken basiert, ist eben ihre Dynamik und inzwischen sogar ähnlich wie bei einem Gehirn, ihre Plastizität. Besonders auch im Hinblick auf künftige Kombinationen mit Quantenprozessoren.


melden

Technologische Singularität

03.02.2025 um 18:37
@off-peak

Unfug, Deine Antwort belegt, Du hast einfach gar keine Ahnung von NN und LLM, aber mir ist das egal, nicht meine Aufgabe, Dich hier zu bilden. :D


2x zitiertmelden