Glaubt Ihr, dass es jemals zu einem Atomkrieg kommen wird?
20.07.2023 um 21:06Ob Skynet den Fall übernehmen wird?
Morgen früh herrscht Atomkrieg auf meiner Schüssel.
Morgen früh herrscht Atomkrieg auf meiner Schüssel.
Revolutionäre Militärtechnik macht es möglich, dass KI autonom einen Atomschlag auslösen könnte. Wird der Mensch überflüssig und steigt so die Kriegsgefahr?Quelle:
Atomkrieg aus Versehen
Atomkrieg aus Versehen28 Min
Noch nie war der Atomkrieg, befeuert durch neue Technologien, so nah. Der Informatikforscher Prof. Karl Hans Bläsius befürchtet einen Atomkrieg aus Versehen: „Systeme der künstlichen Intelligenz sollen auch Entscheidungen treffen, hinsichtlich des Abschusses von Atomraketen. Das wäre fatal!“ Und Rüstungsexperte Dr. Ulrich Kühn ergänzt, dass es in den USA und Russland Bestrebungen gebe „dass bei der nuklearen Kommando- und Kontrollkette KI-Systeme zum Einsatz kommen.“
Doors schrieb:Liebe Atommächte, könntet Ihr mit dem Einsatz von KI noch etwas über 20 Jahre warten? Dann bin ich um die 90 und meine dann verdampften Erben sparen sich die Bestattungskosten.Also noch 20 Jahre atomare Ergüsse?
Bücherwurm schrieb:Morgen früh herrscht Atomkrieg auf meiner Schüssel.Das gibt 'nen Sprung in der Schüssel.
Cpt.Germanica schrieb:Revolutionäre Militärtechnik macht es möglich, dass KI autonom einen Atomschlag auslösen könnte.Klar, geht das in der Theorie.. das hatten wir schon 1983 im Film war Games.
Doors schrieb:Am "Atomkrieg aus Versehen" sind wir in den 1980ern doch schon mal knapp vorbei geschrammt.Nicht aus Versehen, sondern Wil im Osten Bekloppte am Ruder waren, bis heute.
Fedaykin schrieb:Klar, geht das in der Theorie.. das hatten wir schon 1983 im Film war Games.Weil die Reaktionszeit auf einen vermuteten Erstschlag durch schnellere Raketentypen deutlich verkürzt ist.
Aber warum sollte man das System so aufbauen/umbauen.
Fedaykin schrieb:Nicht aus Versehen, sondern Wil im Osten Bekloppte am Ruder waren, bis heute.Ich glaube das ist nicht die passende Antwort auf den Beitrag von @doors.
Cpt.Germanica schrieb:Weil die Reaktionszeit auf einen vermuteten Erstschlag durch schnellere Raketentypen deutlich verkürzt ist.Das ist eher keine Frage der KI.
Cpt.Germanica schrieb:Der Gegner darf nicht glauben, dass sein Erstschlag unbeantwortet bleibt, weil die Geschwindigkeit seiner Raketen die Reaktionszeit konterkariert.Genau dafür gibt es Zweitschlag Kapazität.
Cpt.Germanica schrieb:Ich glaube das ist nicht die passende Antwort auf den Beitrag vonDoch genau das war die Ursache. Paranoide Alkoholiker an der Macht
Fedaykin schrieb:Das ist eher keine Frage der KI.Die Reaktionszeit auf einen mutmaßlichen Erstschlag wird durch KI herabgesetzt. Also die Zeit um einen Fehlalarn zu erkennen und auf Basis der Ergebnisse einen Gegenschlag auszulösen - oder eben nicht. Das ist der Punkt.
Fedaykin schrieb:Sondern der Raketen.
Fedaykin schrieb:Wie man jetzt icbms bauen möchte die doppelt oder dreifach schnell ins Ziel kommen ist höchst hypothetischEs geht wie gesagt um die Zeit die bleibt, einen Fehlalarm zu identifizieren und ggf. still zu halten oder aber zurück zu schießen.
Fedaykin schrieb:Doch genau das war die Ursache. Paranoide Alkoholiker an der MachtWir meinen unterschiedliche Ereignisse
Fedaykin schrieb:Genau dafür gibt es Zweitschlag Kapazität.Darauf allein will man scheinbar nicht setzen um wirkungsvoll abzuschrecken.
Cpt.Germanica schrieb:Die Reaktionszeit auf einen mutmaßlichen Erstschlag wird durch KI herabgesetzt. Also die Zeit um einen Fehlalarn zu erkennen und auf Basis der Ergebnisse einen Gegenschlag auszulösen - oder eben nicht. Das ist der Punkt.Ich sah neulich den Film "Wargames"...da war sowas wie eine KI noch undenkbar zu der Zeit, müsste aus den 80ern sein der Film. Jedenfalls ging es da auch um Vorhersagen, REaktionen, stark verlangsamt aufgrund menschlicher Physis...Reaktionszeit dürfte gar nicht so ausschlaggebend sein, da aufgrund "langsamer" Raketenantriebe eh zeitig reagiert werden kann und eigentlich die Taktik "schießt halt 500 Raketen zurück" im Grunde alternativlos ist.
Bücherwurm schrieb:Physis...Reaktionszeit dürfte gar nicht so ausschlaggebend sein, da aufgrund "langsamer" Raketenantriebe eh zeitig reagiert werden kannLaut Artikel liegt das Problem an schnelleren Raketen, due weniger Zeit zu reagieren lassen.
Cpt.Germanica schrieb:Meiner Meinung nach gibt es aber ohnehin nur eine vernünftige Option, nämlich auf einen Fehlalarm zu setzen und nicht zu reagieren.Das würde ich auch so sehen
Cpt.Germanica schrieb:Die Reaktionszeit auf einen mutmaßlichen Erstschlag wird durch KI herabgesetztDas macht das Atomkriegsrisiko eher geringer.
Cpt.Germanica schrieb:Also die Zeit um einen Fehlalarn zu erkennen und auf Basis der Ergebnisse einen Gegenschlag auszulösen - oder eben nicht. Das ist der Punkt.Deswegen hat die KI dixh immer noch nicht die Kommandogewalt..esxsei denn man hat ne Dauerschleife, was eher Unsinn wäre.
Fedaykin schrieb:
Cpt.Germanica schrieb:Die Entscheidung muss fallen bevor die gegnerischen Raketen in den eigenen Silos einschlagen. Danach gibt es keinen Rückschlag mehr weil das eigene Arsenal vernichtet ist.Jo..30 . Minuten, blöd das nur ein Teil in Silos lagert. Seit den 70ern ist das ganze Erstschlag Konzept fragwürdig.
Cpt.Germanica schrieb:Aufgrund neuerer Raketentypen, die schneller ins Ziel kommen, ist die Zeit zu reagieren aber verkürzt.Welche Raketen sollen das sein? Hypothetische würde ich sagen.
Cpt.Germanica schrieb:es keinen Rückschlag mehr weil das eigene Arsenal vernichtet ist.Soweit der Stand 1959...
Cpt.Germanica schrieb:Wir meinen unterschiedliche EreignisseEigentlich nicht...erst die Paranoiden, dann kam Reagan. Heute sehen wir wieder..es passt alles.
Wobei Reagan den Kreml auch "etwas" in seine Paranoia getrieben hat.
Cpt.Germanica schrieb:Darauf allein will man scheinbar nicht setzen um wirkungsvoll abzuschrecken.Es negiert schlichtweg die gute Chance auf nen Erstschlag zu akzeptablen Preisen.
Cpt.Germanica schrieb:landgestützten Systeme, taktische Atomwaffen freilich ausgenommen.Gibt es auch nur bedingt. Schau Mal lieber wer überhaupt stationäre Silos. Unterhält?
Cpt.Germanica schrieb:Laut Artikel liegt das Problem an schnelleren Raketen, due weniger Zeit zu reagieren lassen.Die es nicht gibt. Welche sollen das sein? Welche Rakete reduziert die Reaktionszeit um 1/3?
Cpt.Germanica schrieb:Ist es kein Fehlalarm hat man eben Pech gehabt. Schießt man dagegen grundlos zurück, weil man den Fehlalarm as solchem nicht erkannt hat, hat man auch Pech gehabt, die Antwort des Gegners wird anzunehmenderweise nicht ausbleibenDeswegen gibt es den Zweitschlag.
Fedaykin schrieb:Im übrigen werden wir festgstellen das menschliches versagen technische überwiegt bei fatalen Fehlern.Schließt technische Probleme nicht aus. Wenn diese einen Atomkrieg auslösen ist es ein schwacher Trost, dass menschliches Versagen wahrscheinlicher gewesen wäre ...
Fedaykin schrieb:Das die Russen an einen Atomschlag mit 2 Raketen geglaubt haben fällt wie gesagt unter Blödheit.Auch hier: Schwacher Trost, dass es im Fall des Falles nur Blödheit gewesen wäre, und daher eigentlich gar nicht hätte passieren dürfen ...
Cpt.Germanica schrieb:Es geht um das Problem, dass KI fälschlicherweise einen Angriff erkennt.Ja, und da ist der Haken das diese klar ideologischen geprägten Berichte das Thema zu kurz greifen.
Cpt.Germanica schrieb:Oder die Bedienmannschaft falsch "berät".Die Bedienmanschaft entscheidet nicht über den Einsatz. Also ist es eher die KI die den Präsidenten und den ganzen Stab falsch berät. Zumindest in den USA.
Cpt.Germanica schrieb:einen Atomkrieg auslösen ist es ein schwacher Trost, dass menschliches Versagen wahrscheinlicher gewesen wäre ...Falsche Schlussfolgerung. Also der Atomkrieg ist wahrscheinlicher durch menschliches versagen als durch eine KI.
Cpt.Germanica schrieb:Wenn dem in diesem besonderen Fall überhaupt so ist. Manchmal ist gesunder Menschenverstand gefragt und Bauchgefühl. Dafür fehlt der KI noch das "Modul".Die KI handelt vermutlich rationaler. Gesunder Menschenverstand ist nicht definiert. Aber die Entscheidung für den Atomwaffeneinsatz liegt ja eben. Auf der obersten führungsebene.
Cpt.Germanica schrieb:Auch hier: Schwacher Trost, dass es im Fall des Falles nur Blödheit gewesen wäre, und daher eigentlich gar nicht hätte passieren dürfenEher ein schönes Beispiel das eine KI eigentlich nicht so blöde Schlussfolgerungen tätig.
Cpt.Germanica schrieb:Außerdem hat die Einschätzung, dass es nur ein Fehlalarm war, ja funktioniert. Trotz aller "Blödheit"So Grade, weil da einer der Offiziere mitgedacht hat, aber schon das ganze Verfahren war relativ dumm durchdacht.
Fedaykin schrieb:Wo finde ich diese neuen Raketen mit doppelten Geschwindigkeit?In den Artikeln, die du als ....
Fedaykin schrieb:klar ideologischen geprägten Berichte... bezeichnest.
Fedaykin schrieb:Wenn man nicht eine ki bastelt sie so dämlich ist, stehen die Chancen besser das Menschen einen Angriff fehlintepretieren Als eine KI.Und wer garantiert dir, dass die KI nicht "so dämlich" ist?
RayWonders schrieb:ich hab nein angekreuzt - aber wie sehr ich falsch liegen kann hat man bei dem Ukraine-Konflikt gesehen, ich hatte gedacht Putin greift keinesfalls an als die Truppen sich an der Grenze sammelten..Hoffen wir, dass Du diesmal richtig liegst. ;)
Cpt.Germanica schrieb:bezeichnestNee finde ich nicht? Welches Modell wird genannt?
Cpt.Germanica schrieb:Und wer garantiert dir, dass die KI nicht "so dämlich" istNun der Anspruch der Entwickler...wer braucht ne ki di so blöd ist wie ein Mensch?
Cpt.Germanica schrieb:Wobei - eine korrekte Rechtschreibung traue ich ihr dann doch zu, im Gegensatz zu manchen Menschen.Wenn nix mehr geht.. dann Rechtschreibung anprangern.
Die Kubakrise ist das weltweit bekannteste Beispiel eines „beinahe Atomkrieges".Quelle: https://www.atomwaffena-z.info/geschichte/atomwaffenunfaelle/fehlalarm
Dennoch gibt es mindestens fünf weitere Beispiele, die sich alle von der Kubakrise unterscheiden: Sie ereigneten sich, weil US- oder russisches Führungspersonal auf einen Fehlalarm reagierten, der durch eine Fehlfunktion der Warnsysteme oder durch die falsche Interpretation von Ereignissen ausgelöst wurde.
Fall 1Quelle: Dito.
Der gespiegelte Mond
Am 5. Oktober 1960 meldete ein Frühwarnradar auf Grönland einen massiven sowjetischen Angriff ballistischer Raketen, die auf dem Weg in die USA seien.
Fall 2Quelle: Dito.
Das Übungstonband
Am 9. November 1979 wurde Mitarbeiter*innen im Militärkommandozentrum des Pentagon, in den Cheyenne Mountains, sowie im zweiten Kommandozentrum, in Fort Ritchie in Maryland, ein massiver atomarer Angriff der Sowjetunion auf ihren Computern angezeigt.
Fall 3Quelle: Dito.
Der Computer Chip
Am 3. Juni 1980 wurde erneut Alarm ausgelöst. Die Sowjetunion hätte einen massiven atomaren Angriff gestartet, meldeten die Computer.
Fall 4Quelle: Dito.
Herbstsonnenstrahlen
Moskau, der 26. September 1983, kurz nach Mitternacht: Ein sowjetischer Frühwarnsatellit meldet den Angriff einer Handvoll US-Raketen auf die Sowjetunion.
Fall 5Quelle: Dito.
Die Wetterrakete
Am 25. Januar 1995 starteten norwegische Wissenschaftler*innen zusammen mit ihren Kolleg*innen aus den USA eine große Rakete. Sie sollte Daten über atmosphärische Bedingungen aus verschiedenen Höhen sammeln. Die Flugbahn der Rakete erschien russischen Radartechniker*innen der einer US-Trident-Rakete zu entsprechen.
Weitere FälleQuelle: Dito.
Am 23. Mai 1967 fielen drei arktische Radaranlagen des US-Frühwarnsystems in Kanada, Nordengland und Grönland gleichzeitig aus. Wurde dies durch einen feindlichen sowjetischen Angriff ausgelöst? Die Atombomber wurden auf Verdacht in Alarmbereitschaft versetzt und die Atomwaffen startklar gemacht.
Ebenfalls sehr beunruhigend ist die Geschichte der Minuteman-Rakete am 10. Januar 1984, die „unerlaubt" starten wollte. Wegen eines Computerfehlers erhielt die Rakete in Cheyenne, Wyoming, den Startbefehl.Quelle: Dito.
Eine großangelegte Militärübung der NATO "Able Archer" vom 7. bis 11. November 1983 soll beinah zum Atomkrieg geführt haben.Quelle: Dito.
Fedaykin schrieb am 21.07.2023:Sorry aber seit Ärzte gegen den Atomkrieg etc seiten bin ich geheilt.Die da wären?
Alle Artikel hauen Hypothesen raus die nicht so ganz durchdacht sind
Fedaykin schrieb am 21.07.2023:Nun der Anspruch der Entwickler...wer braucht ne ki di so blöd ist wie ein Mensch?Wer garantiert, dass die von Menschen entwickelte KI nicht so blöd ist wie die Entwickler?
Fedaykin schrieb am 21.07.2023:Wie gesagt wenig durchdacht die These, vor allem im Bezug auf die Atomwaffenarsenale.Ich vermute du meinst das Gros.
Silo gestützte sind nicht mehr das groß.
Fedaykin schrieb am 21.07.2023:Selbst die langestützen sind in China, Indien, Russland zu signifikanten Anteil mobil.Und das schließt jetzt einen Atomkrieg aus Versehen inwiefern aus?