Ich bin mir gar nicht sicher ob man überhaupt automatisierte Abläufe, die unmittelbar von einer KI gesteuert werden, will.
Soweit ich es verstehe, zielt man doch eher
auf durch KI unterstütztes menschliches Handeln - und auf das Problem der Schnittstelle zwischen KI und Mensch.
Davon, in irgendeinem Bereich einer KI volle Kontrolle zu geben, scheint mir eigentlich gar nicht die Rede.
Beim Schach spielte AZ gegen Stockfish natürlich autonom, und das in der Tat übermenschlich. Es bewertet zB. die Sicherheit des eig. Königs weniger konservativ, opfert schon mal früh Material um im späteres Verlauf der Partie die Bewegungsfreiheit bzw. überhaupt die Entwicklung der gegner. Figuren zu hemmen. Sie spielte Züge, verfolgte Ansätze (sofern man davon sprechen kann), auf die noch kein Spieler im Turnierschach gekommen ist.
Aber schon bei diesen Experimenten zwang man die Programme teilweise, nicht aus der Anfangsstellung zu spielen sondern aus Positionen heraus, die sich aus den klassischen Eröffnungen ergeben.
Man würde sonst nie erfahren haben wie AZ zB. in sizilianischen Eröffnungen spielt,
weil sie die entsprechenden Züge einfach nicht von sich aus macht. Aber man wollte es wissen, also gab man die entsprechenden Eröffnungen teilw. vor. Damit wurde die Stärke der KI auf der einen Seite ausgebremst, indem man sie in Stellungen zwang, die sie nicht gespielt hätte. Die Spielweise und Spielstärke konnte aber an den Ergebnissen fürs menschl. Spiel und die Spieler
nachvollziehbarer werden. Darum gings, nicht unbedingt um die Spielstärke. Schon gegen Stockfish zu spielen, macht wenig Sinn. Man nutzt solche Engines zur Analyse und um neue Wege zu finden, nicht ernsthaft als Spielpartner. Im Schach ist Mensch vs. Maschine schon etliche Jahre uninteressant.
AZ ist für den Menschen zwar "unschlagbarer", aber darum ging es nicht nur. Die KI spielt eben... menschlich. Nicht die üblichen, hochabstrakten Computerzüge, sondern menschlich nachvollziehbare, viele sagen "schönes", "ästhetisches" Schach. Da liegt das Besondere, deswegen spricht man mittlerweile von "AlphaZero-artig" bei bestimmten Zügen - es hat, anders als die bisherigen engines, so etwas wie einen Stil. Man kann von diesen Partien daher mehr lernen als von den abstrakten Stockfish-Schiebereien. Und noch dazu ist die KI stärker... Verständlicher, menschlicher
und stärker.
Im übertragenen Sinne denke ich, das ist auch die Richtung in der man KI nutzen wird:
für eng gestellte Aufgaben Lösungen auszuarbeiten, die dann von Menschen (im Rahmen menschengemachter Regeln) umgesetzt werden. Denn es soll ja der Mensch und die Gesellschaft von der KI profitieren, man lässt die nicht als Selbstzweck laufen und überträgt ihr dann alle möglichen Verantwortungen. Es
gibt eben diese grundsätzliche Grenze: die der Verantwortung. Und hier glaube ich, wird man den Menschen nicht herausnehmen. Geht etwas schief oder hat unerwünschte Folgen, wird keine Gesellschaft akzeptieren: Das ist halt so, das hat die KI entschieden.
Darum wird man das auch im Vorfeld nicht akzeptieren: jemand muss
verantwortlich sein, jemanden müssen im entsprechenden Falle Konsequenzen treffen. Wen verklage ich für unerwünschte Folgen einer KI-Entscheidung, und auf welcher Grundlage kann ihm überhaupt das Verhalten der KI zugerechnet werden? Wer kommt für Schäden auf? Wer ist haftbar, wenn etwas entschieden hat, dessen Entscheidung autonom getroffen wird und vom Betreiber oder Schöpfer im Detail weder vorhersehbar noch gewollt ist?
Das sind in unserer Gesellschaft sehr wesentliche Fragen, und da würde eine KI in autonomer Verantwortung ohne menschl. Instanz einfach nicht reinpassen.
Man denke auch an ethische Probleme, wenn man zB. eine KI in Krankenkassen verwenden würde um Beiträge, Zuzahlungen, Kostenübernahmen autonom zu regeln. Hier würde wirtschaftlich vernünftiges Handeln vielleicht schnell zu ethisch fragwürdigem Verhalten führen. Daher ist doch wahrscheinlicher, dass die KI Optionen ausarbeitet, aus denen dann ein Mensch auswählt.
Denn da liegen die Grenzbereiche in von Menschen gemachten und ausgelegten Gesetzen - und das wird wohl so bleiben:
Über "Menschenwürde" wird man wohl nur Menschen entscheiden lassen. Zudem die Entscheidungsprozesse einer KI ja in einer menschl. Gesellschaft stattfinden - gegen deren Willen, Erwartungen und Tabus wird eine KI abstrakt ohne weiteres verstossen können. Aber das ist kaum
gewollt. Die entsprechenden moral. oder rechtl. Regeln beizubringen, wird kaum ein erfolgreicher Ansatz sein: denn in diesen Fragen gibt es ja schon unter den Menschen keine Einigkeit, die Antworten darauf änderten sich im Laufe der Geschichte und schon zw. den versch. Gesellschaften -
das bleibt ein offener Prozess.
Da wird der Mensch als Entscheidungsträger beibehalten. Nicht wegen der Gefahr, ansonsten von der KI ausradiert zu werden. Sondern weil schon Ergebnisse
auf viel kleinerer Ebene extrem unerwünscht sein können, die für die KI absolut naheliegend und logisch sind. Für die Gesellschaft aber unakzeptabel.
Konkret sieht man das vielleicht ganz gut an der Arbeit von DARPA, einer Behörde des US-Verteidungsministeriums, wo zB. letzte Woche eine AI gegen einen menschl. Piloten haushoch in simulierten dogfights (Flugzeugnahkampf) gewann. Ziel des Projektes ist eben
nicht eine autonom von KI gesteuerte Maschine. Sondern
KI-Unterstützung für den Piloten, der die wesentlichen Entscheidungen weiterhin selbst trifft (zB. über das Ziel). Der weitere Schritt, eine AI ein Kampfflugzeug selbstständig zu steuern und Ziele zu zerstören, ist wahrscheinlich
technisch nicht weit entfernt. Aber man
will das gar nicht, und es sieht auch nicht so aus als würde man das ändern wollen.
https://www.darpa.mil/program/air-combat-evolutionAlphaDogfight Trials Final Event
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.
Finale ab 4:39:53
Ein weiteres Beispiel ist "
Gamebraker", die Entwicklung einer AI die für das Strategiespiel "Command: Modern Operations" - das ist kein mainstream-game sondern eher eine Waffensystem-Simulation, und es gibt eine spezielle Variante davon exklusiv für Militär und ähnliche Einrichtungen (ua. nutzt die dt. Luftwafffe das Programm).
Hier ist die Zielsetzung in der Tat, "unfaire" Taktiken zu finden:
is about novel tactics, without any of the limitations of human understanding holding back how the algorithm plots a path to victory. (...)
Proving that AI can win games is an essential first step to proving that AI can actually offer useful insight to commanders. If humans are going to place trust in an algorithmic order of battle, it is absolutely essential to have faith that the algorithm knows what it is doing.Quelle:
https://breakingdefense.com/2020/08/darpa-wants-wargame-ai-to-never-fight-fair/Aber auch hier ist nicht das Ziel, einen autonome Entscheidungsträger zu entwickeln sondern einen Kommandeur bei der Wahl einer Taktik zu unterstützen und Optionen anzubieten.
Ich denke daher, das grundlegende Problem das hier angesprochen wird, ist den Entwicklern, Forschern und Anwendern dermassen bewusst und klar, dass man es dadurch löst indem man eine KI erst gar nicht soweit autonom entscheiden lässt.