CoA 2017 AF 4 - SilentCry vs. Interpreter
Ich habe mich tierisch gefreut, als ich das Thema gelesen habe. Wie es der Zufall will, war „künstliche Intelligenz“ auch der Grund, warum ich vorige Woche sehr wenig Zeit gehabt hätte, eine ordentliche Bewertung zu schreiben (zum Glück war es dann nur paranormal vs. Warhead), da ich auf einem zweitägigen Seminar genau zu diesem Thema war. Wie man sich denken kann, bin ich also eher jemand, der die Chancen dieser Technologie sieht und weniger die Risiken, die damit einhergehen. Dennoch versuche ich möglichst unvoreingenommen an die Bewertung heran zu gehen.
Form: 30
Stil: 30
Argumentation: 30
Sonstiges: 10
Form:
Die Form war bei beiden in Ordnung. Schreibfehler hatte interpreter gefühlt ein paar mehr, aber das störte nur wenig. Beide arbeiteten viel mit Links zu Artikeln. Aus meiner Sicht wurde ein wenig zu viel mit den Wikipedia-Artikeln gearbeitet. Insgesamt war aber ein guter Lesefluss drin. Kleiner Vorteil für SilentCry.
SilentCry: 16
interpreter: 14
Stil:
Gemäß der zu vertretenden Positionen versuchte interpreter nicht nur rational an das Thema heranzugehen, sondern brachte mit seiner erdachten Geschichte über „X3“ direkt Emotionen hinein und schürte Ängste – guter Ansatz. SilentCry hatte zu Beginn gefühlt ein paar mehr Probleme in die Thematik zu finden, brachte dann aber die Gegenargumente zum richtigen Zeitpunkt. Ab ca. Mitte der Diskussion wurde interpreter für meinen Geschmack ein wenig zu kleinlich und versteifte sich zu sehr auf einzelne Streitpunkte (nur 2% der befragten Wissenschaftler sagen…). Er ging irgendwann dazu über, SilentCry in zahlreichen Details Widersprüche zu unterstellen und sprach seinem Kontrahenten generell die Kompetenz ab, die richtigen Schlüsse zu ziehen – die klassischen rhetorischen Mittel eben. SilentCry tat das wiederrum auch, aber in einer weniger aggressiven Weise und nur dort, wo es unbedingt nötig war. Das gefiel mir ganz gut, wohingegen ich interpreter’s Beiträge gegen Ende hin immer anstrengender fand, da nichts substanzielles mehr kam.
Für SilentCry boten sich mMn einige Möglichkeiten die Argumente von interpreter nachhaltiger zu entkräften. Ich fand, er ging zu tief auf die Dystopien (den Begriff kannte ich vorher auch noch nicht, danke^^) von interpreter ein und verlor in diesen ganzen Träumereien und Spekulationen etwas den Faden. Das war quasi ein Feld, was er interpreter gar nicht hätte überlassen müssen, wenn er ganz rational bei den Fakten geblieben wäre. So hatte interpreter hier einen Vorteil und konnte die Diskussion weiterhin emotional führen und z.B. mit den 1% = 80 Mio Menschenleben argumentieren, obwohl allein schon die Bildung dieses Erwartungswertes hanebüchen war.
Auch hätte SilentCry den von interpreter herangezogenen Artikel über Googles Entwickler einfach entkräften können, aus dem hervorgehen soll, dass sie ihre eigene KI nicht mehr verstehen. Die Überschrift dieses Artikels ist natürlich reißerisch – im Text steht dagegen nur noch „(..) even some of Google’s own staff is clueless how it is exactly working.“
Im Endeffekt hatten beide Kontrahenten ihre Stärken und Schwächen beim Stil. Einen echten Vorteil erkenne ich bei keinem.
SilentCry: 15
interpreter: 15
Argumentation:
Ich hatte es kurz angerissen: der Beginn von interpreter war gut und die Vorteile waren auf seiner Seite. Etwa bis zur Mitte von Seite 3 hatte ich selbst kurz Zweifel, ob ich meine eigenen Überzeugungen pro KI nicht überdenken sollte. Das drehte sich aber aus meiner Sicht mit dem Post von SilentCry (13.05.2017 um 11:40), wo er die gesamte Argumentation von interpreter kippt. Daraufhin schaffte es interpreter nicht mehr, überzeugende Argumente für seine Position zu bringen bzw. ging nicht mehr auf die von SilentCry gebrachten Argumente ein. Zum einen konnte interpreters These, dass für eine KI auf menschlichem Niveau lediglich Rechenleistung notwendig ist, mich nicht überzeugen (ist auch nicht so). Angenommen aber, man käme irgendwann zu einer KI auf menschlichem Niveau, wurde für mich aus interpreters Darlegungen nicht ersichtlich, warum dies notwendigerweise eine „zu große“ Gefahr darstellt. SilentCry hat diese Thesen ausreichend überzeugend widerlegt und zum Teil auch mit ganz guten Beispielen untermauert (Bezüglich selbst-lernende KI: Kind und Hocker).
Interpreter brachte dann einen plötzlich sehr sachlichen post (13.05.2017 um 13:17) bei dem die Schlussfolgerung „es muss einfach nur umfangreich genug sein“ schlicht falsch ist. Im Beitrag widerlegt er sich aus meiner Sicht sogar selbst, indem er impliziert, dass ein Mensch die Maschine trainieren muss, um zum gewünschten Ausgabewert zu kommen – und das ist tatsächlich so. Eine selbst-lernende Maschine, die sich auch das „Lernen“ selbst beibringt, ist schlichtweg nicht vorstellbar. SilentCry hat argumentativ gegengehalten und dabei vieles richtig erkannt, auch wenn er längst nicht alle ihm gebotenen Torchancen verwandelt hat.
Ein netter Ansatz für interpreter wäre übrigens gewesen, wenn er einfach mal dargestellt hätte, wie weit die Entwicklung von KI heute schon ist. Daraus kann man nämlich durchaus weitere düstere Entwicklungen spinnen. Auch hat interpreter die Gefahr, die von KI ausgehen kann, zu eng definiert. Eine „Gefahr“ muss nicht immer nur für Leib und Leben bestehen. Gefährlich ist z.B. auch, wenn Menschen ihren Arbeitsplatz verlieren, woraus soziale Unruhen entstehen. Die aktuell wohl beste KI (IBM Watson) kann mittlerweile bereits Arbeitskräfte ersetzen und ist in Spezialgebieten sogar schon schlauer als Menschen (Quizsendung Jeopardy!): Wikipedia: Watson_(Künstliche_Intelligenz)
Ebenso gibt es bereits Beispiele die zeigen, dass eine selbst lernende KI völlig außer Kontrolle geraten kann:
http://www.spiegel.de/netzwelt/web/microsoft-twitter-bot-tay-vom-hipstermaedchen-zum-hitlerbot-a-1084038.htmlWie dem auch sei, bei der Argumentation sehe ich deutliche Vorteile für SilentCry.
SilentCry: 21
interpreter: 9
Sonstiges:
Was bleibt sonst noch so hängen…? Auf jeden Fall gebe ich interpreter Extrapunkte für seine X3-Geschichte. SilentCry gebe ich Zusatzpunkte, weil er sich insgesamt nicht hat hinreißen lassen, zu kleinlich zu werden. Das fand ich wiederrum bei interpreter gegen Ende anstrengend. Letztlich leichter Vorteil für interpreter durch den starken Beginn.
SilentCry: 4
interpreter: 6
Gesamt:
SilentCry: 56
interpreter: 44