Clash
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

CoA 2017 AF 4 - SilentCry vs. Interpreter

70 Beiträge ▪ Schlüsselwörter: Coa 2017, Interpreter, Achtelfinale ▪ Abonnieren: Feed E-Mail

CoA 2017 AF 4 - SilentCry vs. Interpreter

13.05.2017 um 16:51
Zitat von RayWondersRayWonders schrieb:welche Produkte die da in Entwicklung sind stellen deiner Meinung nach ein großes SicherheitsRisiko dar?
Im sinne meines Standpunktes hoffe ich doch, dass das KEINE sind. Aber so genau weiß ich das nicht. Schließlich melden die nicht alle ihre Projekte an mich.
Zitat von RayWondersRayWonders schrieb:Die Antworten auf diese Fragen kennst du doch selbst - es führt zu Unfällen, Schäden oder Katastrophen
Katastrophen wie sie X3 auslösen würde beispielsweise.
Das Auto-Gleichnis, dass du da drunter gepackt hast ist absurd.
Zitat von RayWondersRayWonders schrieb:Genau das trifft auch zu, wenn Autofahrer zu schnell fahren und sich und ihre Fähigkeiten überschätzen.
Oder schlimmer noch von denjenigen, die bewusst ein Fahrzeug verwenden, um Mitmenschen zu überfahren.

Aber auf meine Frage, ob Autos jetzt nachträglich gesehen als Erfindung tragbar sind, bist du mir eine Antwort schuldig geblieben.
Dieses Hilfsmittel wird von Abertausenden Menschen tagtäglich verwendet, so wie es vom Nutzen her gedacht ist.
Ein Auto alleine kann keine globale Katastrophe auslösen, eine KI, wie ich sie illustriert habe, schon.
Vergleich es mit der Atombombe und dem Nuklearem Wettrüsten.

Es wäre besser gewesen, wenn man die Atombombe niemals erfunden hätte. Aber Pandoras Büchse ist offen. Glücklicherweise hat das noch nicht zu einer globalen Katastrophe geführt aber es stand schon oft auf Messers Schneide.

https://web.de/magazine/wissen/mystery/menschheit-schrammte-nuklearem-super-unglueck-30889936

Bei der Atombombe können wir es wie gesagt nicht mehr verhindern, bei der KI können wir es noch. Man könnte globale Gesetze umsetzen und starke Kontrollen sowie Limitierungen von Forschungsgeldern in diese Richtung, um zu verhindern, dass die Menschheit ein weiteres Damokles Schwert erzeugt, dass unaufhörlich über unseren Köpfen schwebt.

Aber du bist dagegen, weil du die Sache nicht verstehst und daher 2% statt 98% der Wissenschaftler in ihrer pessimistischen Grundhaltung vertraust?
Das ist ein Paradebeispiel für das Phänomen, den Kopf in den Sand zu stecken, dass man immer fälschlicherweise dem Vogelstrauß nachsagte.
Zitat von RayWondersRayWonders schrieb:Ich (der viele Jahre als Programmierer tätig war) sehe da keine Möglichkeit einer wirklich selbst lernenden KI ohne menschliches Zutun, so dass sie vordefinierte Aufgabenbereiche verlässt und durch eigene erdachte Aktionen zu einer Gefahr wird.
Aber ich muss zugeben, ich bin nicht intelligent genug um all das zu verstehen, was ich in den letzten Stunden in den gefunden Links beschrieben sah. Ich halte mich da an die 2% dieser Konferenz und vertraue deren pessimistischer Grundhaltung, dass es unmöglich ist und sein wir
Wenn man das Thema nicht durchschaut, ist es dann nicht vernünftiger sich an die 98% zu halten? Die Gefahr zu sehen und ihr zu begegnen?


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

13.05.2017 um 17:07
Zitat von interpreterinterpreter schrieb:Ein Auto alleine kann keine globale Katastrophe auslösen, eine KI, wie ich sie illustriert habe, schon.
Das habe ich tatsächlich falsch verglichen.
Aber ich dachte du findest Hollywood-Szenarien mit globalen AI-Attacken als nicht angebracht in dieser Diskussion?
Zitat von interpreterinterpreter schrieb:Ein Auto alleine kann keine globale Katastrophe auslösen, eine KI, wie ich sie illustriert habe, schon.
Es gibt Testreihen und Qualitätssicherungen während und nach ProduktionsAbläufen.
Vor allem dann bei so etwas im militärischen Bereich. Aber auch schon beim 'autonomen Fahren'.

Wenn Entwickler einer Machine tatsächlich mal eigene EntscheidungsGewalt geben aufgrund einer KI-Bewertung, dann ist diesen Robotern auch ein AbschaltMechanismus eingebaut. Aber ich weiß schon was dann von dir kommt, die Roboter erkennen sich selbst und ihren Aufbau und kommen auf die Idee von sich eine Kopie zu erschaffen, in der dieser Mechanismus nicht eingebaut wird, weil welcher Roboter lässt sich schon gern abschalten.
Noch ein zusätzliches Detail deines Szenarios, welches das ganze noch unwahrscheinlicher macht.
Zitat von interpreterinterpreter schrieb:Aber du bist dagegen, weil du die Sache nicht verstehst und daher 2% statt 98% der Wissenschaftler in ihrer pessimistischen Grundhaltung vertraust?
Richtig, ich kann es mir einerseits nicht vorstellen. Und zum zweiten vertraue ich den Sicherheitsvorkehrungen.
Andernfalls müsste ich ständig in der Angst leben, dass hier jmd.in der Stadt mit einer halbautomatischen Waffe oder einer Bakterien-/Virenschleuder herumläuft. Das ist möglich, aber unwahrscheinlich.
Genau so leite ich ab, dass keine 'große Gefahr' darstellt, wenn man derzeitige KIs weiterentwickelt.
Zitat von interpreterinterpreter schrieb: ist es dann nicht vernünftiger sich an die 98% zu halten? Die Gefahr zu sehen und ihr zu begegnen?
Mache ich doch, ich erkläre dir doch SicherheitsKonzepte durch welche Gefahren minimiert werden.
Du wirfst mir dann vor dich in deine Szenarien hineinzudenken, anstatt ein wirkliches GegenArgument zu zu diesen Maßnahmen zu finden.
Nur weitere Wenn und Aber..
Wenn die MilitärEinrichtungen nicht genügend gesichert wären, dann hätten wir auch in Dtl.ständig mit Auswirkungen durch Waffen/Sprengstoffen zu tun. Das ist nicht der Fall, weil Entwickler und Beteiligte mitdenken und SicherheitsStandards etablieren.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

13.05.2017 um 17:58
Fazit

Ich kann einfach nicht nachvollziehen worauf mein Gegner hinaus will.

Das Thema lautet: sollte man KI erforschen oder ist das Risiko zu hoch.

Das auf Alexa oder den albernen japanisch Roboter zu beziehen ist meines Erachtens absurd. Ich habe nichts dagegen weiter an Computer und Mustervergleich-Algorithmen zu forschen. Darum geht es bei der Diskussion nicht es geht um KI.

Nun kann man bestimmt irgendwelche Artikel anführen, die Teile dieser Software in den Forschungsbereich der KI ansiedeln aber das ist doch sicher nicht die Intention. Fraglos wird es nicht Alexa sein, die die Welt zerstört.

Mein Kontrahent aber nimmt den aktuellen Stand der Technik und sein selbst erklärtes mangelndes Verständnis, als Anlass auszuschließen, dass es jemals dazu kommen würde.
Ich bringe einen Artikel, der aufzeigt, dass 98% der Fachleute das anders sehen und er greift nach dem Strohhalm sich auf den 2%igen Rest zu berufen.

Dann schreibt er, dass er den Ingenieuren vertrauen würde. Wie kann man das? Wie kann man vorallem auch ihren Vorgesetzten trauen  und das noch dazu, wenn die Alle in einer Firma, einem Geheimdienst oder dem Militär arbeiten?


Aus meiner Sicht sind Firmen, Geheimdienste und das Militär als aller erstes ein großer Hort der Inkompetenz in dem vielleicht meistens nichts Schlimmes passiert.

Aber eine Umgebung völliger Fehlerfreiheit gibt es da nicht.

Das Problem das dadurch entsteht ist aber, dass bei einer künstlichen Superintelligenz ein extrem kleiner Fehler ausreicht. Wir könnten die Gedankengänge eines solchen Konstruktes ebenso wenig verstehen wie eine Ameise Unsere das birgt ein großes Risiko.Wie können wir uns da vernünftige Regeln ausdenken... Asimovs Robotergesetze scheitern in der Geschichte.

Aus meiner Sicht ist das einfach zu gefährlich. Mein Kontrahent stimmt mir übrigens zu, ohne das einzugestehen:
Zitat von RayWondersRayWonders schrieb:Man hat schon vor Jahrzehnten von dieser Gefahr gewusst und es gibt unzählige Bücher und Filme zu diesem Thema.
Wir alle wissen es!
Zitat von RayWondersRayWonders schrieb:Das wird mMn niemals so stattfinden. Die Entwickler wissen um die Gefahr und werden Machinen keine Befugnisse in der Größenordnung geben.
Zitat von RayWondersRayWonders schrieb:Das ist nicht der Fall, weil Entwickler und Beteiligte mitdenken und SicherheitsStandards etablieren.
Er vertraut den Entwicklern, ich nicht.
   Programme mit einer Fehlerdichte von weniger als 0,5 Fehlern pro 1000 Zeilen Code gelten als stabile Programme.
aus Wikipedia: Programmfehler

Man nimmt also an, dass das Programm stabil ist, wenn es wenige Fehler hat, nicht keine.

Selbst also wenn die Beteiligten ALLES bedenken, was schon für sich unmöglich ist, könnte die Kontrolle an einem simplen Programmfehler scheitern.
Zitat von RayWondersRayWonders schrieb:Mache ich doch, ich erkläre dir doch SicherheitsKonzepte durch welche Gefahren minimiert werden.
Du wirfst mir dann vor dich in deine Szenarien hineinzudenken, anstatt ein wirkliches GegenArgument zu zu diesen Maßnahmen zu finden.
Nur weitere Wenn und Aber..
Wenn die MilitärEinrichtungen nicht genügend gesichert wären, dann hätten wir auch in Dtl.ständig mit Auswirkungen durch Waffen/Sprengstoffen zu tun. Das ist nicht der Fall, weil Entwickler und Beteiligte mitdenken und SicherheitsStandards etablieren.
http://www.ndr.de/nachrichten/niedersachsen/lueneburg_heide_unterelbe/Waffendiebstahl-Verbindung-zu-Franco-A,diebstahl238.html

Es sind die Details an denen es scheitert.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

13.05.2017 um 18:00
Das Match ist beendet! Stimmt in der Umfrage für Euren Favoriten ab: CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser? (Beitrag von Aldaris) . Das Endergebnis wird spätestens am 17.05.2017 hier in diesem Thread veröffentlicht.

Auch nochmal eine Erinnerung an die Juroren: @smokingun @SethP @Jimtonic @Balthasar70 . Das Match, das Ihr bewerten werdet, ist beendet.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

16.05.2017 um 20:35
@Balthasar70
@Jimtonic
@SethP
@smokingun

Ihr dürft eure Bewertungen nun posten. Ich gebe euch Zeit bis 21 Uhr. :)


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

16.05.2017 um 20:45
Bewertung CoA 2017 AF 4 - SilentCry vs. Interpreter
Anbei meine Bewertung. Thema war:
Technik: Sollten künstliche Intelligenzen weiterentwickelt werden oder ist die Gefahr zu groß?
Vorweg erstmal, es war ein Super Clash, von beiden Seiten, Das Thema war Interessant und versprach einen Interessanten Clash, und das wurde es auch. Los geht’s mit der Bewertung.
Silentcry:
Vertritt die Meinung das KI nicht Gefährlich ist, und da wären wir beim Stil, wie gesagt beide sind auf einem hohen Level. Das zieht sich durch die ganze Thematik durch. Jedoch wird Silentcry ab und zu zurückgedrängt und kann nicht genau Antworten auf die Fragen von Interpreter, bzw. Antwortet er geschickt drum herum was den Stil Punkt hoch ziehen lässt.
Er hat auch viele Links aus anderen Artikeln zu bieten und er bietet Interpreter gut die Stirn. Er kommt aber nach paar Threads immer wieder in die Defensive dazu aber später mehr.
Interpreter:
Er vertritt die Meinung das es gefährlich wäre. Man merkt das er wohl auch selber dahinter steht aber wenn auch nicht er macht es richtig Klasse finde ich, er Argumentiert Sachlich gibt immer Paroli und schafft es schnell Silentry in die Defensive zu drücken. Silentcry versucht sich daraus zu lösen was ihm aber nicht wirklich gelingt. Ich finde Interpreter geht auch paar mal direkt den Silentcry an und frägt z.B. was er dazu jetzt wirklich sagt und warum er keine Antwort bekommt, auch sein Schreibstil ist etwas lockerer. Wobei wir bei den Stilpunkten sind, darum sind beide auch sehr nah beieinander.
Punktevergabe:
SIlentcry:
Bekommt von mir Stil und Gesamtpunkte eine Punktzahl von 43 Punkten. Er hat es wirklich gut gemacht und es war auch sehr knapp oft hab ich überlegt soll er doch da oder dort mehr Punkte bekommen aber Interpreter war in Summe doch einen Tick stärker.
Interpreter:
Stil und die Art zu Argumentieren und auch die lockeren „Hüftschüsse“ um SIlentcry aus der Reserve zu locken waren stärker und beide haben ihren Clash gut gemacht, aber in Summe war der Sieger für mich Interpreter sowohl im Stil und im gesamten Clash, auch wenn es wirklich knapp war und beide sehr eng beieinander waren. Der Clash war sehr Interessant zu Lesen. Er bekommt von mir 57 Punkte.
Glückwunsch an beide, ein Wirklich Top Clash!


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

16.05.2017 um 20:57
CoA 2017 AF 4 - SilentCry vs. Interpreter

Ich habe mich tierisch gefreut, als ich das Thema gelesen habe. Wie es der Zufall will, war „künstliche Intelligenz“ auch der Grund, warum ich vorige Woche sehr wenig Zeit gehabt hätte, eine ordentliche Bewertung zu schreiben (zum Glück war es dann nur paranormal vs. Warhead), da ich auf einem zweitägigen Seminar genau zu diesem Thema war. Wie man sich denken kann, bin ich also eher jemand, der die Chancen dieser Technologie sieht und weniger die Risiken, die damit einhergehen. Dennoch versuche ich möglichst unvoreingenommen an die Bewertung heran zu gehen.

Form: 30
Stil: 30
Argumentation: 30
Sonstiges: 10

Form:
Die Form war bei beiden in Ordnung. Schreibfehler hatte interpreter gefühlt ein paar mehr, aber das störte nur wenig. Beide arbeiteten viel mit Links zu Artikeln. Aus meiner Sicht wurde ein wenig zu viel mit den Wikipedia-Artikeln gearbeitet. Insgesamt war aber ein guter Lesefluss drin. Kleiner Vorteil für SilentCry.

SilentCry: 16
interpreter: 14

Stil:
Gemäß der zu vertretenden Positionen versuchte interpreter nicht nur rational an das Thema heranzugehen, sondern brachte mit seiner erdachten Geschichte über „X3“ direkt Emotionen hinein und schürte Ängste – guter Ansatz. SilentCry hatte zu Beginn gefühlt ein paar mehr Probleme in die Thematik zu finden, brachte dann aber die Gegenargumente zum richtigen Zeitpunkt. Ab ca. Mitte der Diskussion wurde interpreter für meinen Geschmack ein wenig zu kleinlich und versteifte sich zu sehr auf einzelne Streitpunkte (nur 2% der befragten Wissenschaftler sagen…). Er ging irgendwann dazu über, SilentCry in zahlreichen Details Widersprüche zu unterstellen und sprach seinem Kontrahenten generell die Kompetenz ab, die richtigen Schlüsse zu ziehen – die klassischen rhetorischen Mittel eben. SilentCry tat das wiederrum auch, aber in einer weniger aggressiven Weise und nur dort, wo es unbedingt nötig war. Das gefiel mir ganz gut, wohingegen ich interpreter’s Beiträge gegen Ende hin immer anstrengender fand, da nichts substanzielles mehr kam.

Für SilentCry boten sich mMn einige Möglichkeiten die Argumente von interpreter nachhaltiger zu entkräften. Ich fand, er ging zu tief auf die Dystopien (den Begriff kannte ich vorher auch noch nicht, danke^^) von interpreter ein und verlor in diesen ganzen Träumereien und Spekulationen etwas den Faden. Das war quasi ein Feld, was er interpreter gar nicht hätte überlassen müssen, wenn er ganz rational bei den Fakten geblieben wäre. So hatte interpreter hier einen Vorteil und konnte die Diskussion weiterhin emotional führen und z.B. mit den 1% = 80 Mio Menschenleben argumentieren, obwohl allein schon die Bildung dieses Erwartungswertes hanebüchen war.

Auch hätte SilentCry den von interpreter herangezogenen Artikel über Googles Entwickler einfach entkräften können, aus dem hervorgehen soll, dass sie ihre eigene KI nicht mehr verstehen. Die Überschrift dieses Artikels ist natürlich reißerisch – im Text steht dagegen nur noch „(..) even some of Google’s own staff is clueless how it is exactly working.“
Im Endeffekt hatten beide Kontrahenten ihre Stärken und Schwächen beim Stil. Einen echten Vorteil erkenne ich bei keinem.

SilentCry: 15
interpreter: 15

Argumentation:
Ich hatte es kurz angerissen: der Beginn von interpreter war gut und die Vorteile waren auf seiner Seite. Etwa bis zur Mitte von Seite 3 hatte ich selbst kurz Zweifel, ob ich meine eigenen Überzeugungen pro KI nicht überdenken sollte. Das drehte sich aber aus meiner Sicht mit dem Post von SilentCry (13.05.2017 um 11:40), wo er die gesamte Argumentation von interpreter kippt. Daraufhin schaffte es interpreter nicht mehr, überzeugende Argumente für seine Position zu bringen bzw. ging nicht mehr auf die von SilentCry gebrachten Argumente ein. Zum einen konnte interpreters These, dass für eine KI auf menschlichem Niveau lediglich Rechenleistung notwendig ist, mich nicht überzeugen (ist auch nicht so). Angenommen aber, man käme irgendwann zu einer KI auf menschlichem Niveau, wurde für mich aus interpreters Darlegungen nicht ersichtlich, warum dies notwendigerweise eine „zu große“ Gefahr darstellt. SilentCry hat diese Thesen ausreichend überzeugend widerlegt und zum Teil auch mit ganz guten Beispielen untermauert (Bezüglich selbst-lernende KI: Kind und Hocker).

Interpreter brachte dann einen plötzlich sehr sachlichen post (13.05.2017 um 13:17) bei dem die Schlussfolgerung „es muss einfach nur umfangreich genug sein“ schlicht falsch ist. Im Beitrag widerlegt er sich aus meiner Sicht sogar selbst, indem er impliziert, dass ein Mensch die Maschine trainieren muss, um zum gewünschten Ausgabewert zu kommen – und das ist tatsächlich so. Eine selbst-lernende Maschine, die sich auch das „Lernen“ selbst beibringt, ist schlichtweg nicht vorstellbar. SilentCry hat argumentativ gegengehalten und dabei vieles richtig erkannt, auch wenn er längst nicht alle ihm gebotenen Torchancen verwandelt hat.

Ein netter Ansatz für interpreter wäre übrigens gewesen, wenn er einfach mal dargestellt hätte, wie weit die Entwicklung von KI heute schon ist. Daraus kann man nämlich durchaus weitere düstere Entwicklungen spinnen. Auch hat interpreter die Gefahr, die von KI ausgehen kann, zu eng definiert. Eine „Gefahr“ muss nicht immer nur für Leib und Leben bestehen. Gefährlich ist z.B. auch, wenn Menschen ihren Arbeitsplatz verlieren, woraus soziale Unruhen entstehen. Die aktuell wohl beste KI (IBM Watson) kann mittlerweile bereits Arbeitskräfte ersetzen und ist in Spezialgebieten sogar schon schlauer als Menschen (Quizsendung Jeopardy!): Wikipedia: Watson_(Künstliche_Intelligenz)

Ebenso gibt es bereits Beispiele die zeigen, dass eine selbst lernende KI völlig außer Kontrolle geraten kann: http://www.spiegel.de/netzwelt/web/microsoft-twitter-bot-tay-vom-hipstermaedchen-zum-hitlerbot-a-1084038.html

Wie dem auch sei, bei der Argumentation sehe ich deutliche Vorteile für SilentCry.

SilentCry: 21
interpreter: 9

Sonstiges:
Was bleibt sonst noch so hängen…? Auf jeden Fall gebe ich interpreter Extrapunkte für seine X3-Geschichte. SilentCry gebe ich Zusatzpunkte, weil er sich insgesamt nicht hat hinreißen lassen, zu kleinlich zu werden. Das fand ich wiederrum bei interpreter gegen Ende anstrengend. Letztlich leichter Vorteil für interpreter durch den starken Beginn.

SilentCry: 4
interpreter: 6

Gesamt:
SilentCry: 56
interpreter: 44


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

16.05.2017 um 21:13
Balthasar70:

Also erstmal meinen Respekt an beide Diskutanten ich als bekennender Zweisatzkommentator, ziehe meinen Hut vor Der Tiefschichtigkeit diese Debatte,

Meine Punkte möchte ich gerne in je 30 Stil- und Argumentationspunkte und 40 Battlepoints aufteilen. Diese Battlepoints gehen an den der am "dreckigsten" diskutiert hat, also abseits von Fakten und Nettigkeit die Diskussion dominiert hat.

Ich fand es sehr geschickt von Interpreter, am Anfang erstmal ein Weltuntergangsszenario zu entwerfen, nach dem Motto, wenn die KI kommt müssen wir alle sterben. SilendCry hat sich m.E. In der ganzen Debatte von diesem Angriff nicht mehr erholt.

Leider ist der Diskurs dadurch aber in eine reine Glaubensdebatte abgedriftet. Niemals wird der menschliche Geist nachgebaut Werden können, gegen, doch sie Weden uns überholen und dann knechten, nein, doch, nein, doch. Dadurch hat das Gespräch gelitten, zumal in diesen Situationen dann auch kleine persönliche Nicklichkeiten auftreten.

Viele interessante aktuelle Fragen zu KI sind desshalb leider unbesprochen geblieben, es ist ja nicht so als würde sie nicht schon wirken.
Arbeit 3.0
Transhumanismus
Wahlbeeinflussung durch bots
.
.
.
Außerdem ist m.E. Interpreter die Antwort darauf schuldig geblieben, wie denn nun die Büchse der Pandora wieder zu schließen wäre.

Desshalb mal zu den Argumenten, und damit meine ich die "Fakten". Da sehe ich die beiden ausgeglichen, Interpreter hatte da zwar die Deutungshoheit, wäre aber doch in den meisten Punkten, leicht zu wiederlegen gewesen, hätte sich SilentCry etwas geschickter angestellt.
Kleines Beispiel, wie wirkt es sich denn statistisch aus, wenn die KI bevor sie anfängt alle zu knechten, ein dutzendemal Methoden entwickelt apokalyptische Aseroideneinschläge zu verhindern?

Desshalb meine Wertung hier.
Interpreter 16
SilentCry 14

Den Stil fand ich auch recht ausgeglichen, Interpreter fand ich sehr eloquent und nachvollziehbar zu lesen, SilentCry etwas verbindlicher und weniger aggressiv, ob man um 17:58 noch einen längeren Beitrag Posten muss..... Nunja.


Interpreter13
SilentCry17

So nun zu den Battlepoints, und da ist die Punkteverteilung eindeutiger. Interpreter hat von Anfang an die Diskussion beherrscht, die 2% Argumentation, tut mir Leid SilentCry, ein echtes Eigentor, Dir haben da gegen einen starken Gegner, ein paar Patronen in der Trommel gefehlt, nicht das da nicht genug Angriffspunkte gewesen wären.... ich hatte Den Eindruck Du bist halt schnell 0:2 hintengelegen und dann ist es auch schwer.

Interpreter 28
Silent Cry 12

Interpreter 57
Silentcry 43


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

16.05.2017 um 21:13
SmokingGun:

Das war wirklich ein guter Clash,beide haben ihre Position sehr gut vertretten.

Die frage ob eine KI uns gefährlich werden kann ist schon eine Spekulation der Zukunft deswegen ist es folgerichtig das Interpreter ein dystopisches Szenario aufbauen musste und SilentCry sich auf den jetzigen Stand beruft und den Horizont zumachte .

Ich weiss nicht welche Position hier einfacher war ,der Vorteil von SilentCry liegt in der spekulation der Fragestellung die Interpreter mit seiner übermächtigen apokalyptischen KI Geschichte ihm auch etwas in die hände spielte, da er die Gefahr damit aufzeichnete die sich nicht unmittelbar sondern in einer eher weiter gerückten Zukunft befindet ,dass macht es schwerer mit wissenschaftlichen Fakten zu punkten aber es bringt auch den Vorteil ,weil wir solche End-Szenarien aus Filmen,Bücher und Videospielen kennen die sich bei uns allen eingeprägt haben ,die auch interessante Aspekte haben aus dennen man was ausschöpfen kann .


Es ist schon schwierig KI zu definieren, man muss aber nicht zwangsläufig von der stärksten ausgehen um gefahren aufzuzeigen,aber es ist vermutlich besser zu plakatieren.. Naja aber die Gretchenfrage die ich auch nach dieser Debatte immer noch schwer einschätzen kann ist...wo fängt die KI genau an?

Die Debatte ging auch darum ob "Frankensteins Monster" kontrollierbar ist oder sich gegen den Schöpfer richtet. SilentCry hat dagegen argumentiert ,dass man Mechanismen einbauen wird ,die dass alles verhindern wird und er bezweifelt im Ansatz dass eine solche künstliche Intelligenz überhaupt machbar ist oder gar keine echte intelligenz darstellt.. quasi mit dem Argument was auch der Philosoph John Searle schon mit dem "Chinesischen Zimmer " postulierte.

Stil und Argumentation befand sich bei beiden auf ähnlich gutem Niveau. Das gleiche empfand ich auch in der weise wie man sich die Gegenargumente lieferte und in der Diskussion auch immer wieder gute punkte nachsetzte.

Persönlich bin ich eher auf Interpreters Position was dass Thema betrifft aber ich finde SilentCry hat seine Seite voll ausgefüllt und deswegen kann ich ihn nicht als Verlierer bezeichnen.

Es tut mir leid aber ich kann hier nur ein pari setzen ; gewonnen haben die Leser dieser guten Debatte die für mich auf Augenhöhe war .

Interpreter : 50 Punkte
SilentCry : 50 Punkte


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

16.05.2017 um 21:23
Damit kommen wir zum Endergebnis:

Die Juroren werteten wie folgt:

SilentCry: 192
Interpreter: 208

Die User werteten:

SilentCry: 34
Interpreter: 66

Es gab keine Strafe für Doppelposts.
Es gab folgende Strafen für Zeichenverstöße:

SilentCry: -20
Interpreter: 0

Damit ergibt sich in Summe:

SilentCry: 206
Interpreter: 274

Damit ist @interpreter in der nächsten Runde! Herzlichen Glückwunsch. Wir danken auch dem Zweitplatzierten, @RayWonders , für seine Teilnahme und hoffen ihn auch beim nächsten Mal wieder begrüßen zu dürfen :)


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Clash: CoA 2017 AF 6 - Queen-of-Mad vs. suicidecat
Clash, 27 Beiträge, am 19.05.2017 von Aldaris
Aldaris am 17.05.2017, Seite: 1 2
27
am 19.05.2017 »
Clash: CoA 2017 HF 1 - Obrien vs. interpreter
Clash, 47 Beiträge, am 07.06.2017 von Desaix
apart am 01.06.2017, Seite: 1 2 3
47
am 07.06.2017 »
von Desaix
Clash: CoA 2017 - VF 2- flashster vs interpreter
Clash, 69 Beiträge, am 30.05.2017 von Atrox
Atrox am 25.05.2017, Seite: 1 2 3 4
69
am 30.05.2017 »
von Atrox
Clash: CoA 2017 - Finale - interpreter vs. der_wicht
Clash, 37 Beiträge, am 14.06.2017 von Atrox
Atrox am 09.06.2017, Seite: 1 2
37
am 14.06.2017 »
von Atrox
Clash: CoA 2017 AF1 - E.Schütze vs. Obrien
Clash, 28 Beiträge, am 13.05.2017 von Atrox
Atrox am 10.05.2017, Seite: 1 2
28
am 13.05.2017 »
von Atrox