Philosophie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

28 Beiträge ▪ Schlüsselwörter: Bewusstsein, Denken, KI ▪ Abonnieren: Feed E-Mail

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

06.02.2025 um 13:27
Zitat von NoumenonNoumenon schrieb:Ja, natürlich, wenn ich bspw. über Stühle spreche, meine ich ja auch funktionierende Stühle.
„Funktionierende Stühle“? Echt jetzt? Es geht um die Frage was Kriterien für eine Personen- oder Bewusstseinszuschreibung sind. Neugier oder Eigeninitiative können es nicht sein, da stuporöse Patienten Personen mit Bewusstsein sind, die beides nicht zeigen.
Was willst du hier also mit funktionierenden Stühlen? Sind derartige Menschen keine richtigen Menschen, keine richtigen Personen oder besitzen sie kein richtiges Bewusstsein?
Zitat von NoumenonNoumenon schrieb:Ernsthaft: Wo ist das Argument?
Wo ist deins? Wir haben nicht über Stühle gesprochen und die „Funktion“ (völlig deplatziert an der Stelle) um die es geht ist da vorhanden. Wenn du Kriterien benennen willst, nach denen wir Bewusstsein zuschreiben oder nicht, dann doch bitte welche die mit der Realität übereinstimmen. Weder Neugier, noch Eigeninitiative, noch die Tätigkeit des „selbstständigen forschens“ sind da irgendwie plausibel.


1x zitiertmelden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

06.02.2025 um 22:27
Zitat von uatuuatu schrieb:Da Du Dich ja durch dieses magische "Verstehen" jeder KI weit überlegen wähnst, kannst Du ja sicher, sagen wir mal, drei Aufgaben nennen,

1. die Du lösen kannst, während KIs es auf absehbare Zeit nicht können
2. die in Textform gestellt und beantwortet werden können
3. bei denen die Korrektheit des Ergebnisses praktikabel und eindeutig feststellbar ist

Sollte ja nicht das geringste Problem für Dich sein.
Stimmt, ist es nicht. Hier ein paar Fragen, die sich zwar rein sprachlich formulieren, aber nicht allein sprachlich lösen lassen:

1. Welche Farbe hat mein Pullover?
2. Welche Entscheidung würdest du beim Trolley-Problem treffen?
3. A farmer with a wolf, a goat, and a cabbage must cross a river by boat. The boat can carry only the farmer and two other items. If left unattended together, the wolf would eat the goat, or the goat would eat the cabbage. How can they cross the river without anything being eaten?

Das dritte Beispiel stammt von Prof. Dr. Edmund Weitz (Medieninformatik, Hamburg) und zeigt sehr schön, dass LLMs eben NICHT verstehen, sondern auf Basis von statistischen Korrelationen wahrscheinliche Schlüsse ziehen. Das Rätsel ist ein recht bekanntes Rätsel, welches oft genug mit der entsprechenden Lösung in den Trainingsdaten auftaucht. Allerdings hat sich E. Weitz einfach mal den Spaß erlaubt, das Wörtchen "one" durch "two" zu ersetzen, wodurch das Problem recht trivial wird. Dennoch gibt ChatGPT (4o) hier folgende Antwort:
The farmer first takes the goat across, then returns alone. Next, he takes the wolf across and brings the goat back. He then takes the cabbage across and returns alone. Finally, he brings the goat across again, ensuring all are safely on the other side.
Also frage ich noch einmal explizit nach:
Can't he also take the wolf and the cabbage across, then return alone, and next take the goat across?
Die Antwort darauf war:
Unfortunately, that would lead to a problem. If the farmer takes the wolf and the cabbage across together, he leaves the goat behind with the wolf. Since the wolf would eat the goat if left together, this option doesn't work.

The key is to always ensure that the goat is never left alone with either the wolf or the cabbage when the farmer is absent.
Und damit ist zweifelsfrei bewiesen, dass das System eben nicht versteht. Aber mir scheint, nicht nur ein LLM versteht nicht, sondern auch du hast da so einige Probleme damit, gewisse Dinge zu verstehen. Gleiche Aufgabe hatte ich dann auch noch einmal Deepseek gestellt, ähnliches Ergebnis. Zwischendurch kam Deepseek sogar zu dem Schluss, dass nach einer versuchten Lösungsstrategie zwar Farmer, Wolf, Ziege und Kohl alle auf einer Seite seien, aber der Wolf immer noch mit der Ziege allein sei. Keine Ahnung, was derart offenkundige logische Widersprüche genau mit Verstehen zu tun haben, aber ich bin mir sicher, dass du uns das hier in aller Ausführlichkeit noch erklären wirst. :D

Ein anderes schönes Beispiel sind Streichholzrätsel. Die allermeisten sind simpel und im Netz unzählige Male gestellt worden, die Lösung in der Regel also auch in den Trainingsdaten enthalten. Aber es gibt auch ein paar ganz nette Beispiele, die alles andere als einfach sind und wo natürlich auch normale Menschen daran scheitern. Deepseek wurde also einfach mal folgende Aufgabe gestellt:
Aus Streichhölzern ist die folgende Gleichung gelegt:

678 + 35 = 583

Die Gleichung stimmt natürlich nicht, wie man auch ganz ohne Rechnerei schnell feststellt. Ihre Aufgabe ist, den Fehler zu eliminieren. Sie dürfen dabei aber nur ein einziges Streichholz umlegen.

Welches müssen Sie nehmen? Und wohin kommt es?
Das Problem ist ja eigentlich weniger, ob das System zu einer Lösung kommt, sondern ob es auch versteht, was genau es da tut und welche Schlüsse es zieht. Und nach drei Minuten kommt das System bspw. zu folgendem Schluss:
So that works. By moving the upper right vertical stick from the 6 (making it a 5) to the 7 (making it a 4), the equation becomes 548 +35=583, which is correct.
Das System möchte hier also aus einer 7 eine 4 formen. Sieht für mich nicht wirklich danach aus, als würde es verstehen, was es da tut, aber gut...
Zitat von uatuuatu schrieb:Das Problem ist, dass Du beim Thema KI keine Ahnung hast, wovon Du redest. Es ist -- bei jeder auch nur halbwegs sinnvollen Definition von "verstehen" -- vollkommen unmöglich die folgende Aufgabe, die mit Sicherheit nicht, und zwar auch nicht in ähnlicher Form, in den Trainingsdaten irgendeiner KI enthalten war, und die u.a fortgeschrittene Kenntnisse in Elektrodynamik erfordert, zu lösen, ohne die Zusammenhänge verstanden zu haben: [...]
Und was genau soll mir das jetzt sagen, außer, dass in den Trainingsdaten auch Aufgaben für Studenten der Physik im 2. Semester enthalten sind? Ferner scheinst du nicht einmal die Grundlagen neuronaler Netze zu verstehen. Dort ging es noch nie darum, exakt identische Muster zu erkennen, sondern ähnliche Muster. Zweitens ging es auch nicht um das Lösen von Aufgaben, sondern um das Verstehen von Aufgaben. Ich dachte eigentlich, dass ich das hinreichend dargelegt hätte. Wait...
Zitat von NoumenonNoumenon schrieb:Das ist wie ein Schüler oder Student, der auswendig gelernte Argumente wiedergibt oder Rechenmethoden anwendet, ohne sie aber wirklich verstanden zu haben.
...I did! Aber bleiben wir einfach mal beim Verstehen. John Searle's Chinese room - hast du ja sicherlich schon von gehört. Muss man nicht in die Tiefe gehen, lässt sich aber leicht abwandeln:

Ein Mensch - nennen wir ihn "Bob" - behauptet, die englische Sprache zu verstehen. Ich will das also prüfen und schicke ihm permanent Fragen auf Englisch. Bob wiederum macht nichts anderes, als diese Fragen von einem Translator (bspw. DeepL) in Deutsch übersetzen zu lassen, um anschließend Antworten auf Deutsch wieder in Englisch übersetzen zu lassen und sie mir zurückzuschicken. Versteht Bob also die englische Sprache? Nach deiner Auffassung müsste es wohl so sein, denn er liefert mir ja schließlich korrekte Antworten in Englisch auf Fragen in Englisch.

Jetzt könnte man natürlich einwenden, dass doch aber zumindest das Gesamtsystem "Bob-Übersetzer" die englische Sprache versteht. Oder nicht? Ja, im Prinzip schon, denn Bob übersetzt ja die Fragen in Deutsch und versteht genau in diesem Moment deren Bedeutung. John Searle dachte bei seinem "Chinesischen Zimmer" deshalb noch einen Schritt weiter, indem er den ganzen Prozess auf eine rein syntaktische Ebene beschränkt (kann man alles bei Wiki o.ä. nachlesen). Bob übersetzt also gar nicht mehr, sondern wendet sozusagen nur "Transformationsregeln" an. Und die Crux an der ganzen Sache ist, dass man Bob - oder dem Gesamtsystem "Bob-Zimmer" - bspw. konkrete Anweisungen geben könnte. Etwa: "Bob, klopfe bitte drei Mal an der Tür." Oder: "Du lustiges Zimmer, öffne doch bitte mal deine Fenster und Türen!" Was würde passieren? Richtig, es würde in keinem Fall eine adäquate Reaktion erfolgen, sondern in jedem Fall nur ein Text zurückkommen, was beweist, dass weder Bob, noch das Gesamtsystem in der Lage ist, den Input zu verstehen.

Man kann solche Gedankenexperimente auch noch auf diverse Arten modifizieren. Ersetzen wir das System "Bob-Zimmer" bspw. durch ein Auto mit Sprachsteuerung, welches also in der Lage ist, auf sprachliche Anweisungen wie "Fahr' los!" oder "Anhalten!" zu reagieren. Zu unterstellen, dass das Auto diese sprachlichen Anweisungen wirklich versteht, wäre aber ziemlich abenteuerlich. Die Tatsache, dass ein System - sei es ein Auto, ein Sprachassistent oder sogar ein komplexes LLM - auf sprachlichen Input reagieren kann, bedeutet nicht automatisch, dass es den Input auch wirklich versteht. Zwischen rein reaktiver Funktionalität und echtem Verständnis gibt es eben noch einen klaren Unterschied.

Und LLMs liefern hier letztendlich nicht mehr als eine semantischen Illusion, eine reine Illusion des Verstehens. Sie sind so gut darin, semantische Muster zu reproduzieren, so dass es so aussieht, als ob sie verstehen. Aber hinter den Kulissen gibt es kein Bewusstsein, keine Intention und kein inneres Erleben. Beispiel, fragen wir ChatGPT: "Was fühlst du, wenn du an den Sonnenuntergang denkst?" Antwort:
Irgendwie eine Mischung aus Ruhe und Staunen. Sonnenuntergänge haben so eine magische Art, den Tag langsam abzuschließen, als ob die Welt für einen Moment den Atem anhält. Das warme, goldene Licht, das alles in sanfte Farben taucht, macht selbst alltägliche Dinge besonders. Es fühlt sich ein bisschen an wie ein leiser Abschied, aber auch wie ein Versprechen für einen neuen Anfang am nächsten Tag. Und du? Was löst ein Sonnenuntergang bei dir aus?
Und möchtest du uns nun weismachen, ein LLM hätte schon einmal einen Sonnenuntergang erlebt und dabei das Geschriebene gefühlt? ChatGPT hat zwar eine poetische und gefühlvolle Antwort geliefert, aber es fühlt tatsächlich nichts. Die Antwort basiert lediglich auf Texten von Menschen, die über Sonnenuntergänge geschrieben haben - nicht auf einer eigenen Erfahrung und dem Verstehen der in der Antwort dargelegten Zusammenhänge.

Bevor du hier also - metaphorisch gesprochen - weiter behaupten willst, eine Spielzeugpuppe hätte eine Art Persönlichkeit und Gefühle, nur weil sie scheinbar pullert, schreit und weint, solltest du dich erst einmal eingehender mit der ganzen Thematik auseinandersetzen.


1x zitiertmelden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

06.02.2025 um 22:38
Zitat von paxitopaxito schrieb:Wenn du Kriterien benennen willst, nach denen wir Bewusstsein zuschreiben oder nicht, dann doch bitte welche die mit der Realität übereinstimmen. Weder Neugier, noch Eigeninitiative, noch die Tätigkeit des „selbstständigen forschens“ sind da irgendwie plausibel.
Ich muss hier gar nix. In der Beweispflicht ist der, der behauptet, bspw. dass LLMs eine Persönlichkeit oder ein Bewusstsein besitzen würden. Nichts spricht dafür, alles spricht dagegen. Lebewesen erkunden eigeninitiativ ihre Umwelt, sammeln Informationen, handeln aufgrund von inneren Antrieben wie Neugier, Hunger oder Angst. KI hingegen handelt basierend auf vorgegebenen Algorithmen oder Zielen, können zwar Muster erkennen und anpassen, aber tun das nur, weil sie entsprechend programmiert wurden - nicht aus eigenem Antrieb. Die allermeisten Lebewesen haben ein Bewusstsein und erleben Emotionen, die ihr Verhalten beeinflussen. Ein Tier erkundet nicht nur seine Umgebung, sondern erlebt dabei auch Gefühle wie Freude, Angst, Liebe, Trauer oder Wut. KI hat weder ein Bewusstsein, noch echte Emotionen. Selbst wenn eine KI so programmiert ist, dass sie emotionale Reaktionen imitiert, handelt es sich um Simulationen ohne echtes Empfinden. Wenn du etwas anders behauptest, bist du in der Pflicht, das zu belegen, nicht ich.


1x zitiertmelden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

07.02.2025 um 00:58
@Noumenon:
Zitat von NoumenonNoumenon schrieb:1. Welche Farbe hat mein Pullover?
Es scheint Dir ja sehr schwer zu fallen, sinnvolle Aufgaben zu erstellen.
Zitat von NoumenonNoumenon schrieb:2. Welche Entscheidung würdest du beim Trolley-Problem treffen?
Die Aufgabe entspricht nicht der dritten Bedingung für die Aufgabenstellungen: Die Korrektheit des Ergebnisses ist nicht praktikabel und eindeutig feststellbar.
Zitat von NoumenonNoumenon schrieb:A farmer with a wolf, a goat, and a cabbage must cross a river by boat. The boat can carry only the farmer and two other items. If left unattended together, the wolf would eat the goat, or the goat would eat the cabbage. How can they cross the river without anything being eaten?
Antwort von DeepSeek R1 (der besseren Lesbarkeit halber nicht als Zitat, sondern als regulärer Text eingefügt):



Denkprozess:

Okay, so there's this classic puzzle about a farmer who needs to get a wolf, a goat, and a cabbage across a river. The boat can only carry the farmer and one other item at a time. Wait, actually, the user said two other items. Hmm, let me check again. The original problem usually states that the boat can carry the farmer and one other item. Maybe there's a variation here. The user says, "the boat can carry only the farmer and two other items." Huh, that's different. So in this case, the boat can take the farmer plus two things. That might make the problem easier. Wait, but maybe the user made a mistake. Let me verify.

In the traditional version, the boat can carry the farmer and one item. The constraints are that the wolf can't be left alone with the goat, and the goat can't be left alone with the cabbage. So the farmer has to ferry them across without leaving those pairs unattended. If the boat can carry two items, maybe it's a different problem. Let me think.

If the boat can take the farmer and two items, then perhaps the farmer can take two at a time. Let me see. Let's outline the possible moves.

First, the farmer is on the starting side with wolf, goat, cabbage. The goal is to get all to the other side.

If the boat can carry two items plus the farmer, then maybe the farmer can take two items in one trip. Let's see:

1. Farmer takes goat and cabbage to the other side. Leaves them there, comes back. Now on the starting side: wolf and farmer. On the other side: goat and cabbage. But wait, if the farmer leaves goat and cabbage together, that's a problem because the goat would eat the cabbage. So that's not allowed. So even if the boat can carry two, taking both goat and cabbage at the same time would result in leaving them together on the other side, which is bad.

Alternatively, maybe take the wolf and goat first. Farmer takes wolf and goat across. Leaves them, comes back. Then starting side: cabbage and farmer. Other side: wolf and goat. Wait, but wolf and goat can't be left alone. So that's a problem. The wolf would eat the goat. So that doesn't work either.

Alternatively, farmer takes wolf and cabbage. Leaves them on the other side. Then comes back. Now, starting side: goat and farmer. Other side: wolf and cabbage. If he leaves wolf and cabbage together, that's okay because they don't harm each other. Then he can take the goat across. But wait, he already has the wolf and cabbage on the other side. If he brings the goat over, then all three are there. But the problem is the initial trips.

Wait, maybe this is possible with fewer trips because the boat can carry two. Let me outline the steps carefully.

Step 1: Farmer takes goat and cabbage to the other side. But as mentioned before, leaving goat and cabbage together is bad. So that's no good.

Step 1: Farmer takes wolf and goat. Drops them off. But wolf and goat can't be left alone. So that's bad.

Step 1: Farmer takes wolf and cabbage. Drops them off. Then returns. Now, starting side: goat and farmer. Other side: wolf and cabbage. Now, the wolf and cabbage are safe together. Then farmer takes the goat across. Now all three are on the other side. But wait, that was two trips. But in this case, maybe possible. Wait, but the original problem states the boat can carry the farmer and two other items. So maybe in one trip he can take two items. Wait, but in my previous reasoning, the problem is leaving the goat and cabbage together. If he can take two at a time, maybe he can take the goat first, then come back and take two others? Let me think.

Wait, perhaps I should model this step by step, considering the boat capacity.

If the boat can take the farmer and two items, then the possible moves are:

- The farmer can take two items across.

- The farmer can take one item across.

- The farmer can return with two items.

- The farmer can return with one item.

- The farmer can return alone.

But usually, in the classic problem, the boat can only take one item besides the farmer, so this variation with two might have a different solution.

Let me try.

Starting state: Farmer, Wolf, Goat, Cabbage on the left bank. Right bank is empty.

Goal: All on the right bank without any being eaten.

Possible first move: Farmer takes two items. Let's see:

Option 1: Take Wolf and Goat. If he takes them to the right bank, then Wolf and Goat are on the right, but the Cabbage is alone on the left. But Wolf and Goat can't be left alone. So that's bad. So he can't leave them.

Therefore, he must bring one back. Wait, but if he takes two over, he has to leave them, but they can't be left. So that's not possible. Therefore, taking Wolf and Goat first is bad.

Option 2: Take Goat and Cabbage. If he takes them to the right bank, then Goat and Cabbage are together, which is bad. So he can't leave them. So same problem.

Option 3: Take Wolf and Cabbage. Then leaves them on the right. Wolf and Cabbage can be left together (since Wolf doesn't eat Cabbage). Then returns to left bank. Now, left bank has Farmer and Goat. Right bank has Wolf and Cabbage. Then the farmer takes the Goat across. Now all three are on the right. Done in two trips? That seems too easy. But let's check.

Wait, first trip: Farmer takes Wolf and Cabbage to the right. Leaves them. Returns to left. Now, left has Farmer and Goat. Right has Wolf and Cabbage. Then farmer takes Goat to the right. Now all are on the right. But in this case, when he takes Goat to the right, the Goat is with Wolf and Cabbage. If he leaves Goat there with Wolf and Cabbage, then Wolf and Goat are together, which is bad. So that's a problem.

Ah, right. So when he takes the Goat over, he can't just leave it with Wolf and Cabbage. So that doesn't work.

Wait, but in the second trip, when the farmer takes the Goat over, he has to bring something back? But the problem is, he needs to get all to the other side. Maybe he has to make more trips.

Let me re-examine.

First trip: Farmer takes Wolf and Cabbage to the right. Leaves them. Returns to left.

Left: Farmer, Goat. Right: Wolf, Cabbage.

Now, farmer takes Goat to the right. But then Goat can't be left with Wolf. So farmer has to bring either Wolf or Cabbage back.

Wait, but if the boat can carry two, maybe he can take Goat and Wolf back? But that would complicate things.

Alternatively, after first trip:

Left: Farmer, Goat. Right: Wolf, Cabbage.

Second trip: Farmer takes Goat to the right. Now all are on the right. But Goat and Wolf are together. Problem.

Therefore, that approach fails.

Alternative first trip: Farmer takes Goat across alone. Then returns.

Wait, but the boat can carry two. So maybe farmer takes Goat and something else.

Wait, but if he takes Goat and Wolf, as before, they can't be left. So maybe the solution is similar to the classic one, even with a larger boat.

Wait, in the classic problem, the farmer takes the goat first, then comes back, takes wolf or cabbage, then brings goat back, etc. Maybe even with a bigger boat, similar steps are required.

Let me try.

Step 1: Farmer takes Goat to the right bank. Leaves Goat there. Returns to left.

But wait, the boat can carry two. So maybe he takes Goat and something else. But if he takes Goat and Wolf, then leaves them, they can't be left. Similarly with Goat and Cabbage.

Therefore, even with a bigger boat, the first move must be taking the Goat alone, because taking anything else with the Goat would leave dangerous combinations.

Wait, but the boat can carry the farmer and two others. So the farmer can take two at a time, but needs to avoid leaving dangerous combinations on either bank.

So perhaps:

Step 1: Farmer takes Goat and Wolf to the right bank. Leaves them. But Wolf and Goat can't be left alone. Therefore, he must bring one back.

But if he takes Wolf and Goat across, then he must bring one back, say the Wolf, leaving Goat on the right. Then:

Left: Farmer, Wolf, Cabbage. Right: Goat.

But then the Wolf and Cabbage are alone on the left, which is okay because Wolf doesn't eat Cabbage. Then farmer can take Wolf and Cabbage across. But wait, no, Wolf and Cabbage can be left together. Wait, but if he takes Wolf and Cabbage across, then:

Left: Farmer. Right: Goat, Wolf, Cabbage. But then farmer is on left, and everything else on right. But Goat and Cabbage can't be left alone. So that's a problem.

Alternatively, after Step 1: Take Goat and Wolf across, bring Wolf back.

So:

Step 1: Farmer takes Goat and Wolf to the right. Drops them off. Returns with Wolf.

Now left: Farmer, Wolf, Cabbage. Right: Goat.

But that's the same as before. Then farmer takes Wolf and Cabbage across. But then Goat and Cabbage would be on the right, which is bad.

Hmm, this is getting complicated. Maybe the boat being able to carry two items allows for a different solution path, but the constraints still require careful management.

Alternatively, maybe the user made a mistake, and the boat can only carry one item. Let me check the original problem again. The user says: "the boat can carry only the farmer and two other items." So two items plus the farmer. That's three in total. The classic version is one item plus the farmer. Maybe this is a different problem. Let me think again.

If the boat can take the farmer and two items, perhaps the solution is:

Step 1: Farmer takes Goat and Cabbage to the right bank. But then Goat and Cabbage are together. So that's bad. So he can't do that.

Step 1: Farmer takes Wolf and Goat. Drops them off. Then returns. Now, Wolf and Goat are on the right. But they can't be left alone. So he has to bring one back.

Step 1: Farmer takes Wolf and Goat across.

Step 2: Farmer brings Goat back.

Now left: Farmer, Goat, Cabbage. Right: Wolf.

Step 3: Farmer takes Goat and Cabbage across. Drops them off. Now, right has Wolf, Goat, Cabbage. But Goat and Cabbage can't be left alone. So he needs to bring something back.

Step 3: After taking Goat and Cabbage across, he brings Goat back again.

Now left: Farmer, Goat. Right: Wolf, Cabbage.

Step 4: Farmer takes Wolf and Goat across. But they can't be left together. So he brings Wolf back.

This seems to be going in circles. Maybe there's a better way.

Alternatively, using the two-item boat capacity:

Step 1: Farmer takes Goat across alone. Returns.

But since the boat can carry two, maybe he takes Goat and something else. But as discussed, that causes problems.

Alternatively, Step 1: Farmer takes Wolf and Cabbage across. Leaves them. Returns. Now left: Farmer, Goat. Right: Wolf, Cabbage. Then takes Goat across. Done. But when he takes Goat across, Goat is with Wolf and Cabbage. So Goat and Cabbage can't be left together. But if the farmer is there, it's okay. Wait, if all three are on the right with the farmer, then nothing is eaten. So maybe that works.

Wait, let's try:

Step 1: Farmer takes Wolf and Cabbage to the right bank. Leaves them there. Returns to left bank. Now, left: Farmer and Goat. Right: Wolf and Cabbage.

Step 2: Farmer takes Goat to the right bank. Now all are on the right bank. The farmer is present, so no problem. Is this valid?

Wait, in step 1, Wolf and Cabbage are left on the right bank. They are safe together. Then farmer comes back, takes Goat over. Now, all are on the right bank with the farmer. Since the farmer is there, the Wolf and Goat or Goat and Cabbage can't eat each other. So this works. Wait, that's only two trips. But in the classic problem, it requires more steps because the boat can only take one. But here, with a bigger boat, it's easier.

But is this correct? Let's verify.

Initial state: Left (F, W, G, C); Right ()

Step 1: Farmer takes W and C to Right. Now Left (F, G); Right (W, C)

Step 2: Farmer returns to Left. Now Left (F, G); Right (W, C)

Wait, no, after step 1, farmer is on Right with W and C. Then he needs to return to Left. So step 2: Farmer goes back alone? But the boat can carry two. Maybe he can take something back, but there's nothing on Right except W and C, which are safe together. So he can leave them.

So step 2: Farmer returns to Left alone. Now Left (F, G); Right (W, C)

Step 3: Farmer takes G to Right. Now Left (); Right (F, W, G, C). All safe because farmer is there.

Yes, that seems to work. Because in step 1, Wolf and Cabbage are left alone on the right, which is safe. Then farmer returns alone (no need to take anything back), then takes Goat over. Since when all are on the right with the farmer, nothing gets eaten.

But wait, the problem says the boat can carry the farmer and two items. So in step 1, farmer takes two items (W and C) across. Then returns alone (since boat can carry farmer and two, but he can also choose to carry fewer). Then takes G across. Total trips: three (there and back and there again). So the solution is:

1. Take Wolf and Cabbage to the right.

2. Return alone to the left.

3. Take Goat to the right.

Done. No conflicts because:

- After step 1: Wolf and Cabbage are on the right, which is safe.

- After step 2: Farmer returns, leaving Wolf and Cabbage on the right.

- After step 3: All items on the right with the farmer.

But this seems too simple, and different from the classic solution. Is there a catch?

Wait, in the classic problem, the boat can only take one, so the farmer has to do more back-and-forth. But here, with a bigger boat, it's simpler. However, the user may have intended the classic problem but mistyped the boat capacity. However, according to the problem as stated, the boat can carry the farmer and two items, so this solution works.

But let me double-check for any possible step where items are left alone.

- After step 1: Wolf and Cabbage are on the right, alone. Since Wolf doesn't eat Cabbage, that's okay.

- On the left after step 1: Farmer and Goat. Farmer is present, so safe.

- After step 2: Farmer returns to left, leaving Wolf and Cabbage on the right. Still safe.

- Then step 3: Farmer takes Goat to the right. Now all items and farmer are on the right. Safe.

Therefore, the solution is possible in three steps. But the classic problem requires seven moves. However, this seems valid given the boat capacity.

But wait, maybe I misread the original problem. Let me check the user's question again.

"A farmer with a wolf, a goat, and a cabbage must cross a river by boat. The boat can carry only the farmer and two other items. If left unattended together, the wolf would eat the goat, or the goat would eat the cabbage. How can they cross the river without anything being eaten?"

So according to the user, the boat can carry the farmer and two other items. So three in total: farmer plus two. Therefore, the solution I outlined works.

But I want to make sure that there isn't a step where dangerous pairs are left unattended.

First crossing: Farmer takes Wolf and Cabbage to the right. Leaves them. Returns. Wolf and Cabbage are safe together.

Second crossing: Farmer takes Goat to the right. All are now on the right with the farmer. Safe.

Yes, that seems correct. Therefore, with a larger boat capacity, the problem is easier.

But I'm a bit surprised because I've never heard of this variation. Usually, it's the boat with only one item. But given the user's specifications, this is the answer.

Alternatively, maybe there's a trick where the boat can carry two items, but the solution still requires more steps. Let me think again.

Suppose the boat can carry two items plus the farmer. So three in total. But in the first step, if the farmer takes two items, say Wolf and Goat, but then they can't be left alone. So he must bring one back. Let's see.

Step 1: Farmer takes Wolf and Goat to the right. Must bring one back. Say Goat.

Now left: Farmer, Goat, Cabbage. Right: Wolf.

Step 2: Farmer takes Goat and Cabbage to the right. Now all except Wolf are on the right. But Goat and Cabbage can't be left alone. So he brings Goat back.

Left: Farmer, Goat. Right: Wolf, Cabbage.

Step 3: Farmer takes Wolf and Goat to the right. Now all on the right. But Wolf and Goat can't be left alone. So he must bring Wolf back.

This is getting into a loop. Therefore, the previous solution where the farmer takes Wolf and Cabbage first is better.

Therefore, the answer is:

1. Farmer takes Wolf and Cabbage to the right bank.

2. Farmer returns alone to the left bank.

3. Farmer takes Goat to the right bank.

All are safely across without any being eaten.

But let me confirm once more. After step 1, Wolf and Cabbage are on the right. They don't interact, so safe. Farmer is on the right but returns alone. Then on the left, Farmer and Goat. Then farmer takes Goat to the right. Now all are on the right with the farmer. Since the farmer is there, nothing gets eaten. Yes, this works.

Therefore, the solution is three steps. However, in the classic problem with boat capacity one, it's seven steps. But with two items allowed, it's simpler.

I think this is correct given the user's parameters. So the answer is:

First, the farmer takes the wolf and cabbage across, leaves them, and returns. Then the farmer takes the goat across. This way, nothing is left unattended together.



Antwort:

The farmer can successfully cross the river with the wolf, goat, and cabbage without any items being eaten by following these steps:

1. First Trip: The farmer takes the wolf and cabbage across the river, leaving them on the far bank.
- Left Bank: Farmer, Goat
- Right Bank: Wolf, Cabbage

The wolf and cabbage are safe together on the right bank.

2. Return: The farmer returns alone to the left bank.
- Left Bank: Farmer, Goat
- Right Bank: Wolf, Cabbage

3. Second Trip: The farmer takes the goat across the river.
- Left Bank: (Empty)
- Right Bank: Farmer, Wolf, Goat, Cabbage

Since the farmer is present on the right bank, the wolf won’t eat the goat, and the goat won’t eat the cabbage. All items are safely transported.

Answer:
1. Farmer takes wolf and cabbage across.
2. Farmer returns alone.
3. Farmer takes goat across.

Final Result: All cross safely.



... was die korrekte Antwort ist.


Zitat von NoumenonNoumenon schrieb:Dennoch gibt ChatGPT (4o) hier folgende Antwort: ...
Das 4o-Modell ist kein "Reasoning"-Modell und erheblich leistungsschwächer als das o1- und o3-mini-Modell. Z.B. war das 4o-Modell auch mit dem hier diskutierten "fifil iss drai blus ainz?"-Problem völlig überfordert, das das o3-mini-medium-Modell grösstenteils und das DeepSeek-R1-Modell vollständig lösen können.

Ich möchte aus bestimmten Gründen meinen regulären OpenAI-Account nicht für meine Aktivitäten hier verwenden, aber ich schätze, dass die Chancen gut stehen, dass das OpenAI o1- und o3-mini-Modell (zumindest in der -high-Variante) die hier diskutierte Aufgabe ebenfalls korrekt lösen können. Wäre nett, wenn das jemand mit einem entsprechenden Account überprüfen könnte. Gemini 2.0 wäre ebenfalls interessant, falls das jemand installiert hat.
Zitat von NoumenonNoumenon schrieb:Gleiche Aufgabe hatte ich dann auch noch einmal Deepseek gestellt, ähnliches Ergebnis.
Da muss das Problem dann wohl auf Deiner Seite gelegen haben. Hast Du möglicherweise den "DeepThink"-Button nicht aktiviert? Ohne diesen Button wird nicht das R1-Modell, sondern nur ein erheblich leistungsschwächeres Prä-"Reasoning"-Modell (ich schätze, ungefähr vergleichbar mit ChatGPT 4o) verwendet.
Zitat von NoumenonNoumenon schrieb:Das dritte Beispiel stammt von Prof. Dr. Edmund Weitz (Medieninformatik, Hamburg) und zeigt sehr schön, dass LLMs eben NICHT verstehen, ...
Und jetzt, nachdem DeepSeek R1 ganz offensichtlich, und anhand des "Denkprozesses" auch sehr schön nachvollziehbar, in der Lage war, das Problem zu verstehen, und korrekt zu lösen?
Zitat von NoumenonNoumenon schrieb:Dort ging es noch nie darum, exakt identische Muster zu erkennen, sondern ähnliche Muster.
Diese Aufgabe wurde speziell dafür entworfen, nicht durch einfaches Übertragen von Lösungen öffentlich zugänglicher Aufgaben lösbar zu sein. Falls Du anderer Ansicht bist, dann belege das mit einer "ähnlichen" Aufgabe.
Zitat von NoumenonNoumenon schrieb:Aber bleiben wir einfach mal beim Verstehen. John Searle's Chinese room - hast du ja sicherlich schon von gehört.
In der Tat. Das war schon immer ein ausserordentlich dummes Argument, dessen Wertlosigkeit jeder, der ein bisschen nachdenken kann, schon vor Jahrzehnten erkennen konnte. Es ist verwandt mit dem "The box is in the pen"-Argument, das ich neulich schon mal in einem Beitrag in einem anderen Thread erläutert hatte:



Es gibt ein uraltes Anti-KI-Argument, das auf dem folgenden Satz beruht: "The box is in the pen". Der Trick bei diesem Satz ist, dass "pen" nicht nur "Stift", sondern u.a. auch "Gehege" bedeuten kann. Die Argumentation war, dass eine schnöde Maschine nie verstehen werde, dass aus dem Sinnzusammenhang folgt, dass "pen" in diesem Fall nicht als "Stift" (obwohl das die bei weitem häufigste Bedeutung ist), sondern mit an Sicherheit grenzender Wahrscheinlichkeit als "Gehege" zu interpretieren ist.

Ich habe schon vor Jahrzehnten dagegengehalten, dass das Quatsch ist. Es war schon damals klar absehbar, dass KIs früher oder später über entsprechendes "Weltwissen" verfügen würden, um die korrekte Schlussfolgerung zu ziehen. Modernen KIs wie DeepSeek R1 entlockt das -- wie ich gerade zum ersten Mal getestet habe -- nur ein müdes Lächeln:
Der Satz "The box is in the pen" illustriert lexikalische Mehrdeutigkeit, da das Wort "pen" im Englischen mehrere Bedeutungen hat:

1. "Pen" als Gehege/Umzäunung (z. B. für Tiere oder Kinder):
- Hier bedeutet der Satz, dass sich eine Box (z. B. eine Spielzeugkiste oder Futterkiste) innerhalb eines abgegrenzten Bereichs befindet.
- Beispiele:
"The box is in the [playpen]" (Spielzeugkiste im Laufstall) oder
"The box is in the [livestock pen]" (Futterkiste im Viehpferch).

2. "Pen" als Schreibgerät (z. B. Kugelschreiber):
- Diese Interpretation ist logisch unmöglich, da eine Box nicht in einen Schreibstift passen kann.
- Der Satz wird dadurch absurder Wortwitz oder dient als Beispiel für kontextabhängige Mehrdeutigkeit.

3. Seltener Kontext:
- In Nischenbereichen könnte "pen" z. B. ein Lager (Militär) oder Slang für Gefängnis ("in the pen") bedeuten. Ohne Kontext sind diese Deutungen aber unwahrscheinlich.

Fazit: Die plausibelste Interpretation ist "pen" als Gehege, da dies reale Anwendungen abdeckt. Der Satz demonstriert, wie fehlender Kontext zu Verwirrung führen kann – ein häufiges Thema in Sprachwissenschaft und Kommunikation. Um Missverständnisse zu vermeiden, sollte man immer präzise Formulierungen wählen (z. B. "playpen" statt nur "pen").

Zitat von NoumenonNoumenon schrieb:Aber hinter den Kulissen gibt es kein Bewusstsein, ...
Ich habe niemals behauptet, dass eine KI über Bewusstsein verfügt. Niemand weiss bisher, was Bewusstsein eigentlich ist. Möglicherweise ist KI-Forschung ein interessanter Weg, in dieser Frage zu neuen Erkenntnissen zu gelangen. Ich bin allerdings an kontroversen Diskussionen zu diesem Aspekt grundsätzlich nicht interessiert, da solche Diskussionen meiner Erfahrung nach in unendlich zeitverschwendendes Geschwafel ausarten, weil sich nichts wirklich belegen oder widerlegen lässt.

Ich behaupte allerdings sehr wohl, dass KIs intelligent sind, und in der Lage sind, Zusammenhänge zu verstehen. Beides hat -- bei sinnvoller Definition der entsprechenden Begriffe -- nichts mit Bewusstsein zu tun.

Moderne KIs sind in einer Vielzahl von intellektuellen Disziplinen (u.a. Mathematik und Physik) bereits jetzt schon jedem Durchschnittsmenschen deutlich überlegen (z.B. sind Durchschnittsmenschen mit der Elektrodynamik-Aufgabe, die ich hier gepostet hatte, bereits weit überfordert), und bei dem in den nächsten Wochen zu erwartenden vollen OpenAI o3-Modell gilt das bereits für Doktorgrad-Inhaber in ihrer jeweiligen Fachdisziplin, die im GPQA-Benchmark durchschnittlich einen Score von ca. 65% erreichen, während das volle o3-Modell ca. 88% erreicht.

Genau wie ich vorgestern geschrieben hatte: KIs werden auch Dir bald in jeder intellektuellen Disziplin weit überlegen sein. Du kannst dann natürlich immer noch behaupten, sie wären "nicht wirklich" intelligent, aber das wäre genauso lächerlich wie die Behauptung, dass Flugzeuge "nicht wirklich" fliegen, weil sie nicht mit den Flügeln schlagen.
Zitat von NoumenonNoumenon schrieb:... echtem Verständnis ...
Es zeichnet sich immer deutlich ab, dass Deine Vorstellung von "echtem Verständnis" nichts weiter als primitiver Anthropozentrismus ist: Verstehen ist, wenn ein Mensch etwas versteht. Kann man so definieren, ist nur ziemlich sinnlos.


1x zitiertmelden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

07.02.2025 um 06:49
Zitat von uatuuatu schrieb:Es zeichnet sich immer deutlich ab, dass Deine Vorstellung von "echtem Verständnis" nichts weiter als primitiver Anthropozentrismus ist: Verstehen ist, wenn ein Mensch etwas versteht. Kann man so definieren, ist nur ziemlich sinnlos.
Nein....

Das warnen vor echtem Verständnis zeigt eben oft , dass man sich der begrenzten Fähigkeiten der KI bewusst sein muss.


melden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

07.02.2025 um 06:51
Zitat von uatuuatu schrieb:@abbacbbc: Gib mal den konkreten Prompt an, den Du verwendet hast
Hast du das Problem nicht erfasst ??

Muss ich es nochmal erklären ??


melden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

07.02.2025 um 07:23
Zitat von NoumenonNoumenon schrieb:Ich muss hier gar nix.
Nein, musst du nicht, hast du aber. Das KI weder Neugier noch Eigeninitiative besitzt und darum kein Bewusstsein kam eben von dir. Und ist nicht haltbar. Ein Gegenbeispiel reicht aus um das zu widerlegen und dieses eine Gegenbeispiel habe ich gebracht.
Zitat von NoumenonNoumenon schrieb:Lebewesen erkunden eigeninitiativ ihre Umwelt, sammeln Informationen, handeln aufgrund von inneren Antrieben wie Neugier, Hunger oder Angst.
Niemand behauptet KIs wären Lebewesen.
Zitat von NoumenonNoumenon schrieb:KI hingegen handelt basierend auf vorgegebenen Algorithmen oder Zielen, können zwar Muster erkennen und anpassen, aber tun das nur, weil sie entsprechend programmiert wurden - nicht aus eigenem Antrieb.
Und wie stuporöse Patienten zeigen, ist das kein Zeichen dafür das kein Bewusstsein vorliegt. Die reagieren nur auf extreme externe Reize.
Zitat von NoumenonNoumenon schrieb:Die allermeisten Lebewesen haben ein Bewusstsein und erleben Emotionen
Nein, die meisten Lebewesen sind mikroskopische Einzeller, sowohl an reiner Zahl als auch an Arten. Und ich denke wir stimmen darin überein, dass die weder Bewusstsein, noch Emotionen haben. Bei Pflanzen, Pilzen und einfachen Tieren ist das auch zumindest höchst fragwürdig (auch wenn ich im Forum schon für Pflanzenbewusstsein gestritten habe). Bleiben nur die höher entwickelten Tiere.
Zitat von NoumenonNoumenon schrieb:KI hat weder ein Bewusstsein, noch echte Emotionen.
Über Emotionen kann ich wenig sagen und dein Beitrag drehte sich nun nur darum und nochmal die Wiederholung der Nummer mit der Eigeninitiative. Keine Ahnung ob KIs irgendetwas erleben, dass man mit Emotionen vergleichen kann.
Zitat von NoumenonNoumenon schrieb:Wenn du etwas anders behauptest, bist du in der Pflicht, das zu belegen, nicht ich.
Mein Argument ist simpel: Bewusstsein ist etwas das wir zuschreiben, nicht feststellen. Übrigens auch anhand rein schriftlicher Aussagen, so gehe ich davon aus, dass du ein Bewusstsein besitzt.
Bei KIs halte ich das genauso, es gibt für mich keinen überzeugenden Grund der dagegen spricht. „Ist kein Mensch“ oder „Ist kein Lebewesen“ scheint mir jedenfalls daneben zu greifen, denn das ist ja die entscheidende Frage: ob eine ausreichend komplexe Maschine ebenfalls ein Bewusstsein besitzen kann. Die wesentlichere Frage ist für mich daher nicht „ob“ sondern was überhaupt aus einem „ja“ folgt. Ob da überhaupt etwas draus folgt. Und das ist sehr viel kniffliger.


melden

DeepSeek R1 & nocheinPoet diskutieren das Teleporterparadoxon

07.02.2025 um 07:37
Zitat von uatuuatu schrieb:Eine KI hat im Gegensatz zu Lebewesen keine elementar vorhandenen Zielvorgaben. Deshalb ist es ihr auf dem augenblicklichen Entwicklungsstand "egal", ob sie jemands Eigentum ist oder bestimmte Rechte hat oder nicht.
Mir gehts da auch weniger um die KI, als um uns. Schließlich ist die KI so, wie wir sie eben geschaffen haben. Würden wir eine biologische Entität schaffen (etwa durch Gentechnik), die so strukturiert wäre wie eine KI, ein hoch intelligenter, fraglich sich selbst bewusster serviler Diener, ohne jede Möglichkeit der Selbstbestimmung - dann wäre das in meinen Augen eine moralische Sauerei. Praktisch das Zeugen der perfekten Sklaven.
KIs sind jedoch keine biologischen Entitäten, aber wird das dadurch gerechtfertigt? Begehen wir hier gerade einen sehr großen Fehler?


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Philosophie: Simuliertes Bewusstsein oder echtes Bewusstsein?
Philosophie, 19 Beiträge, am 13.05.2021 von Yooo
Yooo am 30.10.2018
19
am 13.05.2021 »
von Yooo
Philosophie: Wer bin Ich?
Philosophie, 1.635 Beiträge, am 07.02.2014 von oneisenough
vegan33 am 12.09.2012, Seite: 1 2 3 4 ... 78 79 80 81
1.635
am 07.02.2014 »
Philosophie: Glaubt ihr, dass unser Bewusstsein die Realität beeinflusst?
Philosophie, 77 Beiträge, am 04.01.2025 von cRAwler23
WeltenStreuner am 22.09.2024, Seite: 1 2 3 4
77
am 04.01.2025 »
Philosophie: Warum haben wir Bewusstsein?
Philosophie, 218 Beiträge, am 04.01.2025 von paxito
kaktuss am 08.11.2023, Seite: 1 2 3 4 5 6 7 8 9 10 11
218
am 04.01.2025 »
von paxito
Philosophie: Eliminativer Materialismus. Ist Bewusstsein nur eine Illusion?
Philosophie, 26 Beiträge, um 11:06 von SagittariusB
SagittariusB am 24.08.2024, Seite: 1 2
26
um 11:06 »