Airl
Diskussionsleiter
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

dabei seit 2024
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Wollen Ärzte den Patienten wirklich helfen?
07.03.2025 um 10:02Auf diese Frage bin ich gekommen, da ich momentan an einem entzündlichen Dickdarm leide. Eine Freundin von mir sagte, ich sollte auf Zusatzstoffe im Essen sogut es geht verzichten,da dieses nur noch solche Entzündungen hervorgerufen wird. Mein behandelter Arzt bestreitet das,da es andere Ursachen für die Erkrankung gibt. Meine beste Freundin meinte daraufhin,dass es klar wäre,dass der Arzt sowas behauptet, schließlich wollen die,das wir krank bleiben und die damit an uns Geld verdienen.
Wenn ich in einer Apotheke gehe,sagen die auch immer "bleiben sie gesund", doch an gesunde Menschen die keine Medikamente brauchen, verdient die Apotheke kein Geld. Daher müssten die doch erhoffen,dass man (krank) wieder kommt.
Was meint ihr? Hat meine beste Freundin wirklich Recht,dass die Ärzte uns eigentlich nicht wirklich helfen möchten,da sie an die Pharmaindustrie mit uns daran verdienen?
Wollen die Ärzte uns wirklich helfen?
Wenn ich in einer Apotheke gehe,sagen die auch immer "bleiben sie gesund", doch an gesunde Menschen die keine Medikamente brauchen, verdient die Apotheke kein Geld. Daher müssten die doch erhoffen,dass man (krank) wieder kommt.
Was meint ihr? Hat meine beste Freundin wirklich Recht,dass die Ärzte uns eigentlich nicht wirklich helfen möchten,da sie an die Pharmaindustrie mit uns daran verdienen?
Wollen die Ärzte uns wirklich helfen?