Leonora
Diskussionsleiter
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
dabei seit 2012
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Ist die deutsche Gesellschaft aufgeklärt?
08.02.2012 um 17:21Immanuel Kant bezeichnete im 18. Jahrhundert Deutschland als ein Land, welches sich in der Aufklärung befindet... Findet ihr, dass Deutschland aufgeklärt ist? Findet ihr da ist ein Rückschritt durch die Konsumgesellschaft zu sehen?