Forum Aktuell

Aktuelles und Neuigkeiten

Fotogalerie

Redaktion

 

Geschrieben von Nynaeve2019 am 30.08.2019, 10:50 Uhr

Was ist eure Meinung/Erfahrung - werden die Deutschen immer aggressiver?

Ich habe persönlich den Eindruck, das Aggressivität und auch eine gewisse Gewalt in den Straßenverkehr sich verstärkt hat. Die Räume werden durch immer mehr Verkehr enger gemacht. Alles, wo zu viele Menschen sich Räume teilen müssen (nicht wollen) Und es scheint auch im Allgemeinen mehr ICH-Bezogenheit zu geben, weniger das Anerkennen, das meine Mitmenschen auch Bedürfnisse haben. Das hat sicher auch mit den gesellschaftlichen Wandel zu tun, der immer stärker in die Individualisierung geht. Schwere Gewaltdelikte werden aber weniger.
Für das Ehrenamt jedoch fehlt immer mehr die Zeit.
Schlimmer finde ich es nicht, nur anders als "früher".
Ich glaube nicht, das die Leute aggressiver werden, sie werden nur verlorener in dieser Welt. Ich hoffe da auf einen Wandel, weg vom Konsum, von "nach mir die Sinnflut" hin zu mehr Bedachtheit

 
Unten die bisherigen Antworten. Sie befinden sich in dem Beitrag mit dem grünen Pfeil.
Die letzten 10 Beiträge

Anzeige

Erfurt

Mobile Ansicht

Impressum Über uns Neutralitätsversprechen Mediadaten Nutzungsbedingungen Datenschutz Forenarchiv

© Copyright 1998-2024 by USMedia.   Alle Rechte vorbehalten.