Am 20. Januar 2017 wurde Donald Trump als Präsident der Vereinigten Staaten vereidigt. Grund genug für ein paar Reflexionen über unser Verhältnis zum „Westen“.
Den Westen gibts nicht mehr
Als die Amerikaner am D-Day in der Normandie an Land gingen, um die Welt von Nazideutschland zu befreien, entstand: „Der Westen“. Auch im Nachkriegsdeutschland wurde dieser Begriff prägend.