Als die Amerikaner am D-Day in der Normandie an Land gingen, um die Welt von Nazideutschland zu befreien, entstand: „Der Westen“. Auch im Nachkriegsdeutschland wurde dieser Begriff prägend.
Als die Amerikaner am D-Day in der Normandie an Land gingen, um die Welt von Nazideutschland zu befreien, entstand: „Der Westen“. Auch im Nachkriegsdeutschland wurde dieser Begriff prägend.