Accueil | Mot-clef

Occident

L’Occident désigne généralement l’ensemble des pays développés qui partagent des valeurs culturelles, politiques et économiques issues de la civilisation gréco-romaine, du christianisme et des Lumières. Cette catégorie inclut principalement l’Europe de l’Ouest, l’Amérique du Nord, et, selon certains points de vue, des nations comme l’Australie et la Nouvelle-Zélande. Le terme « Occident » renvoie aussi à une vision géopolitique et culturelle marquée par la démocratie libérale, le capitalisme, et l’individualisme. Il peut aussi prendre le sens des pays engagés dans le contrôle du monde sous la direction des États-Unis d’Amérique.
Des voix s’élèvent de plus en plus, en particulier à droite, pour réaffirmer une identité européenne distincte de l’Occident.

Termes connexes : États-Unis d’Amérique, OTAN, Atlantisme, Israël, Progressisme, Libéralisme

Aucun résultat

La page demandée est introuvable. Essayez d'affiner votre recherche ou utilisez le panneau de navigation ci-dessus pour localiser l'article.