Impérialisme

« Impérialisme » expliqué aux enfants par Vikidia, l’encyclopédie junior
Aller à : navigation, rechercher


L'impérialisme est la politique d'un État qui vise à placer d'autres États sous son contrôle politique et économique.

Au XIX e siècle, la France et le Royaume-Uni, en se constituant un empire colonial et en contrôlant la politique de pays théoriquement indépendants (Turquie, Égypte, Maroc...), ont mené une politique impérialiste.

On peut ainsi parler de l'impérialisme japonais qui, depuis la fin du XIXe siècle jusqu'au milieu du XXe siècle, a étendu la domination japonaise en Corée, Chine, Indochine française, et visait l'empire britannique des Indes.

Il en est de même pour les États-Unis vis à vis de l'Amérique du Sud depuis la fin du XIXe siècle jusque dans les années 1980. L'Union soviétique a également eu, entre 1945 et 1990, une politique impérialiste vis à vis de ses voisins proches de l'Europe de l'est.


Portail de la politique —  Tous les articles sur la politique.