Definiciones por abecedario.
Definición de
Imperialismo
Palabra: Imperialismo
Significado de Imperialismo:
Definición: El imperialismo se puede entender como el dominio que ejercen las naciones más poderosas sobre otras más débiles.
Esta expansión fue consecuencia de la búsqueda fuera de Europa de mercados y materias primas para la revolución industrial y se dio hasta el comienzo de la Primera Guerra Mundial, en 1914 y permanecieron sus vestigios hasta la descolonización, en los años 60.
En este sentido, una famosa cita del líder político inglés así Winston Churchill, acerca de los vencedores en el conflicto armado: "La historia la escriben los vencedores"; no obstante, surgirían diversas corrientes de opinión y movimientos sociales de distinto signo político o ideológico que mantendrían posiciones críticas o abiertamente contrarias a la visión predominante.
A finales del siglo pasado y comienzos de este (XXI) se imponen las posiciones Norteamericanas; la preponderancia económica de los EEUU, conlleva además un predominio cultural, encabezado por industrias del entretenimiento como la cinematográfica y la musical.
Este predominio económico-cultural, unida a la publicitaria y de consumo, se ha valorado por algunos sectores ideológicos como un tipo de colonialismo cultural, mientras que en el campo político, se ha calificado como imperialista la política exterior de Estados Unidos, y su intervencionismo en diversos conflictos, siempre desde voces ideológicamente críticas con la línea política estadounidense, siendo esta una acepción moderna estrictamente ideológica de un término cuyo significado más clásico se ciñe a formas de dominio en su sentido más estricto.