COLONIALISMO
Término que viene de su raíz colonia y ésta del latín coloniam. Es la doctrina que tiende a legitimar la dominación política y económica de un territorio o de una nación por el gobierno de un estado extranjero. Suele llamarse así al proceso iniciado en el siglo XV con la conquista, asentamiento y explotación, por parte de Europa, de territorios en América, Oriente y África.
España, Portugal, Inglaterra, Francia y los Países Bajos comenzaron las actividades coloniales. Desde 1880 y hasta principios del siglo XX, la búsqueda de nuevos mercados y materias primas provocó el resurgimiento del colonialismo con la repartición de África entre las grandes potencias europeas, sobre todo Inglaterra y Francia.
No hay comentarios:
Publicar un comentario