Definiciones
sustantivo
masculino
- Estrategia política que consiste en buscar la hegemonía territorial, económica o cultural de un país, región o grupo dominando a otros por la fuerza o por el abuso de ventajas e influencias.
▸ relacionados: antiimperialismo - Doctrina que apoya un sistema de gobierno imperial, esto es, con la voluntad de extender el dominio territorial regido por un emperador.