Resposta :
Resposta: Imperialismo norte-americano é uma referência ao comportamento autoritário de influência militar, cultural, política, geográfica e econômica dos Estados Unidos sobre os outros países.
É por meio dessa prática que sucessivos governos dos EUA mantêm o controle econômico de diversas nações.
O conceito refere-se a império americano, considerando o comportamento político dos EUA a partir da segunda metade de 1800.
Explicação: