O Estados Unidos da América é um país que se tornou independente em 1776, quando lutou em uma guerra contra a sua metrópole, a Inglaterra. Os EUA é conhecido por ter sido fundado segundo os princípios iluministas, tendo sido o primeiro país do mundo a contar com uma constituição democrática e que pregava direitos e liberdades individuais.
A partir do século 18, os EUA adotaram uma política que visava manter o continente americano longe do controle de potências européias, e desde então a América foi definida como a sua área de influência.
Entre 1861 e 1865 os Estados Unidos foi sacudido por uma terrível guerra civil, que tinha por objetivo não só acabar com a escravidão, mas definir o futuro da política norte-americana. Os industriais do norte venceram os grandes agricultores do sul, e desde então o país se tornou uma grande potência econômica capitalista.
No século 20, graças a duas Guerras Mundiais, que destruiram as potências européias, os EUA teve o caminho livre para se tornar a grande força econômica e militar do mundo, título que vem mantendo nos últimos 70 anos.