Weltgeschichte > Ehemalige Staaten & Reiche > US-amerikanische Kolonien
Responsive Ad
Das Kolonialreich der USA
Kolonien und Protektorate der Vereinigten Staaten
Die Vereinigten Staaten, die selbst aus Kolonien hervorgegangen waren, versuchten sich im 19. Jahrhundert als Weltmacht zu etablieren und waren damit zu einer ernstzunehmenden Konkurrenz der europäischen imperialistischen Mächte wie Großbritannien oder Frankreich geworden. Auf Grund der Monroe-Doktrin engagierte man sich zunächst in der Karibik und weitete dann sein Interessensgebiet im Zuge der Annexion von Hawaii auf Asien und den Pazifik aus, da auch für die USA der Handel mit China an Bedeutung gewann und man diesen riesigen Markt nicht Japan und Europa allein überlassen wollte.
Erste koloniale Erwerbungen erfolgten im Spanisch-Amerikanischen Krieg, die letzte Expansion der USA erfolgte nach dem Ende des Zweiten Weltkriegs, als es gelang, zahlreiche pazifische Inseln unter ihre Herrschaft zu bringen. Diese Gebiete gelten heute, soweit sie nicht in die Unabhängigkeit entlassen wurden, nicht als Kolonien, sondern als Außengebiete der Vereinigten Staaten.