Weltgeschichte

Skip Navigation LinksWeltgeschichte > Ideologien > Kolonialismus > Kolonie

Responsive Ad

Kolonie

Als Kolonie (von lateinisch colere, ‚bebauen, Land bestellen‘) bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht.

Begrifflich hängt Kolonie eng mit Kolonisation zusammen. Bei der Kolonisation handelt es sich im Kern um eine Landnahme. Die Kolonie ist daher in einem weiteren Sinne ein Personenverband in einem Gebiet außerhalb des angestammten Siedlungsgebietes. Im Bereich der Politik wird damit außerdem eine politische Abhängigkeit zum „Mutterland“ verbunden.

Die Bildung von Kolonien war und ist ein wesentliches Instrument der Machtausdehnung imperialistischer Staaten.


Quellen

Bildernachweis

Siehe auch

Weblinks