Deutsche Kolonien in der Südsee - wissenschaft.de
Anzeige
Anzeige

Titelbeitrag Weitere Themen

Deutsche Kolonien in der Südsee

Als Kolonialmacht war das deutsche Kaiserreich ein Spätentwickler, erst gegen Ende des 19. Jahrhunderts ging Berlin daran, einen „Platz an der Sonne“ zu erobern. Dies geschah in Afrika, aber auch – was häufig vergessen wird – in Ozeanien (Bild: Hissen der Flagge in Apia, 1. März 1900, Bildnachweis: BPK). Kaufleute, Wissenschaftler, Missionare, Maler: Viele machten sich auf in die Tropen, um dort ihr Glück zu finden oder Exotik und die unverfälschte Ursprünglichkeit zu suchen.

Anzeige

DAMALS | Aktuelles Heft

Anzeige

Aktueller Buchtipp

Wissenschaftslexikon

Jak|ta|ti|on  〈f. 20; Med.〉 unruhiges Sichhinundherwerfen von Kranken [<lat. iactatio ... mehr

Lenk|ge|trie|be  〈n. 13; Kfz〉 Getriebe, mit dem die Bewegungen eines Lenkrades auf die Räder übertragen werden

lus|tig  〈Adj.〉 1 fröhlich, vergnügt, ausgelassen, lachend 2 unterhaltend, heiter (Fest, Geschichte) ... mehr

» im Lexikon stöbern
Anzeige
Anzeige