Deutsche Kolonien in der Südsee - wissenschaft.de
Anzeige
Anzeige

Titelbeitrag Weitere Themen

Deutsche Kolonien in der Südsee

Als Kolonialmacht war das deutsche Kaiserreich ein Spätentwickler, erst gegen Ende des 19. Jahrhunderts ging Berlin daran, einen „Platz an der Sonne“ zu erobern. Dies geschah in Afrika, aber auch – was häufig vergessen wird – in Ozeanien (Bild: Hissen der Flagge in Apia, 1. März 1900, Bildnachweis: BPK). Kaufleute, Wissenschaftler, Missionare, Maler: Viele machten sich auf in die Tropen, um dort ihr Glück zu finden oder Exotik und die unverfälschte Ursprünglichkeit zu suchen.

Anzeige

DAMALS | Aktuelles Heft

Anzeige

Aktueller Buchtipp

Wissenschaftslexikon

Spin|nen|tier  〈n. 11; Zool.〉 Angehöriges einer Klasse der Gliederfüßer mit vier Beinpaaren, einem Kopf–Brust–Stück u. einem Hinterleibsabschnitt: Arachnidea; Sy Arachnide ... mehr

Kie|bitz  〈m. 1; Zool.〉 mittelgroßer, schwarzweißer Watvogel aus der Verwandtschaft der Regenpfeifer mit aufrichtbarem Federschopf am Hinterkopf: Vanellus vanellus [<mhd. gibiz, giwiz, ... mehr

Hu|mor  〈m.; –s; unz.〉 1 Fähigkeit, auch die Schattenseiten des Lebens mit heiterer Gelassenheit zu betrachten 2 überlegene Heiterkeit, gute Laune ... mehr

» im Lexikon stöbern
Anzeige
Anzeige