Deutsche Kolonien in der Südsee - wissenschaft.de
Anzeige
Anzeige

Titelbeitrag Weitere Themen

Deutsche Kolonien in der Südsee

Als Kolonialmacht war das deutsche Kaiserreich ein Spätentwickler, erst gegen Ende des 19. Jahrhunderts ging Berlin daran, einen „Platz an der Sonne“ zu erobern. Dies geschah in Afrika, aber auch – was häufig vergessen wird – in Ozeanien (Bild: Hissen der Flagge in Apia, 1. März 1900, Bildnachweis: BPK). Kaufleute, Wissenschaftler, Missionare, Maler: Viele machten sich auf in die Tropen, um dort ihr Glück zu finden oder Exotik und die unverfälschte Ursprünglichkeit zu suchen.

Anzeige

DAMALS | Aktuelles Heft

Aktueller Buchtipp

Wissenschaftslexikon

Schlag|stock  〈m. 1u〉 1 von der Polizei verwendeter kurzer Knüppel aus Hartgummi 2 〈Mus.〉 Stock für ein Schlaginstrument ... mehr

Ra|dio|lu|mi|nes|zenz  〈f. 20〉 Leuchterscheinung einer Substanz nach Einwirkung von ionisierender Strahlung

Lac|ta|se  〈f. 19; Biochem.〉 Enzym, das Lactose in Galactose u. Glucose spaltet; oV Laktase ... mehr

» im Lexikon stöbern
Anzeige
Anzeige