Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!
Startseite »

Deutsche Kolonien in der Südsee

Titelbeitrag Weitere Themen

Deutsche Kolonien in der Südsee
Als Kolonialmacht war das deutsche Kaiserreich ein Spätentwickler, erst gegen Ende des 19. Jahrhunderts ging Berlin daran, einen „Platz an der Sonne“ zu erobern. Dies geschah in Afrika, aber auch – was häufig vergessen wird – in Ozeanien (Bild: Hissen der Flagge in Apia, 1. März 1900, Bildnachweis: BPK). Kaufleute, Wissenschaftler, Missionare, Maler: Viele machten sich auf in die Tropen, um dort ihr Glück zu finden oder Exotik und die unverfälschte Ursprünglichkeit zu suchen.

Anzeige
DAMALS | Aktuelles Heft
Bildband DAMALS Galerie
Der Podcast zur Geschichte

Geschichten von Alexander dem Großen bis ins 21. Jahrhundert. 2x im Monat reden zwei Historiker über ein Thema aus der Geschichte. In Kooperation mit DAMALS - Das Magazin für Geschichte.
Hören Sie hier die aktuelle Episode:
 
Anzeige
Aktueller Buchtipp
Wissenschaftslexikon

Kle|ma|tis  〈f.; –, –〉 = Waldrebe; oV Clematis … mehr

♦ Hy|dro|tho|rax  〈m.; –; unz.; Med.〉 = Brustwassersucht [<grch. hydor … mehr

Ek|to|to|xin  〈n. 11; meist Pl.; Med.〉 wärmeempfindliches, eiweißartiges Gift, das von lebenden Bakterien in den menschlichen bzw. tierischen Organismus abgesondert wird, z. B. das Tetanustoxin; →a. Endotoxin … mehr

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige