Unter Herrenmenschen — Der deutsche Kolonialismus in Namibia

Unter Herrenmenschen — Der deutsche Kolonialismus in Namibia

Beschreibung

Die Deutschen kolonisierten das Land Namibia im südlichen Afrika während eines kurzen Zeitraums von 1840 bis zum Ende des Ersten Weltkriegs. Die Geschichte des so genannten Deutsch-Südwestafrikas (1884-1915) ist abscheulich; ein versteckter und verschwiegener Bericht über Plünderung und Völkermord.