Die deutsche Kolonialzeit – Was wir heute über sie wissen

Planet Wissen 08.05.2023 58:15 Min. UT Verfügbar bis 23.06.2027 WDR

Am Ende des 19. Jahrhunderts gehörte das Deutsche Reich zu den Kolonialmächten Europas. Mit mörderischer Brutalität unterdrückten deutsche Kolonialherren die Bewohner der besetzten Länder. Ein düsteres Geschichtskapitel, über das bis heute noch wenig bekannt ist.