Trending
Was ist im 20 Jahrhundert in Deutschland passiert?
Was ist im 20 Jahrhundert in Deutschland passiert? Jahrhundert umfasst den Ersten Weltkrieg mit dem Ende von Monarchie und Kaiserreich, die Weimarer Republik und die Deutsche Inflation 1914 bis 1923, den Nationalsozialismus, den Zweiten Weltkrieg mit dem Großdeutschen Reich, dem Holocaust und dem Verlust der Ostgebiete des Deutschen Reiches, die Read more…