martes, 28 de enero de 2014

El nazismo

El Nazismo


     El nazismo es la contracción de la palabra alemana Nationalsozialismus, que significa nacionalsocialismo, y hace referencia a todo lo relacionado con la ideología y el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del Partido Nacionalsocialista Alemán de los Trabajadores de Adolf Hitler. Alemania abarcaba mas tierras de las que posee ahora.




No hay comentarios:

Publicar un comentario