Hollywood 'ganó' la Segunda Guerra Mundial





¿Quién derrotó a Hitler? Muchos estiman que la respuesta es obvia porque lo han visto en las películas de Hollywood. Pero ¿no resulta injusto que la opinión pública se base en la cultura popular promovida por EE.UU. en lugar de en hechos históricos?

Comentarios

Entradas populares de este blog

Tecnología EEUU se queda atras con relación a sus competidores

Raúl Torres: Principios en versos de amor

100 palabras relacionadas con agricultura