Hollywood 'ganó' la Segunda Guerra Mundial





¿Quién derrotó a Hitler? Muchos estiman que la respuesta es obvia porque lo han visto en las películas de Hollywood. Pero ¿no resulta injusto que la opinión pública se base en la cultura popular promovida por EE.UU. en lugar de en hechos históricos?

Comentarios

Entradas populares de este blog

23 Fotos históricas muy raras que te dejarán sin palabras

Repercuciones de la ocupación USA de 1916 a República Dominicana

LOS HORRORES BOMBA ATÓMICA JAPÓN 1945