La TV y el Cine nos venden violencia gratuita a favor de las mujeres...
En la TV y en el Cine siempre nos han vendido películas de mujeres pegando a los hombres y vendiendo la imagen como algo normal y natural algo que el hombre es algo que se lo merece.... Si cambiáramos los papeles y el cine y en la TV saliese lo mismo pero el hombre pegando a mujeres que ocurriría? ver el enlace y luego opinar.
No hay comentarios:
Publicar un comentario