Androcentrismo

Visión del mundo que posiciona al hombre como centro de todas las cosas. Esta concepción de la realidad parte de la idea de que la mirada masculina es la única universal y posible, por lo que se generaliza para toda la humanidad. El androcentrismo conlleva la invisibilidad de las mujeres en la sociedad. La negación de una mirada femenina y la ignorancia y ocultación de las aportaciones realizadas por las mujeres.