La AntropologÍa

Durante siglos, pueblos europeos estuvieron profundamente convencidos de estar en el centro del mundo, de que su sociedad era lo mejor que la humanidad había alcanzado, y de que su saber era naturalmente mejor que el de los otros pueblos y sociedades que habitaban en el globo terráqueo. Sin embargo, a partir del siglo XVIII nuevas generaciones de pensadores comenzaron a poner en duda esa pretendida superioridad, hasta dar origen a una disciplina científica particular en el contexto del las ciencias sociales: la antropología.