A educação é uma das áreas mais essenciais para o desenvolvimento de uma sociedade. No Brasil, o Estado tem a obrigação de oferecer educação formal para todas as crianças e adolescentes.