Tag: educação no Brasil

O Dever de Ensinar no Brasil

9 de outubro de 2024

O dever de ensinar é um compromisso do Estado, conforme previsto na Constituição, e cabe aos professores garantir que as crianças e os jovens tenham ... Saiba Mais