2017/12/06

Est modus in rebus


Estudei Latim no Liceu (como Grego, também) e aprendi algumas das muitas frases que têm perdurado no tempo como expressão de sageza. Esta foi uma delas, e tenho-a como das mais avisadas. Sugere a moderação, de que nas coisas há sempre uma medida a ter em conta.

Por que me veio de novo à mente esta expressão latina? Por causa da notícia acerca dos resultados do PIRLS (Progress in International Reading Literacy Study), um estudo de avaliação comparada levada a efeito pela IEA (International Association for the Evaluation od Educational Achievement) a partir do Boston College’s Lynch School of Education, o qual se realiza periodicamente desde 2001. Com o estudo, pretende-se avaliar o grau de literacia dos alunos frequentando o 4º ano de estudos regulares em 50 países de todo o mundo. Portugal é um desses países.

Os resultados desse estudo para 2016 foram agora divulgados (ver aqui). As notícias dos jornais dão ênfase a uma descida dos resultados dos alunos portugueses, de 13 pontos, em relação à avaliação anterior, sendo mais evidente nas meninas do que nos meninos (naquelas o desvio é de 19 pontos). O Secretário de Estado da Educação, segundo a imprensa, sugeriu que as razões desta descida estariam nas alterações curriculares promovidas pelo ministro Nuno Crato, uma vez que os alunos testados pertencem à coorte correspondente aos anos da sua “reforma”. Evidentemente o ex-ministro já veio responder a esta insinuação, lembrando o que se passou há um ano quando os resultados do PISA foram divulgados.

Est modus in rebus. Em posts anteriores deixei bem claro o que penso do ministério de Nuno Crato – foi péssimo. Isso não invalida que, neste caso, ache inapropriada (direi mesmo abusiva) a ligação dos resultados da avaliação do PIRLS à política seguida nesses anos.

Em relação a avaliações internacionais (o mesmo se passa com o PISA) é necessário, porventura mais necessário do que em avaliações nacionais, ter muita prudência na leitura dos resultados. O número e qualidade de variáveis em jogo é elevado, as amostras (escolhidas? obtidas aleatoriamente? apenas casuais?) poderão estar longe de ser equivalentes de um para outro estudo, e o próprio contexto nacional pode significativamente condicionar os exames. 

Pessoalmente não me comovo muito com resultados que se traduzem em “rankings”. Devem as avaliações ser sempre convertidas em números? A expressão numérica é cómoda, mas nem sempre exprime a verdade de uma situação que se pretende compreender, mais do que etiquetar.


É evidente que quando em sucessivas avaliações se começam a desenhar tendências, elas devem ser entendidas como realidades e interpretadas como tais – por exemplo, os bons desempenhos continuados de estudantes da Coreia do Sul têm de ser interpretados para encontrar as razões desse êxito. Mas pequenas alterações como a que motivou esta prosa (numa escala de 700 pontos, passar de 541 para 528), não devendo ser ignoradas, nem minimizadas, não passam disso mesmo – pequenas alterações. A ser corrigidas, ou confirmadas, na próxima edição do estudo.