Estudei Latim no Liceu (como Grego, também) e aprendi
algumas das muitas frases que têm perdurado no tempo como expressão de sageza.
Esta foi uma delas, e tenho-a como das mais avisadas. Sugere a moderação, de
que nas coisas há sempre uma medida a ter em conta.
Por que me veio de novo à mente esta expressão latina? Por
causa da notícia acerca dos resultados do PIRLS (Progress in International Reading Literacy Study),
um estudo de avaliação comparada levada a efeito pela IEA (International Association
for the Evaluation od Educational Achievement) a partir do Boston College’s Lynch
School of Education, o qual se realiza periodicamente desde 2001. Com o estudo,
pretende-se avaliar o grau de literacia dos alunos frequentando o 4º ano de
estudos regulares em 50 países de todo o mundo. Portugal é um desses países.
Os resultados desse estudo para 2016 foram agora divulgados (ver
aqui). As notícias dos jornais dão ênfase a uma descida dos resultados dos
alunos portugueses, de 13 pontos, em relação à avaliação anterior, sendo mais
evidente nas meninas do que nos meninos (naquelas o desvio é de 19 pontos). O
Secretário de Estado da Educação, segundo a imprensa, sugeriu que as razões
desta descida estariam nas alterações curriculares promovidas pelo ministro
Nuno Crato, uma vez que os alunos testados pertencem à coorte correspondente
aos anos da sua “reforma”. Evidentemente o ex-ministro já veio responder a esta
insinuação, lembrando o que se passou há um ano quando os resultados do PISA
foram divulgados.
Est modus
in rebus. Em posts anteriores deixei bem claro o que penso do ministério de
Nuno Crato – foi péssimo. Isso não invalida que, neste caso, ache inapropriada
(direi mesmo abusiva) a ligação dos resultados da avaliação do PIRLS à política
seguida nesses anos.
Em relação a avaliações internacionais (o mesmo se passa com o
PISA) é necessário, porventura mais necessário do que em avaliações nacionais,
ter muita prudência na leitura dos resultados. O número e qualidade de variáveis
em jogo é elevado, as amostras (escolhidas? obtidas aleatoriamente? apenas casuais?)
poderão estar longe de ser equivalentes de um para outro estudo, e o próprio
contexto nacional pode significativamente condicionar os exames.
Pessoalmente não
me comovo muito com resultados que se traduzem em “rankings”. Devem as avaliações ser sempre convertidas em
números? A expressão numérica é cómoda, mas nem sempre exprime a verdade de uma
situação que se pretende compreender, mais do que etiquetar.
É evidente que quando em sucessivas avaliações se começam a
desenhar tendências, elas devem ser entendidas como realidades e interpretadas
como tais – por exemplo, os bons desempenhos continuados de estudantes da
Coreia do Sul têm de ser interpretados para encontrar as razões desse êxito.
Mas pequenas alterações como a que motivou esta prosa (numa escala de 700
pontos, passar de 541 para 528), não devendo ser ignoradas, nem minimizadas,
não passam disso mesmo – pequenas alterações. A ser corrigidas, ou confirmadas,
na próxima edição do estudo.
Sem comentários:
Enviar um comentário