La resaca de PISA

El pasado 5 de diciembre se hicieron públicos los resultados de PISA 2022. Desde ese mismo día y durante las semanas siguientes nos vimos inundados por una multitud de comentarios acerca del estudio en general, de esa ronda en concreto, de las interpretaciones y explicaciones plausibles de sus resultados y de una infinidad de cuestiones relativas a la educación, viniesen o no a cuento. Un buen número de expertos, comentaristas, tertulianos, opinadores o simples osados se lanzaron a llenar páginas, espacios radiofónicos o televisivos, redes sociales o foros telemáticos de las más variadas explicaciones, hipótesis, invenciones, ocurrencias o incluso argumentos conspiranoicos. PISA nos inundó y nos embriagó. Ahora que han pasado bastantes semanas, parece que llega la hora de la resaca, en la doble acepción que recoge la Real Academia Española: corriente marina debida al retroceso de las olas que han llegado a la orilla y malestar que padece al despertar quien ha bebido alcohol en exceso. Como dice la propia RAE, la resaca es también la situación o estado que sigue a un acontecimiento importante.

Y es que no cabe duda de que PISA se ha convertido en un acontecimiento importante. Ya va para 25 años que la OCDE puso en marcha este proyecto, en cuya gestación tuve el privilegio de participar. Lo que comenzó siendo un esfuerzo novedoso para completar el sistema internacional de indicadores de la educación con datos sobre los resultados de aprendizaje obtenidos por los estudiantes al final del periodo de escolarización obligatoria se ha convertido en una pieza indispensable para analizar y evaluar nuestros sistemas educativos. Cada tres años (en esta última ocasión, cuatro, debido a la pandemia) PISA viene a conmover el terreno (no siempre apacible, por otra parte) de la política de la educación.

Aunque no pretendo entrar aquí a debatir sobre el proyecto, merece la pena recordar que PISA es una prueba internacional, en la que han participado hasta ahora más de cien sistemas educativos (¡ojo!, sistemas, no países, pues no son pocos los que cuentan con más de un sistema educativo en su territorio nacional), que evalúa los resultados de aprendizaje alcanzados por los estudiantes de quince años de edad (independientemente del curso en que se encuentren matriculados) en tres áreas (matemáticas, comprensión lectora y ciencias) que se van alternando como materia central. La elaboración de las pruebas no parte del análisis de los currículos realmente impartidos en los centros educativos de los sistemas participantes, sino de las competencias que se supone que debe haber desarrollado un joven al finalizar su escolarización obligatoria. Se trata por lo tanto de una evaluación de carácter muy diferente a las de otros estudios internacionales (por ejemplo, TIMSS o PIRLS), así como a las pruebas externas de certificación o de paso de etapa educativa que se aplican en algunos lugares en cursos concretos y se basan en los currículos impartidos.

Por otra parte, la media de la prueba se fijó en 500 puntos y la desviación típica en 100, si bien ha ido variando ligeramente al establecerse mecanismos de anclaje que permiten valorar el progreso o retroceso a lo largo del tiempo. Estas cifras resultan claves para explicar los resultados alcanzados, aunque no siempre se manejen con rigor. Así, por ejemplo, una diferencia de resultados de diez puntos representa una variación muy pequeña (tan solo una décima parte de una desviación típica), al contrario de lo que asumen algunos opinadores.

Si bien estas características son muy conocidas, llama la atención que tantas personas que opinan sobre PISA las desconozcan o no las consideren en sus análisis. Por ejemplo, tratándose España de un país con altísimas tasas de repetición de curso, alrededor de una tercera parte de los estudiantes de 15 años evaluados lleva al menos un curso (a veces dos) de retraso, lo que sin duda influye en una peor puntuación, al no haber completado todavía la enseñanza obligatoria. Y cuando se califica la situación española como desastrosa se puede recordar el símil que hacía José Saturnino Martínez: si hablásemos de estatura y la media de la OCDE estuviese en 170 cm, la población española se situaría entre 167 y 169 cm según los años y la materia concreta. ¿Es eso un desastre objetivamente hablando (sin negar, por supuesto, que exista margen para la mejora)?

Los debates sobre PISA, en España como en muchos otros lugares, suelen girar sobre tres asuntos: cómo se deben valorar los resultados, cómo nos comparamos con otros y cómo podemos mejorar. Acerca del primer asunto, hay que distinguir los debates académicos de los mediáticos. Desde el punto de vista de los especialistas e investigadores, no son excesivos los análisis realizados, quizás por la limitada tradición española en investigación educativa de carácter cuantitativo. Y en los medios de comunicación, como se ha demostrado cumplidamente en diversas investigaciones, la imagen que en todos los países se transmite de sus sistemas educativos abunda en tintas negras, descalificaciones y valoraciones negativas. Además, cabe destacar el escaso rigor de un gran número de comentarios mediáticos, que caen reiteradamente en incorrecciones tales como confundir la media con el nivel de suficiencia, utilizar términos como los de aprobado y suspenso para valorar los resultados, obviar la significación estadística de las diferencias de puntuaciones, realizar la lectura de los datos simplemente en términos de clasificación o lanzar interpretaciones basadas en prejuicios o sesgos ideológicos.

Algo parecido sucede con la comparación con otros países. De manera reiterada, la mirada se enfoca sobre ejemplos sobresalientes, sean Finlandia, Portugal o Singapur. Esa curiosidad no llama la atención, pero sí las conclusiones que de ahí se pretenden extraer. Las comparaciones muchas veces reposan en la creencia de que las normas, los usos o las prácticas educativas se pueden trasponer de un lugar a otro, ignorando la historia, la cultura, las condiciones o las tradiciones en materia de educación. Hay quien considera que la solución está en tratar al profesorado como en un determinado lugar, o en organizar el currículo como en otro país, o en establecer sistemas de exámenes externos como en un tercer sitio, o así sucesivamente. Con el añadido de que quien es objeto de admiración en determinado momento puede dejar de serlo en otro. Esto no solo supone desoír las advertencias de los estudiosos de la educación comparada, sino cultivar una creencia peligrosa en las soluciones mágicas, en la existencia de una silver bullet como dirían los anglosajones.

Quizás la pregunta más interesante que puede plantearse en la resaca de PISA es la de cómo mejorar los resultados educativos en nuestro país. No es una pregunta con respuesta sencilla, pues exige tomar en consideración una pluralidad de datos y de circunstancias, identificar las palancas del cambio y configurar políticas públicas orientadas en la dirección correcta. Abundan los magos con soluciones tan simples y evidentes como falsas. En el ámbito internacional se han desplegado diversas iniciativas para tratar de averiguar cuáles son las soluciones más adecuadas para cada caso, teniendo en cuenta su situación de partida, su contexto y sus posibilidades. Los informes elaborados en 2007, 2010 y hace tan solo unas semanas por la consultora McKinsey son un buen ejemplo de ese tipo de empeños rigurosos y exentos de trivialidad, que nos pueden gustar más o menos, pero de los que siempre podemos aprender.

Desde mi punto de vista, hay que hacer el esfuerzo de diseñar políticas públicas viables y realistas que permitan la mejora, aunque no resulte nada sencillo hacerlo. Hace unas semanas hemos tenido un ejemplo de propuesta derivada de la inquietud generada en torno a PISA: el Gobierno piensa invertir 500 millones para impulsar la mejora de resultados. En principio, se trata de una buena noticia, pero su análisis requiere bastante más información, de la que carecemos por ahora. Los detalles adelantados apuntan a un refuerzo del programa PROA+, que se puso en marcha en 2019 y que ha seguido la senda que abrió en 2005 el anterior programa PROA. Quiero destacar este hecho, porque se trata de uno de los pocos ejemplos con que contamos de programas educativos que fueron evaluados con rigor tras su puesta en marcha y que han demostrado empíricamente el valor de sus logros. Esa práctica, que debiera ser habitual en las políticas públicas, no lo es, sin embargo. Por eso, esa conexión suena bien, aunque sería necesario evaluar el nuevo PROA+ con objeto de ajustar su aplicación en función del grado de cumplimiento de sus objetivos. Además, el anuncio implicaba una atención especial a la formación del profesorado en las áreas prioritarias de PISA. Nuevamente se trata de una cuestión muy relevante, pero que necesita mayor concreción. Sabemos que el profesorado es siempre un factor clave para la mejora, pero no basta con reconocerlo, ni con apoyarlo de cualquier manera. La clave está en reforzar la profesión docente y esa es una tarea de envergadura, que no se resuelve con unos recursos transitorios. Por lo tanto, estando a favor de las líneas esbozadas, hay que aprovechar esta ocasión para dar pasos sustantivos en favor de la mejora. Ese tipo de decisiones, y no solo actuar reactivamente y de manera limitada, es lo que realmente necesita nuestro sistema educativo y lo que significaría aprender de las lecciones de PISA. Esperemos que así sea.

Alejandro Tiana

Share This