POLÉMICA

Profesores de los Andes cuestionan los resultados de las pruebas Saber

En un documento señalan que el gobierno no es transparente a la hora de informar sobre cómo Colombia logró mejorar tantísimo de un año para otro.

29 de marzo de 2017

A principios de marzo, se conocieron los resultados de las pruebas Saber 2016 en las que se evaluaron los conocimientos en Matemáticas y Lenguaje de 2.388.1100 estudiantes de todo el territorio. El Ministerio de Educación (MEN) confirmó en ese momento que los tres grados evaluados (tercero, quinto y noveno)  obtuvieron los puntajes más altos registrados en la historia de estas evaluaciones estatales: un promedio general de 300 puntos sobre 500.

Relacionado: ‘Históricos resultados en pruebas Saber‘

Ahora, los docentes de la Facultad de Educación de la Universidad de los Andes, Andrés Molano, Diana Rodríguez Gómez y Hernando Bayona, cuestionan hasta qué punto estos resultados son transparentes y reflejan la realidad educativa del país.

Semana Educación recoge sus consideraciones en este documento al que tuvo acceso en exclusiva y que fue editado para responder a las exigencias editoriales de este medio (lea AQUÍ el informe completo):

Una vez salieron a la luz los resultados de la prueba Saber nuestro primer instinto fue celebrar. Sin embargo, después de unos minutos la pregunta fue: ¿De verdad tanto? ¿cómo explicamos el aumento de 17 puntos en Matemáticas en apenas un año?.

De acuerdo con los resultados de estas evaluaciones estatales, el desempeño escolar ha mejorado considerablemente: entre 2015 y 2016, los resultados cambiaron en un rango de 0.05 a 0.21 en desviaciones estándar. Además, según el Icfes, los resultados sugieren que “en promedio, los colegios del sector oficial mejoraron más que los privados”.

Nuestro análisis confirma la conclusión general del Icfes pero también revela que, si bien los resultados del sector público -que representa cerca del 81 % de la matrícula- son alentadores, si se compara con los que obtuvo el sector privado, todavía existen brechas de equidad muy acusadas en nuestro sistema educativo.

Pero entonces, ¿qué mecanismos de la política pública explican este incremento en los resultados de la prueba Saber?

El programa de créditos condonables Ser Pilo Paga puede llegar a impactar la educación si se asume que los jóvenes de básica y secundaria perciben la iniciativa como una oportunidad real de acceso a la educación superior. Eso naturalmente genera un cambio en el esfuerzo individual de estudiantes y profesores, lo que podría estar moviendo los resultados. Sin embargo, vale la pena preguntarse si estos cambios son producto de una mejora en la calidad de la educación.

Le puede interesar: Ser pilo paga, ¿pero quién paga?

Por otro lado, y centrándonos en el programa de becas para la excelencia docente, hasta el momento el país no cuenta con evidencia que demuestre los efectos de esta estrategia en el aprendizaje de los estudiantes. Existen limitaciones al interior de las Facultades de Educación que impiden una traducción directa de lo aprendido a las prácticas cotidianas en el aula.

A partir de 2012 se implementó el Programa Todos a Aprender (PTA) en cerca de 3.000 establecimientos educativos oficiales de bajo rendimiento para mejorar los desempeños de estudiantes de primaria en lenguaje y matemáticas. Pero aunque suene muy bien en el papel, el PTA no es una explicación suficiente para el cambio en los promedios nacionales de la prueba Saber. La cantidad de casos en esta área es demasiado pequeña para lograr empujar todo el promedio nacional.

Por último, tenemos el Índice Sintético de Calidad Educativa (Isce) que, por un lado, brinda información de progreso a la comunidad educativa para así orientar sus planes de mejoramiento y, por otro, otorga incentivos económicos al personal docente y administrativo de las escuelas que alcanzan el mayor progreso. En 2016 el gobierno otorgó cerca de 78.000 millones de pesos a 869 escuelas.

Si bien es posible que estos estímulos monetarios motiven a algunos docentes a mejorar sus prácticas, hay evidencia de que este tipo de estímulos genera una presión adicional. Este análisis no descarta la posibilidad de que el cambio en los resultados esté motivado por este mecanismo que prioriza los resultados sobre el bienestar de la comunidad educativa.

Le puede interesar: ‘Preocupantes cifras de acceso a la educación en zonas rirales‘

Conclusiones

Desde nuestro punto de vista, si bien no desechamos que de manera conjunta los cuatro programas mencionados puedan explicar el cambio, sin procesos de evaluación rigurosos que combinen metodologías cualitativas y cuantitativas de evaluación de impacto para dar cuenta de las experiencias de los estudiantes y los docentes al enfrentarse a la prueba, los resultados pierden su potencial para informar el diseño e implementación de la política educativa en Colombia.

Relacionado: "Si tu candidato no sabe cómo cambiar la educación, cambia de candidato"

Aunque arrancamos asumiendo que los resultados de la prueba son válidos, presentamos razones para cuestionar los incrementos mencionados y requerimos transparencia en la entrega de los documentos técnicos que garanticen la confiabilidad, validez y comparabilidad de los resultados.

Para estar enterado sobre las noticias de educación en Colombia y el mundo, síganos en Facebook y en Twitter.