ArticlePDF Available

Abstract

Resumen: El presente artículo recoge algunas de las consideraciones que, sobre el marco de PISA (Programa para la Evaluación Internacional del Alumnado) de la OCDE, han sido objeto de análisis por parte del Grupo de Investigación HUM-311 de la Universidad de Málaga en el Proyecto I+D SEJ-2007-66967, dirigido por el profesor D. Ángel I. Pérez Gómez. En el desarrollo de dicha revisión, se abordó la temática de las competencias básicas como un mecanismo potencial para el desarrollo de las capacidades útiles para la vida de los individuos en la Sociedad del Conocimiento, específicamente competencias de segundo orden recogidas genéricamente en el constructo Aprender cómo Aprender. Se abordan estos análisis, sometiendo a discusión los aspectos más problemáticos. Palabras clave: evaluación; PISA; competencias; educación.
320
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
“TODOS QUEREMOS SER FINLANDIA”.LOS EFECTOS SECUNDARIOS DE
PISA
Resumen: El presente artículo recoge algunas de las consideraciones que, sobre el
marco de PISA (Programa para la Evaluación Internacional del Alumnado) de la
OCDE, han sido objeto de análisis por parte del Grupo de Investigación HUM-311 de la
Universidad de Málaga en el Proyecto I+D SEJ-2007-66967, dirigido por el profesor D.
Ángel I. Pérez Gómez. En el desarrollo de dicha revisión, se abordó la temática de las
competencias básicas como un mecanismo potencial para el desarrollo de las
capacidades útiles para la vida de los individuos en la Sociedad del Conocimiento,
específicamente competencias de segundo orden recogidas genéricamente en el
constructo Aprender cómo Aprender. Se abordan estos análisis, sometiendo a discusión
los aspectos más problemáticos.
Palabras clave: evaluación; PISA; competencias; educación.
321
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
“WANT TO BE ALL FINLAND”. SIDE EFFECTS OF PISA
Abstract: This article describes some of the considerations on the PISA (Program for
International Student Assessment) of the OECD, have been reviewed by the Research
Group HUM-311, University of Malaga in the Project R & D-SEJ 2007-66967, led by
Professor D. Angel I. Pérez Gómez. In developing this review, addressed the issue of
basic skills as a potential mechanism for the development of useful life skills of
individuals in the knowledge society, second-order powers specifically listed in the
generic construct Learn how to Learn. Addressing these analysis, questioning the most
problematic aspects.
Keywords: Assessment; PISA; skills; education.
322
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
“TODOS QUEREMOS SER FINLANDIA”.LOS EFECTOS SECUNDARIOS DE
PISA
Fecha de recepción: 16/07/2010; fecha de aceptación: 15/010/2010; fecha de publicación: 31/03/2011
Javier Barquín Ruiz
barquin@uma.es
Universidad de Málaga
Monsalud Gallardo Gil
monsalud@uma.es
Universidad de Málaga
Manuel Fernández Navas
mfernandez1@uma.es
Universidad de Málaga
Rafael Yus Ramos
rafayus@telefonica.net
Universidad de Málaga
Mª Pilar Sepúlveda Ruiz
mdsepulveda@uma.es
Universidad de Málaga
Mª José Serván Núñez
servan@uma.es
Universidad de Málaga
INTRODUCCIÓN
El presente artículo recoge algunas de las consideraciones sobre el marco del
Programa PISA de la OCDE, que ha sido objeto de análisis por parte del Grupo de
Investigación HUM-311 de la Universidad de Málaga, dentro del Proyecto I+D SEJ-
2007-66967, dirigido por el profesor D. Ángel I. Pérez Gómez. En el desarrollo de
dicha revisión se abordó la temática de las competencias básicas como un mecanismo
potencial para el desarrollo de las capacidades útiles para la vida de los individuos en
nuestra actual Sociedad del Conocimiento, específicamente competencias de segundo
323
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
orden recogidas genéricamente en el constructo “aprender cómo aprender” (Hargreaves,
2005). Precisamente, uno de los objetivos de este estudio era analizar el potencial de
distintas evaluaciones diagnósticas para estimar el grado de adquisición de estas
competencias. Entre este tipo de evaluaciones se procedió al estudio del Proyecto
Internacional para la Producción de Indicadores de Rendimiento de los Alumnos, más
conocido como Proyecto PISA (Programme for Indicators of Student Achievement), que
tomó como base el Informe DeSeCo de la OCDE (2002), que también sirvió para el
establecimiento de la Recomendación del Parlamento Europeo y del Consejo de 18 de
diciembre de 2006 sobre las competencias clave para el aprendizaje permanente, que a
su vez fue recogida en la nueva reforma educativa española: la Ley Orgánica 2/2006 de
Educación (LOE, 2006). El carácter tecnológico y centralizado del proceso, sin
embargo, suscitó incógnitas acerca del sentido y oportunidad de este tipo de eventos. En
este artículo, presentamos una discusión, tratando de compartir con los interesados
algunos aspectos que consideramos problemáticos.
1.- PLANTEAMIENTO DEL PROBLEMA
Una revisión de la literatura especializada en estas cuestiones nos mostró la
escasez de posicionamientos críticos sobre este tipo de pruebas. Tal pareciera que los
países de la OCDE se han embarcado en un proceso de medición internacional de los
resultados de los distintos sistemas educativos sin detenerse a reflexionar previamente
sobre las cuestiones más básicas: ¿Por qué aceptamos PISA? ¿Qué persigue realmente
PISA, y tras ella la OCDE? Entendemos que estas preguntas son previas a cualquier
decisión que se tome posteriormente acerca de la oportunidad y validez de este tipo de
pruebas internacionales.
Los trabajos sobre las pruebas PISA se han centrado más en el análisis de los
resultados. Un grupo de investigaciones se centran en la importancia de las evaluaciones
externas, y de ahí la necesidad de disponer de unos indicadores adecuados, todo lo cual
avala el proyecto PISA (ej. Bottani, 2006). Otras se refieren a los problemas técnicos
detectados en el propio diseño de las pruebas (ej. Bonnet, 2006; Sánchez y Rodicio,
2006). Pero pocas se han detenido a examinar los efectos de este tipo de pruebas a
escala internacional sobre las políticas educativas a escala nacional (ej. Bonal y
Tarabini, 2008). En el ámbito latinoamericano se han puesto objeciones a la traducción
al contexto nacional de las pruebas (Solano-Flores; Contreras-Niño y Backhoff-
Escudero, 2006) e incluso en Europa los procesos llevados a cabo en Francia y
Alemania han provocado una serie de matices. Así, Urteaga (2010; 398) analiza la
324
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
desconfianza de los gestores franceses ante las pruebas de PISA y, en concreto, para
Ciencias, señala:
En el ámbito de la cultura científica, los resultados de los jóvenes franceses generan los mismos
comentarios. Son superiores a la media cuando se trata de recoger unas informaciones en unos soportes
habitualmente utilizados en la enseñanza científica (gráficos, tablas, croquis), pero inferiores cuando
conviene movilizar unos conocimientos para explicar unos fenómenos de manera científica en unas
situaciones de la vida corriente no abordados en clase […]. Para los detractores franceses de las
encuestas, el asunto está zanjado: si PISA se limitara a evaluar los viejos conocimientos, los resultados
conseguidos por los alumnos franceses en matemáticas y en cultura científica serían mejores”.
Para Urteaga los resultados medios están sesgados por el factor de repetidores y
el aumento de resultados más bajos de los esperados en proporciones más altas. Parte
del alumnado francés obtiene resultados brillantes, pero una gran mayoría no y eso
“rebaja” la media. Con lo cual sirve para denunciar la ineficacia del sistema para una
gran parte de la población escolar. Los resultados de PISA admiten muchas lecturas y
obligan a distintos tipos de análisis para llegar a afirmaciones razonables.
En Alemania, también han surgido voces discrepantes; Bos & Schwippert (2009)
indican que ni la tradición de investigación ni la escolar alemana es similar al tipo de
pruebas que se aplican en PISA. Se reconoce que los cuestionarios utilizados son
limitados, cortos y “resumidos” y que se aplican con un sesgo de tiempo de respuesta
reducido. Aparte de señalar que debe mejorarse en la presentación de los informes.
Incluso comentan que algunos resultados “relacionados”, como los mejores resultados
obtenidos en clases grandes y profesores con poco salario, necesitan unos análisis
estadísticos mejores para no “aconsejar” que se reduzca el salario a los docentes o
ampliar el tamaño de las aulas, si quieren conseguir progresos en las escuelas.
2.- EL PROYECTO PISA SEGÚN LA OCDE
Previamente al análisis de estas cuestiones básicas, es conveniente recordar el
origen e intenciones que en su día se explicitaron sobre el proyecto PISA. En este
sentido, los documentos oficiales señalan que el Proyecto PISA es el resultado de la
aplicación de la estrategia de actuación desarrollada por la llamada Red A, encargada
del área de los resultados educativos, del Proyecto de Indicadores Internacionales de los
Sistemas Educativos (Proyecto INES). El proyecto INES (International Indicators of
Education Systems) del Centro para la Investigación e Innovación Educativas (CERI),
dependiente de la OCDE, tiene como objetivo la producción de indicadores educativos
325
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
sobre los sistemas de sus países miembros que incluyen indicadores comparativos
internacionales del rendimiento escolar de los alumnos.
De este modo, los objetivos básicos del proyecto son, en primer lugar,
proporcionar a los países miembros de la OCDE un marco institucional en el que
examinar la validez y relevancia de los indicadores educativos, definir los límites en los
que se pueden desarrollar, comparar las experiencias nacionales relacionadas con la
implantación de evaluaciones a gran escala y compartir las experiencias de mejora de la
calidad de los sistemas educativos y, en segundo lugar, producir indicadores que
aporten información útil sobre los sistemas educativos.
Así pues, según Gil Escudero (1997), un componente esencial del proyecto
INES era la provisión de información sobre el rendimiento académico de los alumnos,
dado que los responsables de las políticas educativas deseaban tener información sobre
las destrezas y conocimientos de sus estudiantes y sobre cómo son sus niveles de
rendimiento en comparación con los estudiantes de otros países. Además, quieren
conocer qué factores contribuyen a que los estudiantes alcancen determinados logros
académicos y qué medidas pueden tomar para mejorar su sistema educativo para
intentar asegurar, en última instancia, que los alumnos adquieran las destrezas
necesarias para tener éxito en el mundo del trabajo. Por otro lado, se afirma que
contribuyen a la tarea de rendir cuentas a los ciudadanos sobre el estado y la gestión de
la educación. Asimismo, se dice que proporcionan una base para la toma de decisiones
políticas, para supervisar con un mecanismo común los sistemas educativos
descentralizados y para fundamentar las reformas educativas y la mejora de las escuelas,
especialmente en aquellos casos en que las escuelas o los sistemas educativos con
recursos similares logran resultados muy diferentes.
De estas declaraciones se podría entender, en una primera aproximación, que el
proyecto PISA se sitúa en el contexto de los sistemas de evaluación externa destinados a
la rendición de cuentas. No está tan claro que este tipo de pruebas tenga un efecto
inmediato sobre la calidad de los sistemas educativos, por cuanto la evaluación está
lejos de plantearse como una evaluación educativa o formativa y además su diseño y
conclusiones no permiten detectar los fallos del sistema a un nivel de detalle suficiente
para poder intervenir. De hecho, en los documentos oficiales de PISA se afirma que “no
se pretende medir lo que los alumnos han aprendido”. Pero lo cierto es que la
proyección internacional que tienen estas pruebas y el efecto revulsivo que provoca, vía
medios de comunicación, sobre los Gobiernos de distintos países, son reales y
326
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
evidentes, a pesar de que desde PISA se reitera que “su intención no es evaluar sistemas
educativos”. Sencillamente dicen tratar de medir resultados o desempeños, los outs
seleccionados por PISA a partir de los inputs realizados por sistemas educativos
distintos. Nada sobre lo que ocurre entre ambos extremos, es decir, un modelo de caja
negra.
Pero dado los efectos políticos que provoca, en gran parte producidos por el
efecto ranking o comparación internacional de resultados, dudamos de la asepsia de
estas intenciones y nos preguntamos acerca del alcance real de este tipo de pruebas
internacionales y si realmente persiguen lo que explícitamente declaran como
justificación. Ante esta situación nos preguntamos hasta qué punto un organismo
internacional puede o debe intervenir, a través de pruebas de este tipo, a modular o
sesgar en una determinada dirección (ej. hacia las destrezas más vinculadas al mundo de
la producción) los sistemas educativos de distintos países, y hasta qué punto es deseable
que de ello se derive una tendencia a la homogeneización de la educación como pilar
básico para el desarrollo cultural de un país, en el contexto de globalización económica
y cultural en el que nos situamos actualmente. Como sostiene Torres Santomé (2008;
167):
Ahora el sometimiento al mercado laboral, y por supuesto aceptando sin rechistar como único modelo
el capitalista, es el único criterio para la selección de los módulos y bloques de contenido. Se busca sólo
el conocimiento práctico, con aplicación inmediata en el mundo de la producción, de modo que
rápidamente se pueda cuantificar su valor en función de los resultados económicos a que da lugar”.
Aparece así una cierta congruencia entre las políticas curriculares y las macro
evaluaciones del sistema.
3.- SOBRE EL SENTIDO DE PISA COMO EVALUACIÓN EXTERNA
En su sentido más básico, el proyecto PISA forma parte de una larga tradición
cientifista que han incorporado las ciencias sociales, consistente en tratar de “medir”
procesos estrictamente sociales como la educación y a partir de aquí tomar decisiones
arropadas por el halo de “objetividad” que siempre dan los números. De aquí se deriva
la noción de evaluación, con su multitud de variantes, entre las cuales se encuentran las
evaluaciones externas del tipo PISA.
Desde la lógica de la institucionalización de la actividad humana y de la
regulación que asiste a los Estados modernos, parece lógico que ciertas empresas sobre
la base de técnicas estandarizadas provean información sobre la marcha de los sistemas.
327
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
Esos procesos macros traen como consecuencia afirmaciones generales e índices de
apartados del sistema educativo ubicados en una escala graduada que sanciona las
fortalezas y debilidades de los grupos de alumnos/as de cada país implicado.
PISA es una manifestación más de las tecnologías de la información donde
confluyen la estadística, los supuestos metodológicos de la investigación aceptados por
la comunidad internacional, la ideología que subyace en la interpretación del fenómeno
escolar del aprendizaje o, mejor dicho, de los pretendidos resultados de los procesos de
enseñanza y el interés político por pertenecer a una red mundial de “evaluación” de la
educación (entre otros asuntos). Y, como es lógico, el proceso no es gratis.
Desde esa perspectiva, cumple con sus funciones informativas y clasificatorias,
ya que su legalidad reside en el rediseño permanente del proyecto, la participación de
expertos, el continuo refinado de sus instrumentos, etc. Parte de la academia no está de
acuerdo con determinados aspectos de PISA, tanto de la interpretación de resultados
como de los procesos, pero no podemos evitar que PISA se haya convertido en una
referencia para unos y otros. Por ejemplo, en el debate sobre el estado de la nación en
España (mayo, 2009), se ha aludido a PISA y no será la última vez. Una macro
evaluación está sujeta a todo tipo de críticas; se supone que el equipo de PISA ha
tratado de reducirlas, pero resulta imposible porque entran en juego desde el diseño
hasta los contenidos y la comunidad académica no es un grupo homogéneo en cuanto
visiones técnicas e ideológicas. Como tal, el debate está servido.
Desde instancias externas a la escuela, el sistema absorbe cada cierto tiempo
determinados discursos (ya de la psicología, ya de estudios sobre organizaciones y
mundo empresarial); el último se llama competencias. Y obliga a reestructurar, en un
proceso de „arriba-abajo‟, el discurso propio „de la escuela‟ para adaptarlo a las nuevas
demandas, que no suelen seguir, como decimos, los procesos producidos en el aula ni el
diseño de la enseñanza que adopta el docente. Con lo cual, se intentan medir resultados
que no están ni en la mente pedagógica del docente ni en sus prácticas de enseñanza
habituales. Los docentes no han preparado a sus alumnos/as para responder a PISA y el
equipo de expertos ha preparado unas pruebas de papel y lápiz sobre el “papel” de unas
competencias que figuran en los diseños oficiales, no en la vida real de muchas
escuelas.
Los expertos trabajan con realidades formales definidas, pero en España hemos
tenido varias reformas según se han producido cambios en el Gobierno, provocando una
328
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
avalancha de decretos y medidas que difícilmente el sistema puede asimilar y mucho
menos los docentes. Así que, sobre una realidad que cambia lentamente, se aplican
instrumentos basados en normativas presentes en los despachos y alejadas del día a día
en las aulas.
Asimismo, la lógica de la evaluación basada en pruebas de papel y lápiz que
debe corregir un docente no experto obliga a simplificar todo el proceso. De un lado,
debe evitarse el sesgo cultural, con lo cual se precisan bien pruebas “universales”, bien
adaptaciones al contexto o a los contenidos escolares de cada país que a su vez pueden
estar sesgados por los libros de texto o de consulta. Adecuar este apartado se nos antoja
imposible por lo que es lógica una cierta inadecuación.
Como tampoco se trata de basarse en el memorismo para evitar además
contenidos no desarrollados en determinadas circunstancias, el texto de la prueba
contiene la información base; como tal proceso va sustentado en varias tareas y lleva su
tiempo contestarlas, debe evitar el cansancio del estudiante y procurar presentar pruebas
no extensas en contenido y desarrollo. O sea, cumplir con los protocolos y evitar los
sesgos que han puesto al descubierto las investigaciones sobre rendimiento escolar.
En resumen, todo se simplifica desde la abundancia de pruebas de respuestas
cerradas (aunque sean múltiples las posibles opciones) hasta las tareas de validación que
eviten interpretaciones en los evaluadores. Todo ello va en contra del pretendido
objetivo de “medir competencias”, un concepto que invita tanto a una descripción
“compleja” como a su manifestación en situaciones más allá del papel y lápiz.
Así que las pruebas se responden más bien con sentido común y con parte de
conocimiento escolar, que es el conocimiento “común” de muchas generaciones que han
pasado por la escuela de los países implicados en el PISA. Y, como la exposición a tales
pruebas, en cierto modo, es un rito repetido desde que el niño se incorpora a la escuela
(hacer un examen, un control, etc.), hay que refinar mucho la presentación de la
información (textos, gráficos, etc.) para que sea efectiva en cuanto a su contenido,
información relevante y claridad en la pregunta o demanda que debe resolver el
alumno/a. Ello provoca que las habilidades implicadas tanto en la comprensión del
enunciado como en su resolución no puedan ser muy complejas y sostiene la lógica de
que una decena de pruebas simples ofrecen información de algo más complejo (¿una
competencia?). El proceso de verificación y aplicación sigue las pautas indicadas para
329
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
cualquier diseño de investigación y respeta el canon de los estudios al uso, por lo que
aparentemente los resultados deben ser aceptados como ecuánimes.
En relación con esta discusión, conviene recordar que los objetivos explícitos de
PISA vienen señalados en el documento marco (OCDE; 2007, 6), en el que se dice
textualmente:
Lo que evalúa y lo que no evalúa PISA
PISA no está diseñado para evaluar el aprendizaje de los contenidos
específicos fijados en los programas de las escuelas o de los distritos o
regiones correspondientes. Tampoco está pensado para evaluar el desempeño
de los docentes ni los programas vigentes. PISA se centra en el reconocimiento
y valoración de las destrezas y conocimientos adquiridos por los alumnos al
llegar a sus quince años. La adquisición de tales destrezas y conocimientos es
fruto de numerosas circunstancias familiares, sociales, culturales y escolares.
PISA trata de recoger información sobre esas circunstancias para que las
políticas que pudieran desprenderse del análisis de los resultados de la prueba
atiendan a los diferentes factores involucrados.
Los resultados de la prueba describen el grado en el que se presentan las
competencias estudiadas y permiten observar la ubicación de los resultados de
cada país en el contexto internacional.
A la vista de esta declaración, no se entiende por qué el Ministerio de Educación
y Ciencia de España es quien está implicado en este tema y no el de Cultura, por
ejemplo. Y, aunque no se centre en contenidos escolares, el proceso de verificación del
“saber” sigue afectado por la estructuración en ítems de mayor o menor complejidad,
pero más próximos a las fórmulas clásicas de tets o exámenes convencionales.
El texto que edita la OCDE hace alusión a determinados ejemplos que luego no
se observan en las pruebas liberadas, así como su atención en los problemas de la
sociedad actual que tienen relación con la ciencia. La globalización de mensajes y temas
que están presentes en la mayoría de los países y en sus medios de comunicación
debieran ser los núcleos en los cuales se basan las pruebas y exigirían entonces otro tipo
de expertos que aconsejaran sobre los mismos, aparte de estadísticos y pedagogos.
La perversión de los resultados queda al albur de la difusión en los medios de
comunicación que vulgarizan, reducen y simplifican los informes repitiendo la mayoría
una simple nota de “Agencias”, a la maniquea utilización en el área política y al debate
reducido entre la comunidad académica que sigue enfrascada en la validez de los datos
330
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
y en la eficacia de los mismos para mejorar ya la educación ya la cultura general de los
jóvenes de un país.
La presencia en diversos escenarios culturales obliga a evitar sesgos,
determinados prejuicios en los contenidos y tener siempre presente el marco cultural y
muy diverso a tenor de los países implicados (lo cual se traduce también en unos costos
que rondan los 120.000 euros, que deben repartirse entre la OCDE y la empresa que
aplica las pruebas en cada país).
En la formación del ciudadano que se intenta lograr a través del sistema
educativo tal vez debiera empezar a flexibilizarse lo que se considera contenido
“universal” a la luz de los problemas que ya no son de países, sino del mundo en que
vivimos. De ahí que la “ciencia” y proyección social en cuanto que genera problemas y
soluciones al mismo tiempo sea un espacio de reflexión por las consecuencias que
actualmente provoca en la vida del planeta.
En resumen, sensu stricto y según afirma PISA en la referencia citada, parece
que estas pruebas se ocupan únicamente de las destrezas y conocimientos de los
adolescentes, aceptando que forman parte de una situación que va más allá del marco
escolar. Además, PISA va destinado a los Gobiernos, no a los Ministerios de Educación
que, a la postre, son los “cabezas de turco” de los resultados. Como dice Acevedo
(2005): “Durante los últimos 40 años se han realizado diversos estudios, la mayoría de
ellos dirigidos por la IEA como el TIMSS y por la International Assessment of
Educational Progress (IAEP) del Educational Testing Service (ETS). No obstante, estas
otras evaluaciones se han centrado en resultados directamente relacionados con el
currículo y, por tanto, sólo en aquellas partes de éste que son comunes a todos los
países participantes. Por el contrario, el objetivo general del proyecto PISA es conocer
la preparación de los estudiantes de 15 años de edad para afrontar los retos cotidianos
de la vida adulta. Como PISA no es un proyecto rigurosamente vinculado al currículo,
se facilita la comparación de resultados entre países, con independencia de la
organización de las enseñanzas que éstos tengan” (p. 291).Sin embargo, una vez
conocidos los resultados, las miradas se dirigen hacia la estructura educativa sin
cuestionar qué otros factores o situaciones dan lugar a los índices que arrojan las
estadísticas y que van más allá de lo meramente educativo.
331
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
4.- ALGUNOS EFECTOS INDESEABLES DEL PROYECTO PISA
Llegados a este punto, y admitiendo la lógica de la evaluación, nos preguntamos
hasta qué punto una agencia internacional, aunque represente a un club de países que
voluntariamente participan en ella con “expertos” de cada país que toman decisiones
desvinculadas de las políticas nacionales, puede y debe ejercer una presión sobre las
políticas educativas de una nación. Hasta qué punto esta dinámica no es más que el
reflejo de la globalización económica, que encuentra en la educación una vuelta de
tuerca para ajustar mejor la fuerza de trabajo a los intereses económicos del club que
domina la OCDE, una institución a la que pertenecemos voluntariamente, pero que no
olvidemos que sus intereses son esencialmente económicos. Es decir, PISA podría
representar un mecanismo de estímulo de la globalización económica a partir de una
globalización cultural. A nuestro juicio, no es casual la introducción de la noción de
“competencia”, vinculada clásicamente al desempeño laboral. Como tampoco lo es que
las únicas competencias que se están evaluando sean las que más directamente se
vinculan al desarrollo de procesos de carácter económico, minusvalorando aquellas que
pueden representar una formación integral, humanista y crítica de la ciudadanía. Incluso
en estas pruebas no es casual que los tests eludan las cuestiones de valor, la competencia
para abordar los conflictos sociales y personales.
Lejos de ser meras hipótesis, los efectos de esta agencia internacional sobre las
políticas educativas de distintos países ya se están produciendo. De hecho, la Unión
Europea abrazó sin mucha discusión, a través de la Recomendación del Parlamento
Europeo y del Consejo de 18 de diciembre de 2006, un nuevo catálogo de estándares
educativos: las competencias clave -por cierto, alejadas de la concepción compleja de
las mismas que emitiera el informe DeSeCo de la OCDE-. La definición de la agenda de
Lisboa en el ámbito educativo también promovió establecer objetivos de armonización
de los sistemas de enseñanza europeos y orientó políticas hacia consecuciones sucesivas
de mejoras de los indicadores socio-económicos (ej. abandono temprano del sistema, el
gasto por alumno o el número de licenciados en tecnología).
En este contexto de política educativa europea, con el trasfondo de la presión del
efecto político del ranking producido por los últimos resultados de PISA, en España se
promovió la inclusión de estos estándares en la nueva ley de educación de España
(LOE, 2006), sin el necesario filtro de la comunidad académica y educativa. Ésta es solo
una muestra de los efectos de PISA a escala de políticas educativas nacionales. Así,
332
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
como refiere Schleicher (2006), los resultados de PISA 2000 provocaron un intenso
debate en muchos países. Veamos un par de ejemplos:
- Una respuesta inmediata del Ministerio Federal Alemán de Educación e
Investigación fue encargar un estudio multilateral, dirigido por Eckhard Klieme,
quien reclutó colaboradores en países con los que Alemania deseaba una
comparación más detallada, esto es, Canadá, Inglaterra, Finlandia, Francia, los
Países Bajos y Suecia. Su estudio conecta los resultados de PISA 2000 con
pruebas cualitativas en mediciones tales como estrategias para la reforma e
innovación educativa; cuestiones de administración y asignación de recursos;
enfoques nacionales para la determinación de estándares, evaluación y
seguimiento del sistema; la organización de sistemas de apoyo; el desarrollo
profesional de los profesores; y enfoques para tratar las diferencias
socioeconómicas en los contextos de los alumnos (OECD, 2004e).
- Dinamarca estaba asimismo decepcionada con sus resultados en PISA 2000
porque, respecto al rendimiento, se encontraba tan sólo en la media de la OCDE,
a pesar de haber gastado por cada alumno de 15 años más que cualquier otro
país (salvo dos), y ciertamente más que muchos otros que habían obtenido
resultados mucho mejores. Dinamarca invitó a la OCDE a realizar una revisión
general de su política bajo los auspicios de su programa de revisiones de
políticas educativas nacionales. En dicha crítica, llevada a cabo por un grupo de
expertos, se concluyó que el sistema carecía de cultura de evaluación, y se
señaló que el nivel general de satisfacción con el sistema dentro del país había
sido socavado no sólo, y de forma más sustancial, por los resultados de PISA
2000, sino que ya había sido confirmado por comparaciones internacionales
anteriores (OECD, 2004a). Tras discutir el informe con el grupo de expertos y el
Comité de Educación de la OCDE, el ministro danés indicó que el Gobierno
llevaría a la práctica las reformas propuestas.
Éstos son sólo un par de ejemplos bien documentados, pues hay muchos otros
casos que demuestran la poderosa influencia de esta agencia sobre las políticas
educativas de las naciones evaluadas, incluido nuestro país, donde los nuevos estándares
educativos son evaluados sistemáticamente todos los años a través de las llamadas
Pruebas de Evaluación de Diagnóstico, aun a pesar de que ni el currículum ni la
formación del profesorado estén todavía en sintonía con dichos estándares. Sin
embargo, la inquietud que genera este tipo de pruebas más locales, en la imagen de los
333
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
centros escolares, ha provocado reacciones en la comunidad educativa, pero
lamentablemente no tanto en la dirección de la mejora cualitativa de la enseñanza como
en el adiestramiento del alumnado para mejorar los resultados de las pruebas, un tipo de
reacción muy conocido en la literatura pedagógica como “educación para la prueba”, en
la que los criterios de programación curricular van dirigidos más hacia el éxito en la
prueba que a la formación integral del alumnado.
Otra manifestación del efecto ranking de PISA ha sido el encumbramiento de
algunos sistemas educativos por sus excelentes resultados en estas pruebas, como
sucedió con Finlandia. Numerosas delegaciones nacionales y regionales visitan hoy las
escuelas finlandesas, en lo que algunos llaman “turismo educativo”, en busca de las
mejores recetas de excelencia educativa e intentan descubrir los factores organizativos
que explican su éxito. Pero en ello hay más una motivación por conocer los factores que
conducen a la consecución de buenos resultados en PISA, que un interés por conocer los
factores que conducen a una nación a tener un sistema educativo excelente. Dicho de
otro modo, se da por sentado que un sistema educativo que da buenos resultados en las
pruebas de PISA es un sistema educativo de calidad en todos los sentidos. Nada se
juzga sobre los aspectos culturales y sociales que rodean a los sistemas, la clave, se
piensa, debe estar en lo que se hace en las escuelas. Si de ahí se obtienen “recetas” para
lograr elevar nuestro ranking, sin tener en cuenta otros factores sociales y culturales,
estamos sucumbiendo a un proceso de globalización cultural bajo criterios
tecnocráticos. El lema sería “Todos queremos ser Finlandia”, o tal vez, “Todos
queremos conseguir los resultados de ese país”.
Como indican Petegem & Vanhoof (2005), la presencia de indicadores y listados
donde aparecen clasificados los resultados y, por ende, los países y las escuelas
participantes dan lugar a comparaciones poco útiles para la política micro, en la cual las
medidas a aplicar son para casos muy concretos: “Tal comparación no es, sin embargo,
simple. Hay que comparar lo mismo. Esto implica que gran parte de la atención debe
darse a la comparabilidad de los indicadores. Como hemos mencionado anteriormente:
la información que se basa en comparaciones pobres probablemente causará más daño
que la falta de información. La falta de comparabilidad, no obstante, no es el único
elemento que pudiera poner en peligro el uso exitoso de los indicadores. Recordemos el
énfasis que se ha puesto en los aspectos técnicos como la validez y fiabilidad de los
indicadores y lo erróneo que resulta la clasificación de las escuelas. Otra característica
fundamental de los modelos de retroalimentación debiera ser el apoyo a las escuelas
individuales. Este apoyo tiene que asegurarse de la correcta interpretación de los
334
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
indicadores y el uso adecuado de la retroalimentación para evaluar su propio
desempeño”. Las necesidades, orientaciones o estrategias adaptadas al contexto no
suelen proceder de este tipo de evaluación.
Estas reflexiones son coincidentes con las aportadas por Bonal y Tarabini
(2008), quienes destacan dos conjuntos de efectos de este tipo de evaluaciones externas
internacionales: la función de legitimación política y el impacto en la orientación del
contenido de las reformas. De este modo, señalan los autores, las evaluaciones externas
son utilizadas como recurso de legitimación de determinadas decisiones, como se
desprende de las reacciones políticas en países cuyo discurso oficial tiende a subrayar
las ventajas de la internacionalización y la globalización como incentivo de desarrollo
económico y social. En España, prosiguen los autores, “se ha recurrido a la referencia
europea para justificar determinadas decisiones de reforma educativa”. Y como prueba
de ello señalan el proceso de aprobación y debate de la LOGSE y, especialmente, en el
proceso de debate de la LOCE cuando algunas fuerzas políticas hicieron uso de los
datos de PISA para legitimar la orientación de determinadas decisiones (como la
introducción de itinerarios educativos en la enseñanza secundaria obligatoria). De este
modo, concluyen que “ante la ausencia de mecanismos que comprueben la rigurosidad
de ciertas afirmaciones, el recurso a la evaluación externa sirve de pretexto para
justificar ciertas agendas políticas. El apoyarse en informes de la Comisión Europea, la
OCDE o el Banco Mundial puede actuar como estrategia de legitimación política y de
amortiguación de determinadas críticas a la política educativa gubernamental”.
El segundo efecto de este tipo de evaluaciones, de acuerdo con Bonal y Tarabini
(2008), es el impacto sobre el contenido específico que pueden tomar las medidas de
política educativa nacional. Las motivaciones pueden ser muy diferentes, desde las
limitaciones en la capacidad técnica de determinados equipos gubernamentales que
recurren al conocimiento experto de organismos internacionales, hasta la búsqueda de
mecanismos que sitúen al sistema educativo nacional en una posición mejor en las
clasificaciones o rankings de rendimiento educativo. Esta influencia, según los autores,
suele plasmarse en el establecimiento de determinadas prioridades de intervención
política que no sean precisamente las que el propio gobierno dispuso en su momento en
el programa educativo o las que más necesarias desde un punto de vista social. De este
modo, la evaluación externa puede ejercer una influencia doble sobre la política
educativa nacional: por una parte, puede influir definiendo con una orientación
determinada los problemas educativos de un estado o comunidad; por otra, puede
335
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
establecer relaciones causales explícitas o implícitas sobre los factores que explican el
comportamiento de un resultado o indicador.
El mejor ejemplo de estos impactos lo encontramos en el programa PISA de la
OCDE, en el que el conocimiento matemático, lingüístico, científico y la comprensión
lectora son los ámbitos de referencia de las pruebas. Asimismo, los cuestionarios PISA
recogen información acerca de las condiciones sociales y culturales de la familia del
alumno y del centro, e información relativa a las características pedagógicas del centro,
etc. Sin duda, se trata de instrumentos que implican una selección determinada de
ámbitos de análisis y de preguntas. Como dicen Bonal y Tarabini (2008), uno puede
preguntarse, por ejemplo, por qué PISA no incluye el conocimiento artístico o las
habilidades que puede proporcionar para la resolución de problemas. Asimismo, es
obvio que pueden considerarse omisiones de aspectos que pueden ser importantes para
comprender el rendimiento educativo del alumnado y que no se incluyen en el análisis.
Por ejemplo, sabemos que las relaciones en el grupo de pares son fundamentales para
comprender qué hace o no hace un chico de 15 años en la escuela. Sin embargo, nada de
eso se trata en el informe PISA. Coincidimos con estos autores en que la selección de
áreas de conocimiento no es un hecho neutral, sino que obedece a motivaciones no
explícitas y que en todo caso deberían haber sido contrastadas con los objetivos básicos
de la educación de un país, pues entre estos objetivos no figura únicamente ser
competentes en tres áreas de conocimiento, por mucha vinculación que tenga con el
sistema productivo.
En otros casos determinadas variables que pretenden ser predictivas no muestran
relaciones significativas. Santín (2006) analiza cómo el número de profesores o de
ordenadores que tiene una escuela no presentan ninguna influencia en varias pruebas de
conocimiento o cómo ciertas tareas colaborativas pueden facilitar un mejor desempeño
en lectura o cómo la variable sexo incide en lectura y matemáticas. En corto, que las
explicaciones sobre los resultados exigen estar más atentos a la “letra pequeña”.
Por otra parte, PISA ha situado la excelencia educativa como objetivo político
prioritario de los sistemas educativos, muy por delante del objetivo de la equidad, por
ejemplo. Al centrar un volumen importante de variables de análisis en el terreno de la
organización escolar y la pedagogía, PISA comporta que políticamente se construyan
relaciones causales que sitúan en la organización escolar o en la motivación del
profesorado los principales elementos a corregir si se pretende aumentar el rendimiento
educativo del alumnado (sin atender, por ejemplo, al nivel de segregación escolar de los
336
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
grupos sociales o a las posibilidades de formación complementaria en función del
origen social (Bonal y Tarabini, 2008). La consecuencia de todo ello es la globalización
cultural, un requisito de excelencia para la globalización económica en marcha.
5.- CONCLUSIONES
De nuestra reflexión no debe concluirse que no estamos de acuerdo en la
relevancia que potencialmente puede tener una evaluación externa bien diseñada para
cualquier actividad humana, incluida la educación. Sin embargo, sus características
deberían ser muy diferentes según el ámbito en que se aplica. Así, no puede tener el
mismo formato una evaluación externa de un grupo-clase, cuyos resultados tienen un
efecto retroalimentador formativo inmediato, que de un centro educativo o de todo un
sistema educativo, en el que los aspectos curriculares están más alejados. Cada uno de
estos ámbitos requiere unos parámetros diferenciados en los que, por supuesto, está el
denominador común de los aprendizajes reales, pero con una relevancia diferente en
cada contexto. Las pruebas PISA, por su carácter internacional, deberían centrarse en
los indicadores generales de los sistemas educativos, lo que incluye las competencias
básicas, pero otorgándoles un valor estadístico general, junto a las variables culturales y
socio-económicas que a menudo son las que tienen mayor peso en las diferencias
obtenidas. Sin embargo, en la práctica, la única lectura que se hace de las pruebas PISA
son los resultados, exclusivamente en términos de dominio de competencias, a menudo
muy diferentes de los obtenidos mediante las evaluaciones internas. Y aunque la
discrepancia entre evaluación externa e interna puede ser relevante para poner de
manifiesto aspectos no tenidos en cuenta a nivel doméstico, en la práctica se observa
que las discrepancias se deben más a los efectos descontextualizadores del artefacto
intercultural de toda prueba internacional, ya que este tipo de pruebas no tiene en cuenta
la realidad cultural (ej. aspectos lingüísticos), social (ej. políticas inclusivas), curricular
(ej. falta de adecuación de la prueba a la temporización de los contenidos) y actitudinal
(ej. falta de relevancia para el alumnado del contenido de muchas de las tareas
propuestas). Ciertamente, contemplado como herramienta evaluativa, PISA ha tenido el
acierto, frente a otros intentos de evaluación internacional, de no utilizar como objeto de
evaluación el conocimiento escolar, sino las competencias básicas. De este modo, se
elimina parte del problema de los desfases curriculares entre países distintos, pero al
mismo tiempo crea como retroalimentación un potencial efecto homogeneizador nada
recomendable como principio a partir de lecturas simplistas. Por otra parte, PISA podría
ser mucho más útil si profundizara en todas las variables que influyen en los resultados
337
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
de un sistema educativo e incluyera otras competencias de interés educativo que por
ahora han sido relegadas a un segundo plano.
Luego más que demonizar el programa PISA estamos más inclinados en advertir
sobre los potenciales efectos perversos de este tipo de evaluaciones descontextualizadas,
especialmente por las lecturas sesgadas, acríticas y simplificadoras que puedan extraerse
de los resultados. Como sostiene Terhart (2009; 15):
“La gerencia escolar, las escuelas y los profesores obtienen cada vez con mayor frecuencia opiniones
diferenciadas acerca del estado del rendimiento y su efectividad. Este hecho genera un desconcierto y una
negativa, una conducta que a la vista de la percepción tradicional propia de la administración pública
general y de una tradición vocacional en el ámbito escolar es definitivamente comprensible. (…) Mientras
este tipo de opiniones críticas sigan afluyendo únicamente en las listas o clasificaciones, sólo servirá para
promover que disminuya el desarrollo de calidad. Asimismo debería darse por hecho que la comparación
del rendimiento no puede captarse como algo de „toda la escuela‟.
Por todo ello, a nuestro juicio debería eliminarse ese efecto ranking que provoca
a nivel político y periodístico este tipo de evaluaciones internacionales y aprovechar el
caudal de información válida y sustancial que nos aporta para la mejora y progreso de
nuestro sistema educativo. Sabemos que implica desde otro tipo de periodismo hasta
otro tipo de dialéctica política, donde lo constructivo prevalezca sobre el rédito político
de los “buenos o malos” resultados. Mientras tanto, el discurso y la participación de la
academia en los procesos y la diseminación de resultados deben continuar aunando
rigor, contraste y crítica.
BIBLIOGRAFÍA
Acevedo Díaz, J .A. (2005). TIMSS Y PISA. Dos proyectos internacionales de
evaluación del aprendizaje escolar en ciencias. Revista Eureka sobre Enseñanza
y Divulgación de las Ciencias, 2 (3), 282-301.
- (2007). Fundamentos y líneas de trabajo las actitudes relacionadas con la
ciencia y la tecnología en el estudio PISA 2006. Revista Eureka sobre
Enseñanza y Divulgación de las Ciencias, 4 (3), 394-416.
Bonal, X. y Tarabini, A. (2008). Las evaluaciones externas de las políticas educativas
nacionales: causas y efectos. Revista del Forum Europeo de Administradores de
la Educación, 16 (3), 15-19.
338
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
Bonnet, G. (2006). Tener presentes las singularidades lingüísticas y culturales en las
evaluaciones internacionales de las competencias de los alumnos: ¿una nueva
dimensión para PISA? Revista de Educación, extraordinario, 91-109.
Bos, Wilfried & Schwippert, Knut.(2009). TIMSS, PISA, IGLU y demás: razón y
sinrazón de los estudios internacionales de rendimiento escolar. Profesorado.
Revista de currículum y Formación del profesorado, 13 (2).
Bottani, T. (2006). La más bella del reino: el mundo de la educación en alerta con la
llegada de un príncipe encantador. Revista de Educación, extraordinario, 75-90.
Gil Escudero, G. (1997). El Proyecto Internacional para la producción de Indicadores
de Resultados Educativos (Proyecto PISA) de la OCDE. Madrid: Instituto
Nacional de Calidad y Evaluación. Ministerio de Educación y Ciencia.
OCDE (2007). El programa PISA de la OCDE. Qué es y para qué sirve. París:
Organización para la Cooperación y el Desarrollo Económicos. URL:
www.oecd.org/dataoecd/58/51/39730818.pdf.
Sánchez, E. y García-Rodicio, H. (2006). Re-lectura del estudio PISA: Qué y cómo se
evalúa e interpreta el rendimiento de los alumnos en la lectura. Revista de
Educación, extraordinario, 195-226.
Santín, D. (2006). La medición de la eficiencia de las escuelas: una revisión crítica.
Hacienda Pública Española / Revista de Economía Pública, 177-2, 57-82.
Schleicher, A. (2006). Fundamentos y cuestiones políticas subyacentes al desarrollo de
PISA. Revista de Educación, extraordinario, 21-43.
Solano-Flores, Guillermo; Contreras-Niño, Luis Ángel & Backhoff-Escudero, Eduardo.
Traducción y adaptación de pruebas: Lecciones aprendidas y recomendaciones
para países participantes en TIMSS, PISA y otras comparaciones
internacionales. Revista Electrónica de Investigación Educativa, 8 (2).
Terhart, Ewald (2009). ¿Cómo pueden utilizarse los resultados de estudios
comparativos sobre el rendimiento de una manera consecuente para aumentar la
339
TESI, 12 (1), 2011, pp 320-339
Javier Barquín Ruiz, Monsalud Gallardo Gil, Manuel
Fernández Navas, Rafael Yus Ramos, Pilar
Sepúlveda Ruiz y José Serván Núñez.
calidad de las escuelas? Profesorado. Revista de currículum y Formación del
profesorado, 13 (2).
Torres Santomé, J. (2008). Obviando el debate sobre la cultura en el sistema educativo.
Cómo ser competentes sin conocimientos. En Gimeno Sacristán, J. Educar por
competencias. ¿Qué hay de nuevo? Madrid: Morata.
Urteaga, E. (2010). El debate en torno a las encuestas pisa en Francia. Teoría de la
educación. Educación y Cultura en la Sociedad de la información. TESI, 11 (3),
389-405.
Van Petegem, P. & Vanhoof. J. (2005). Feedback of performance indicators: a tool for
school improvement? Flemish case studies as a starting point for constructing a
model for school feedback. REICE - Revista Electrónica Iberoamericana sobre
Calidad, Eficacia y Cambio en Educación. 3 (1). En:
http://www.ice.deusto.es/rinace/reice/vol3n1_e/VanPetegemVanhoof.pdf
Para citar el presente artículo puede utilizar la siguiente referencia:
Barquín Ruiz, J., Gallardo Gil, M., Fernández Navas, M., Yus Ramos, R., Sepúlveda
Ruiz, M. P. y Serván Núñez, M. J. (2011). “Todos queremos ser Finlandia”. Los
efectos secundarios de Pisa, en Hernández Serrano, M. J. y Fuentes Agustí, M.
(Coords.) La red como recurso de información en educación. Revista Teoría de la
Educación: Educación y Cultura en la Sociedad de la Información. Vol. 12, nº 1.
Universidad de Salamanca, pp. 320-339 [Fecha de consulta: dd/mm/aaaa].
http://campus.usal.es/~revistas_trabajo/index.php/revistatesi/article/view/7835/7861
... TALIS, PISA, OCDE, evaluación educativa, evaluaciones internacionales, rendimiento académico, práctica docente, profesorado, investigación, Educación Secundaria ObligatoriaCarabaña, 2015;Sjøberg, 2015;Sánchez & Delgado, 2013;Ferrer, 2012;Pérez & Soto, 2011;Ruiz, Gil, Navas, Ramos, Ruiz & Núñez, 2011;Font, Badia, Alemany, Besora, Gisbert, Arce, Alonso, Seuba, Castilla, Lamo, Valdivia, Villanueva & Boekaerts, 2009;Grek, 2009;Martín & Rizo, 2009;Mortimore, 2009;Neves, 2008;Dohn, 2007;Hernández, 2006;Sánchez & García-Rodicio, 2006). Es indudable que estas macroevaluaciones o evaluaciones a gran escala aportan información relevante y permiten realizar estudios que sobrepasan el ámbito localista más reducido y con menor representatividad, incluso cuando se realizan con muestras a nivel de país, el modo de hacer más común en el ámbito educativo. ...
Article
Full-text available
International educational evaluations on a grand scale provide information of interest to the educational, scientific and political community. Many studies have derived from them, both nationally and internationally. On the other hand, it is well known from the beginning of these macro-assessments the diversity of opinions they have generated. In this context, the aim of the study presented here is to analyse the relationships between the results from PISA 2012 and those relating to teaching practice of secondary TALIS 2013, trying to find out the consistencies and discrepancies between the results of both. Data from TALIS-PISA link have been used. The descriptive analysis carried out taking the overall scores on both evaluations show obvious discrepancies, as countries occupying the top positions in the results of students in PISA are located in the last places in teaching practice of teachers. The analysis also show the lack of the expected coherence. These results lead to reflect on the possible underlying causes and so it is proposed the need for a coordinated design of both evaluation processes.
Article
Full-text available
El programa internacional para el seguimiento de los conocimientos de los alumnos, conocido como PISA (Programme for International Student Assessment), no goza de una buena reputación en Francia. Publicadas cada tres años, sus evaluaciones de los sistemas educativos de los treinta países de la OCDE, y actualmente de otros cincuenta países, son de una calidad metodológica reconocida y resisten a la mayoría de las objeciones que le son dirigidas. No en vano, siguen siendo ampliamente ignoradas en Francia donde se intenta descalificarlas a menudo. La reticencia gala hacia esta encuesta resulta de la clasificación mediana para no decir mediocre en la que sitúa al Hexágono en los tres ámbitos evaluados por PISA: comprensión de lo escrito, matemáticas y cultura científica. Si el nivel educativo sube, las diferencias entre alumnos se incrementan.
Article
Full-text available
El artículo se centra en la conexión entre los estudios comparativos sobre el rendimiento y sus impactos positivos tanto para las escuelas como para las aulas. Tras la exposición del problema (1), se discuten las diferentes estrategias orientadas al desarrollo de la calidad del sistema escolar (2). Para finalizar, se argumenta el punto de partida para el propio desarrollo de la escuela (3). Como conclusión, se argumenta sobre los requisitos de un tipo de investigación específica que establezca una vinculación entre el análisis y la intervención.
Article
Full-text available
En este artículo presentamos un modelo conceptual y una metodología para la revisión de traducciones de pruebas en el contexto de comparaciones internacionales, como es el caso de TIMSS y PISA. También presentamos resultados de una investigación sobre la calidad de la traducción mexicana de TIMSS-1995 a la lengua española. Identificamos errores de traducción en un porcentaje considerable de los ítems, así como correlaciones relativamente altas entre la severidad de los errores de traducción y los valores p de los ítems. Estos hallazgos indican que nuestro sistema de codificación de errores es altamente sensible a los errores de traducción de pruebas. Los resultados ponen de manifiesto la necesidad de mejores procedimientos para traducir y revisar la traducción de pruebas en comparaciones internacionales. En nuestra opinión, para poder implementar apropiadamente los lineamientos para la traducción de pruebas en comparaciones internacionales, cada país participante debe tener procedimientos internos para la revisión rigurosa de sus propias traducciones. El artículo concluye con cuatro recomendaciones para países participantes en comparaciones internacionales. Dichas recomendaciones tienen que ver con: (a) las características del personal a cargo de traducir instrumentos, (b) la revisión durante del proceso de traducción de pruebas (no simplemente al final del mismo), (c) el tiempo mínimo necesario para que tengan lugar varias iteraciones de revisión de la traducción de las pruebas, y (d) la necesidad de documentar adecuadamente todo el proceso de traducción de pruebas.
Article
Treinta años después de que los Estados Unidos tuvieran que vérselas con la llamada "crisis del Sputnik", Alemania ha recibido su contrapartida bajo la forma de la llamada "crisis del TIMSS". A partir de la publicación, a mediados de los años 90, de los primeros resultados de este estudio internacional en las áreas de matemática y ciencias naturales, los alemanes se han visto obligados a reconocer que su nivel de educación es mucho más bajo de lo esperado. La sorpresa fue grande, debido a que hacía años que Alemania no participaba regulamente en estudios internacionales de evaluación a gran escala. Como resultado de la "crisis", se puso un énfasis mucho mayor en la investigación educativa de carácter empírico. Una consecuencia positiva de ello fue que pudo realizarse una investigación más amplia en este campo; otra consecuencia, esta vez negativa, fue que muchas personas comenzaron a hablar acerca de estos estudios sin tener una comprensión adecuada de los mismos. En el presente artículo se pasa brevemente revista a los estudios realizados en Alemania, se reseñan algunas falsas interpretaciones que han cobrado notoriedad y, por último, se señala las perspectivas que pueden esperarse de la investigación futura y la utilización de sus resultados tanto en la investigación como en la práctica.
Article
En: Revista de educación Madrid 2006, número extraordinario ; p. 195-226 Se analizan la evaluación lectora del Programa para la Evaluación Internacional de Alumnos (PISA). Se estudia el sistema de evaluación diseñado en los estudios PISA: la definición y las competencias que deben evaluarse; el sistema con un modelo para la observación; y el modelo para la interpretación. Se destaca que, en el caso de España y según los estudios PISA 2000 y PISA 2003, las conclusiones reflejan la mediocridad y equidad. Asimismo, se reflexiona sobre la necesidad de reanalizar las escalas de estudio de PISA. En este análisis informal el estudio debe ser un estudio sistemático frente a las escalas. Asimismo, se reinterpreta teóricamente el significado de extraer, interpretar y reflexionar. Se tratan las múltiples representaciones; la actividad tiene lugar en distintos niveles; las limitaciones de la memoria; y la memoria y representación. Por otra parte, se examina qué consecuencias se derivan del estudio de PISA y de sus resultados. Se consideran tres apartados: un breve resumen de los estudios PISA, en donde se muestra la lógica interna y los resultados; se representa el reanálisis con algunas reinterpretaciones y una revisión crítica de estos estudios; por último, se extraen las consecuencias que se desprenden de los estudios. Se recogen los datos estudiados en varias tablas, p. 221-222
Article
En: Revista de educación Madrid 2006, número extraordinario ; p. 91-109 Se analizan las dificultades de los objetivos y las metodologías existentes en la evaluación comparativa de las competencias de los alumnos. Se observa, en especial, la puesta en marcha en el Programa para la Evaluación Internacional de Alumnos (PISA). Se destaca el caso concreto de Francia. Se examinan las dificultades lingüísticas y culturales, los límites, y se propone un acercamiento complementario. Este acercamiento se basa en un recurso teorizado y armonizado en los protocolos nacionales de evaluación concebidos en la o las lenguas de los alumnos. Asimismo se puede utilizar como complemento de la metodología existente y permite relativizar los palmarés del país y proporcionar informaciones precisas para cada país, en términos pedagógicos, y no sólo en el campo de los sistemas, p. 108-109
Article
En: Revista de educación Madrid 2006, número extraordinario ; p. 75-90 Se analiza la evolución de las evaluaciones comparadas de rendimientos de los alumnos en diferentes sistemas de enseñanza. Desde el primer organismo, la Asociación Internacional para la Evaluación del Rendimiento Educativo (IEA) hasta la Organización para la Cooperación y el Desarrollo Económico (OCDE). Estos estudios se valen de las encuestas La IEA realiza en 1958 la primera evaluación en Matemáticas. Se identifican los factores que explican los rendimientos de los sistemas educativos y respondan si existe un sistema de enseñanza mejor que otro y cómo definirlo para aprender de los mejores. La IEA demuestra la medición empírica de los resultados en la educación y el aprovechamiento de las conclusiones. Asimismo, la IEA pone en marcha los instrumentos que hacen factible la comparación de datos sobre el rendimiento de los alumnos en sistemas de enseñanza diferentes. En 1993 la OCDE comienza a evaluar con el Programa para la Evaluación Internacional de Alumnos (PISA). Las características del proyecto PISA posee una coherencia diacrónica, se concentra en tres dominios y evalúa niveles de competencia y no de conocimiento curricular concreto, hacen de sus conclusiones una gran influencia sobre las políticas educativas en muchos países, p. 90
Article
En: Revista de educación Madrid 2006, número extraordinario ; p. 21-43 Se analiza el primer objetivo del Programa para la Evaluación Internacional de Alumnos (PISA) en el marco de la Organización para la Cooperación y el Desarrollo Económico (OCDE). El análisis se centra en la calidad de los resultados del aprendizaje, así como la influencia del contexto socio-económico de alumnos y centros y en la equidad en las oportunidades educativas. La evaluación se realiza por medio de tests que recogen información sobre el rendimiento, un cuestionario dirigido a los padres de los alumnos, y un cuestionario de contexto socioeconómico. A continuación se examinan aquellos aspectos del diseño técnico de PISA: la población objeto de estudio según la edad y con una tasa de exclusiones muy baja; el marco de evaluación, inspirado por el concepto de alfabetización introducido por PISA; los instrumentos de evaluación; y el desarrollo de escalas absolutas de rendimiento que permitan interpretar las medidas resultantes en términos políticos. Por último, el debate en los países participantes producen el análisis, caso de Alemania, o la reforma en las políticas educativas, caso de Dinamarca. Se recogen los datos estudiados en varias tablas, p. 43