ArticlePDF Available

Abstract

p class="RESUMENCURSIVA">El presente estudio tiene como objetivo principal analizar la percepción del profesorado universitario en relación a la planificación e innovación de la evaluación. Para ello se ha utilizado un diseño de encuesta utilizando el cuestionario ActEval, 427 docentes han puntuado el grado en el que consideran que las actuaciones relacionadas con la planificación e innovación en evaluación son importantes, la medida en que se sienten competentes para implementarlas y la frecuencia de aplicación. Los resultados muestran que el profesorado considera las actuaciones como muy importantes y se sienten bastante competentes para llevarlas a cabo aunque manifiestan implementarlas en menor medida. Las actuaciones con menor competencia y uso percibido están relacionadas con los medios electrónicos en evaluación, el diseño de instrumentos de evaluación, la coordinación del profesorado, la formación en evaluación y el cambio y mejora de la evaluación. Existen diferencias significativas en función de la experiencia y rama de conocimiento. </p
53
RIE, 2017, 35(1), 53-70
Quesada Serra, V., Rodríguez Gómez, G. e Ibarra Sáez, M.S. (2017). Planicación e innovación de la evaluación en
educación superior: la perspectiva del profesorado. Revista de Investigación Educativa, 35(1), 53-70
DOI: http://dx.doi.org/10.6018/rie.35.1.239261
Planificación e Innovación
de la Evaluación en Educación Superior:
la Perspectiva del Profesorado
Design and Innovation of Assessment in Higher Education:
Lecturers Perspective
Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
Universidad de Cádiz
Resumen
El presente estudio tiene como objetivo principal analizar la percepción del profesorado
universitario en relación a la planificación e innovación de la evaluación. Para ello se ha
utilizado un diseño de encuesta utilizando el cuestionario ActEval, 427 docentes han pun-
tuado el grado en el que consideran que las actuaciones relacionadas con la planificación e
innovación en evaluación son importantes, la medida en que se sienten competentes para
implementarlas y la frecuencia de aplicación. Los resultados muestran que el profesorado
considera las actuaciones como muy importantes y se sienten bastante competentes para
llevarlas a cabo aunque manifiestan implementarlas en menor medida. Las actuaciones con
menor competencia y uso percibido están relacionadas con los medios electrónicos en evalua-
ción, el diseño de instrumentos de evaluación, la coordinación del profesorado, la formación
en evaluación y el cambio y mejora de la evaluación. Existen diferencias significativas en
función de la experiencia y rama de conocimiento.
Palabras clave: educación superior; evaluación; planificación; innovación; profesorado.
Correspondencia: Victoria Quesada Serra, victoria.quesada@uca.es, Área de Métodos de Investigación y
Diagnóstico en Educación, Departamento de Didáctica, Universidad de Cádiz. Facultad de Ciencias de la
Educación, Campus Universitario Río San Pedro, Puerto Real, Cádiz.
54 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
Abstract
The objective of this paper is to analyse the perception of Lecturers about the planning and
innovation of assessment. To do so, a survey research was implemented using the ActEval
questionnaire. 427 lecturers have punctuated the degree in which considered that activities
related to planning and innovation in assessment are important, as they feel competent to
implement them and the frequency of application. Results show that lecturers considered the
tasks related to planning and design and innovations in assessment as very important, they
perceived themselves as competent to implement such practices, however, the implementation
occurred at a slightly lower pace. The assessment tasks that received the lowest ratings in the
importance and competence criterion were related with e-assessment, design of assessment
tools, coordination among lecturers, professional development and training in assessment and
continuous improvement of assessment. Significant differences were found depending on the
years of teaching experience and the field of knowledge.
Keywords: higher education; educational assessment; classroom design; innovation,
lecturers.
Introducción
La evaluación es un elemento educativo con un marcado carácter político (Murillo
& Hidalgo, 2015). Como tal, el proceso evaluativo puede abordarse desde perspectivas
diferentes, a partir de puntos más conservadores en las que el docente tiene el poder
a otras más progresistas en las que este poder se distribuye. No podemos olvidar que
la evaluación y la calificación repercuten en el presente y el futuro del alumnado, y
que sea, por tanto, no solamente uno de los elementos centrales en los que se centra
el alumnado, sino también uno de los aspectos que más inseguridad produce entre el
profesorado (Villardón, 2006).
Para llevar a cabo una evaluación que promueva el aprendizaje del alumnado es
necesario considerarla como un aspecto central en la planificación del proceso de
enseñanza-aprendizaje (Boud, 2010; Quesada, Rodríguez & Ibarra, 2013; Rodríguez-
Gómez, Quesada-Serra & Ibarra-Sáinz, 2016) siendo por tanto un aspecto a planificar y
sistematizar desde el inicio de la planificación docente (Ibarra, 2008; Rodríguez, 2009).
Asimismo, para la mejora de la evaluación se hace imprescindible analizar e introdu-
cir cambios e innovaciones en aras de un equilibrio entre sus dos grandes funciones:
promover el aprendizaje del alumnado y certificar el desarrollo de competencias.
El presente artículo tiene como objetivo analizar la percepción del profesorado
universitario en relación a la evaluación para el aprendizaje, más concretamente sobre
la importancia, competencia y uso percibido de una serie de actuaciones relacionadas
con la planificación de la evaluación y la innovación en evaluación.
La importancia de planificar la evaluación
La planificación de la evaluación puede entenderse como el diseño de un programa
de actuación para alcanzar unos objetivos prefijados. Implica una reflexión sobre aquellos
aspectos que se van a evaluar y la forma en la que se llevará a cabo el proceso evaluativo.
55
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
A través de la planificación de la evaluación se facilita la alineación de los diferentes
elementos, localizando y subsanando posibles incoherencias. También facilita la ges-
tión de la carga de trabajo –tanto del profesorado como del alumnado– a la vez que
favorece el seguimiento de todo el proceso, permitiendo, como indica Zabalza (2010)
una mayor coordinación global.
Si bien existen diferentes formas de diseñar y planificar la evaluación, una forma
sencilla de hacerlo es a través de los procedimientos de evaluación. Tal y como seña-
lan Rodríguez e Ibarra (2011) los procedimientos de evaluación recogen la lógica del
proceso a seguir, especificando las tareas a realizar para conocer y valorar el desarrollo
competencial del alumnado.
Si bien pueden darse diversos grados de complejidad a la hora de planificar la eva-
luación de un curso, una asignatura o un módulo, es imprescindible que ésta tenga un
carácter flexible, que sirva de apoyo durante todo el proceso de enseñanza-aprendizaje
y que como mínimo dé respuesta a las siguientes preguntas:
• ¿Quéevaluar?
• ¿Cómoevaluar?
• ¿Cuándoevaluar?
Especificando y detallando estas tres preguntas, en la Figura 1 se aprecian los elemen-
tos a considerar en la planificación de la evaluación: a) Las competencias a desarrollar;
b) Los resultados de aprendizaje; c) Las tareas de evaluación, su tipología –en función
del tipo de aprendizaje que queremos desarrollar– y su modalidad –grupal o individual
y si se llevará a cabo de forma virtual o analógica–; d) Los criterios e instrumentos
de evaluación que queremos utilizar; e) La modalidad de evaluación –participativa o
no participativa–, f) El contexto en el que se llevará a cabo –digital o analógico–, así
como g) La información que se ofrecerá durante y/o después de la evaluación, si se
brindará una calificación y/o retroalimentación, y en este caso valorar qué función va
a tener esta retroalimentación –retrospectiva o prospectiva (en la retroalimentación
prospectiva se ofrece información cuando el alumnado todavía puede actuar y mejorar
su desempeño)–.
La forma en la que decidamos llevar a cabo cada uno de los elementos a planificar
condicionará considerablemente el proceso, pues, por ejemplo si planificamos una
evaluación electrónica, se deberán considerar unos aspectos específicos que no estarán
presentes en una evaluación analógica. Del mismo modo, es importante recordar que
la elección de cada uno de los elementos afectará al resto, por tanto es esencial llevar
a cabo una planificación integrada y coherente, siendo fundamental la alineación entre
los diferentes elementos (Biggs, 1999; Quesada et al., 2013; Rodríguez-Gómez et al.,
2016) arriba mencionados. De hecho, de no existir una buena alineación entre ellos,
podrían producirse incoherencias en el proceso; el desarrollo de prácticas contrarias
a las deseadas (Biggs, 1999) e insatisfacción de los agentes implicados –profesorado
y alumnado–.
56 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017,35(1), #-#
recordar que la elección de cada uno de los elementos afectará al resto, por tanto es
esencial llevar a cabo una planificación integrada y coherente, siendo fundamental la
alineación entre los diferentes elementos (Biggs, 1999; Quesada et al., 2013;
Rodríguez-Gómez et al., 2016) arriba mencionados. De hecho, de no existir una buena
alineación entre ellos, podrían producirse incoherencias en el proceso; el desarrollo
de prácticas contrarias a las deseadas (Biggs, 1999) e insatisfacción de los agentes
implicados profesorado y alumnado–.
Figura 1.
Elementos a considerar en la planificación del proceso de enseñanza-aprendizaje,
partiendo de la evaluación.
La innovación en evaluación
La innovación se entiende como la puesta en práctica y extensión de prácticas
educativas mejoradas (Kezar, 2011).
La innovación y el cambio en los sistemas educativos se ha convertido en una
necesidad, necesidad que es todavía más imperiosa en educación superior. Diferentes
autores (Hanna, 2002; Tomás & Castro, 2011) defienden que la universidad necesita
cambiar en todos los niveles de la organización si pretende sobrevivir y prosperar en
el nuevo “mercado educativo”. En este sentido urge no solamente la necesidad de
Figura 1. Elementos a considerar en la planificación del proceso de enseñanza-aprendizaje,
partiendo de la evaluación.
La innovación en evaluación
La innovación se entiende como la puesta en práctica y extensión de prácticas
educativas mejoradas (Kezar, 2011).
La innovación y el cambio en los sistemas educativos se ha convertido en una
necesidad, necesidad que es todavía más imperiosa en educación superior. Diferentes
autores (Hanna, 2002; Tomás & Castro, 2011) defienden que la universidad necesita
cambiar en todos los niveles de la organización si pretende sobrevivir y prosperar en
el nuevo “mercado educativo”. En este sentido urge no solamente la necesidad de
cambio sino sobre todo una mayor difusión de los cambios e innovaciones exitosas
existentes y su comunicación a los agentes interesados.
Actualmente, la palabra innovación tiene gran presencia en todas las universi-
dades, tanto a nivel nacional como internacional; se realizan numerosos congresos
y publicaciones entorno a la innovación en educación superior (Véase Hanaue &
Baurele, 2012, Martín & Ruiz, 2005; Tomas & Castro, 2011; Zhu & Engels, 2014).
Asimismo, en cuanto a la evaluación se refiere, podemos encontrar cuantiosas
57
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
experiencias innovadoras en diferentes ramas de conocimiento (Véase Grupo de
investigación EVALfor, 2011a; 2011b; 2011c; Mingorance & Calvo, 2013; Perrota, 2014).
Para que la implantación de prácticas educativas mejoradas o innovaciones tengan
efecto, es necesario que éstas sean sostenibles y continuas; las experiencias puntuales,
como circunstanciales que son, si bien pueden ser necesarias y relevantes, no producen
efectos positivos a largo plazo.
Análogamente, para el enriquecimiento y extensión de dichas prácticas es impor-
tante la comunicación, colaboración y coordinación entre el profesorado. Tal y como
indican López, Pérez-García y Rodríguez (2015) el escenario de convergencia europeo
en el que estamos “invita, inexcusablemente, al intercambio docente, al establecimiento
de compromisos conjuntos y al trabajo interdisciplinar en todo lo relativo al diseño,
desarrollo y evaluación curricular”(p.184), para que dicha colaboración se lleve a cabo
no obstante, es primario un cambio de la cultura (Hargreaves, 1997; Miller, 1998)
existente en nuestras universidades, es suficiente con revisar las prácticas dentro de
los propios departamentos para entender que, en cuanto a docencia y evaluación se
refiere, sigue predominando el individualismo (Quesada et al., 2013) frente a otras
opciones colaborativas más deseables.
Metodología
Objetivos y cuestiones de investigación
Las preguntas de investigación que guiaron nuestro estudio fueron:
1. ¿Cuáleslaimportanciaqueotorgaelprofesoradouniversitarioalasactuaciones
relacionadasconlaplanificacióneinnovaciónenevaluación?
2. ¿Cuáleslacompetenciapercibidaenrelaciónalascitadastareas?
3. ¿Enquémedidaponenenprácticaestasactuacionesenlaprácticadocente?
4. ¿Existendiferenciasenlaimportancia,competenciayusopercibidoenfunción
delaramadeconocimientoylosañosdeexperienciacomodocentes?
Siguiendo estas preguntas de investigación, el objetivo que persigue este estudio
es conocer la percepción del profesorado universitario en relación a la importancia,
competencia y utilización de actuaciones relativas a la planificación e innovación de
la evaluación.
Diseño de investigación y muestra
Con el fin de alcanzar el objetivo arriba mencionado se ha realizado un estudio
descriptivo de encuesta a través de cuestionario en el que han participado 427 docentes
de 18 universidades españolas.
La muestra presenta un número similar de hombres (49.41%) y mujeres (50.59%).
Como se aprecia en la Tabla 1 han participado profesores de todas las ramas de
58 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
conocimiento, siendo la más numerosa la rama de Ciencias Sociales y Jurídicas; en
relación a experiencia laboral es de destacar que más de la mitad de los participantes
tienen una experiencia docente superior a los 10 años.
Tabla 1
Distribución de la muestra
Años de experiencia laboral
TotalEntre 1 y 5 Entre 6 y 10 > de 10
Rama de
conocimiento
Arte y Humanidades 19 7 39 65
Ciencias 5 2 49 56
Ciencias de la Salud 16 10 39 65
Ciencias Sociales y Jurídicas 41 26 122 189
Ingeniería y arquitectura 7 8 37 52
Total 88 53 286 427
Instrumentación
El instrumento utilizado para la recogida de información fue ActEval ‘Autoinforme
para la actividad evaluadora del profesorado universitario’ (Quesada et al., 2013).
El auto-informe consta de 31 ítems, que pueden distribuirse en 4 dimensiones: a)
Planificación de la evaluación, b) Seguimiento del aprendizaje de los estudiantes, c)
Participación de los estudiantes en la evaluación y d) Cambio, mejora e innovación en
la evaluación. Estos ítems o actuaciones de evaluación están estrechamente ligadas con
el marco de la evaluación electrónica orientada al aprendizaje (Gómez, Rodríguez &
Ibarra, 2013; Rodríguez et al., 2009; Rodríguez-Gómez et al., 2016).
El cuestionario consta de una escala comprendida del 1 al 6, siendo 1 ninguna y 6
totalmente.
El instrumento elegido había sido sometido a una validez aparente y de contenido
(Quesada et al., 2013), así como a una validez empírica (Biencinto, Carpintero, Núñez
& García, 2013), presentando una consistencia interna (alfa de Cronbrach) superior a
0.93 en cada dimensión.
Procedimiento
El cuestionario se aplicó de forma electrónica utilizando la plataforma Survey
Monkey. Para ello se utilizaron dos formas de recoger información: a) por una parte,
se envió el enlace al cuestionario a los investigadores de las nueve universidades que
participaban en el proyecto, quienes contactaron con profesores de sus respectivas
universidades de forma aleatoria, teniendo como criterio de selección la variedad en
la rama de conocimiento y la diversidad en experiencia laboral, b) por otra parte, el
59
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
cuestionario se aplicó al profesorado universitario participante en un curso de “evalua-
ción para el aprendizaje en educación superior”, realizado en diversas universidades
españolas. En estos casos el cuestionario se aplicaba antes del inicio del curso.
Análisis de datos
Los datos recogidos se han analizado de forma descriptiva, presentándose la media,
desviación típica y frecuencia de los ítems; así como un análisis no paramétrico (Test de
Kruskal-Wallis) para analizar si existen diferencias significativas entre los participantes
en función de la rama de conocimiento y años de experiencia docente, y calculando el
tamaño del efecto (A de Delaney).
Resultados
En un primer momento se presentan los resultados descriptivos obtenidos en las
dimensiones ‘Planificación de la evaluación’ e ‘Innovación y mejora’. Finalmente se
muestran las diferencias obtenidas en función de la rama de conocimiento y experien-
cia docente.
Diseño y planificación del proceso de evaluación
A la luz de los resultados obtenidos se puede indicar que el profesorado consideró
muy importante los ítems relacionados con el “Diseño y planificación de la evalua-
ción”, las puntuaciones obtenidas en el criterio importancia se sitúan alrededor de
los 5 puntos en una escala del 1 al 6. La competencia y el uso percibido, no obstante,
recibe puntuaciones menores, si bien siguen siendo, en general, relativamente elevadas
(alrededor de los 4 puntos).
Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017,35(1), #-#
Figura 2. Media por criterio de la dimensión “Diseño y planificación del proceso de evaluación”
Tabla 2
Media y desviación típica por ítem y criterio de la dimensión “Diseño y planificación de la evaluación”.
Ítem
Importancia
Competencia
Utilización
DT
M
DT
M
DT
1
Diseñar sistemas y procedimientos de evaluación
(determinar qué, cómo y cuándo se evaluará, así
como otras especificaciones necesarias para llevar
a cabo la evaluación: criterios, actuaciones,
instrumentos, etc.)
0.8
4
0.9
4.2
1.1
8
Utilizar procedimientos y técnicas de evaluación
coherentes con los diferentes métodos y
modalidades de enseñanza universitaria
0.8
3.9
1
3.9
1.2
9
Definir y dar a conocer los objetivos, estándares y
criterios de la evaluación
0.8
4.6
1.1
4.7
1.2
15
Relacionar y adecuar el sistema de evaluación con
las competencias y objetivos de la materia.
0.8
4.1
1.1
4.2
1.2
18
Construir instrumentos de evaluación
1.1
3.5
1.2
3.4
1.3
19
Adaptar la evaluación a contextos de aprendizaje
en los que se utilice medios electrónicos (semi-
presencial/ blended-learning, no-presencial/e-
learning)
1.2
3.2
1.4
2.8
1.4
20
Considerar la evaluación de forma integrada en el
proceso de enseñanza aprendizaje
0.8
4
1.1
4
1.3
25
Dar a conocer el procedimiento de calificación
0.9
4.7
1.1
4.9
1.1
31
Utilizar las plataformas y herramientas
tecnológicas en el proceso de evaluación (Como
Moodle, LAMS, etc.)
1.1
3.5
1.4
3.1
1.6
Figura 2. Media por criterio de la dimensión
“Diseño y planificación del proceso de evaluación”
60 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
Tabla 2
Media y desviación típica por ítem y criterio de la dimensión “Diseño y planificación de la evaluación”.
Ítem Importancia Competencia Utilización
M DT M DT M DT
1Diseñar sistemas y procedimientos de
evaluación (determinar qué, cómo y cuándo
seevaluará,asícomootrasespecicaciones
necesarias para llevar a cabo la evaluación:
criterios, actuaciones, instrumentos, etc.)
5.2 0.8 4 0.9 4.2 1.1
8Utilizar procedimientos y técnicas de
evaluación coherentes con los diferentes
métodos y modalidades de enseñanza
universitaria
5.1 0.8 3.9 1 3.9 1.2
9Denirydaraconocerlosobjetivos,
estándares y criterios de la evaluación 5.4 0.8 4.6 1.1 4.7 1.2
15 Relacionar y adecuar el sistema de
evaluación con las competencias y objetivos
de la materia.
5.3 0.8 4.1 1.1 4.2 1.2
18 Construir instrumentos de evaluación 4.6 1.1 3.5 1.2 3.4 1.3
19 Adaptar la evaluación a contextos de
aprendizaje en los que se utilice medios
electrónicos (semi-presencial/ blended-
learning, no-presencial/e-learning)
4.4 1.2 3.2 1.4 2.8 1.4
20 Considerar la evaluación de forma integrada
en el proceso de enseñanza aprendizaje 5.2 0.8 4 1.1 4 1.3
25 Dar a conocer el procedimiento de
calicación
5.3 0.9 4.7 1.1 4.9 1.1
31 Utilizar las plataformas y herramientas
tecnológicas en el proceso de evaluación
(Como Moodle, LAMS, etc.)
4.4 1.1 3.5 1.4 3.1 1.6
Como puede apreciarse claramente en la Figura 2 y Tabla 2 los ítems que han
obtenido una mayor puntuación en los criterios importancia, competencia y uso son
aquellos referentes a la difusión y comunicación de los aspectos relativos al proceso de
evaluación: “Definir y dar a conocer los objetivos, estándares y criterios de evaluación”
(ítem 9) y “Dar a conocer el procedimiento de evaluación” (ítem 25). Un 60.9% del
profesorado manifestó que siempre o a menudo definen y dan a conocer los objetivos,
estándares y criterios de evaluación y un 67.9% declara que siempre o casi siempre
dan a conocer el procedimiento de calificación a sus estudiantes.
Es interesante destacar que la proporción de profesorado que declara implementar
estas dos tareas es más elevada que el porcentaje que expresa sentirse muy/totalmente
competente para implementarlas (Figura 3). Esto es fácilmente entendible debido a
la obligación de publicar y comunicar los objetivos de los módulos, los criterios de
evaluación, las tareas de evaluación, así como el procedimiento de calificación antes
del inicio del curso.
61
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
Planificación e Innovación de la Evaluación en Educación Superior: la perspectiva del Profesorado
RIE, 2017,35(1), #-#
Como puede apreciarse claramente en la Figura 2 y Tabla 2 los ítems que han
obtenido una mayor puntuación en los criterios importancia, competencia y uso son
aquellos referentes a la difusión y comunicación de los aspectos relativos al proceso
de evaluación: “Definir y dar a conocer los objetivos, estándares y criterios de
evaluación” (ítem 9) y “Dar a conocer el procedimiento de evaluación” (ítem 25). Un
60.9% del profesorado manifestó que siempre o a menudo definen y dan a conocer
los objetivos, estándares y criterios de evaluación y un 67.9% declara que siempre o
casi siempre dan a conocer el procedimiento de calificación a sus estudiantes.
Figura 3. Frecuencia por ítem y criterio de la Dimensión 1.
Es interesante destacar que la proporción de profesorado que declara
implementar estas dos tareas es más elevada que el porcentaje que expresa sentirse
muy/totalmente competente para implementarlas (Figura 3). Esto es fácilmente
entendible debido a la obligación de publicar y comunicar los objetivos de los
módulos, los criterios de evaluación, las tareas de evaluación, así como el
procedimiento de calificación antes del inicio del curso.
En el lado opuesto, las actuaciones de evaluación con una menor puntuación
media en importancia, competencia y uso percibidos son:
“Adaptar la evaluación a contextos de aprendizaje en los que se utilicen
medios electrónicos” (ítem 19)
“Utilizar plataformas y herramientas tecnológicas en el proceso de evaluación”
(ítem 31)
“Construir instrumentos de evaluación” (ítem 18)
Si bien los ítems relativos al uso de tecnologías o entornos virtuales de
aprendizaje- ítem 19 y 31-, a los que hemos hecho referencia, son los dos que reciben
la menor puntuación media por criterio en esta dimensión, se puede apreciar que las
puntuaciones obtenidas en el criterio importancia son relativamente elevadas
(puntuación media en torno a 4.5 puntos), siendo considerados importantes por la
Figura 3. Frecuencia por ítem y criterio de la Dimensión 1
En el lado opuesto, las actuaciones de evaluación con una menor puntuación media
en importancia, competencia y uso percibidos son:
• “Adaptarlaevaluaciónacontextosdeaprendizajeenlosqueseutilicenmedios
electrónicos” (ítem 19)
• “Utilizarplataformasyherramientastecnológicasenelprocesodeevaluación”
(ítem 31)
• “Construirinstrumentosdeevaluación”(ítem18)
Si bien los ítems relativos al uso de tecnologías o entornos virtuales de aprendizaje-
ítem 19 y 31, a los que hemos hecho referencia, son los dos que reciben la menor pun-
tuación media por criterio en esta dimensión, se puede apreciar que las puntuaciones
obtenidas en el criterio importancia son relativamente elevadas (puntuación media en
torno a 4.5 puntos), siendo considerados importantes por la mayoría de los encues-
tados: más de la mitad del profesorado encuestado (51%) consideró muy importante
adaptar la evaluación a contextos de aprendizaje en los que se usen medios electrónicos
(ítem 19) y casi la mitad del profesorado (49.1%) otorgó mucha importancia al uso de
plataformas tecnológicas, siendo una minoría, el 5.9% y el 5.4% respectivamente, el
profesorado que consideró estos ítems como nada importantes.
Situación diferente es la que se registra en la competencia percibida, en la que
tan solo un 19.9% de los encuestados manifestó sentirse capacitado para adaptar la
evaluación a contextos de aprendizaje en el que se usen medios electrónicos (ítem
19), expresando el 31% de encuestados no sentirse hábiles para implementar esta
tarea. Puntuaciones similares son registradas en el ítem 31; una cuarta parte de los
docentes encuestados (25.3%) declararon sentirse capacitados para usar plataformas
y herramientas tecnológicas en el proceso de evaluación, siendo un porcentaje similar
(20.35%) los que marcaron no sentirse capacitados para implementar esta actuación
evaluativa.
62 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
En línea con estos resultados, casi la mitad del profesorado participante (48.7%)
manifestó que nunca o en raras ocasiones adaptan la evaluación a contextos de apren-
dizaje en los que se utilizan medios electrónicos (ítem 19). Del mismo modo tampoco
parecen ser utilizadas con asiduidad herramientas electrónicas en la evaluación, un
37% declaró que nunca o casi nunca las utiliza, frente a un 21.6% que las utiliza a
menudo o siempre.
En cuanto al ítem 18 “Construir instrumentos de evaluación” como son las rúbricas
o las escalas de estimación, un 54% del profesorado lo consideró como muy importante,
siendo una minoría (3.5%) los que puntuaron como nada importante; alrededor de una
quinta parte (19.6%) manifestó sentirse capacitado para implementar esta tarea, mientras
que una proporción similar (23.3%) marcó no sentirse competente para implementar
este tipo de actuaciones evaluativas. Siendo su uso relativamente bajo -un 20.6% del
profesorado participante reveló que siempre o a menudo las utiliza, una proporción
mayor (26%) manifestó que nunca o raramente lo hace (el 53.4% restante puntuaron
3 o 4 en la escala de 1 a 6).
Innovación y mejora de la evaluación
Los ítems englobados en la dimensión “Mejora e innovación de la evaluación” reci-
ben puntuaciones homogéneas (Figura 4 y Tabla 3), puntuaciones relativamente altas
(entorno a los 4 puntos) aunque ligeramente inferiores a las obtenidas en “Planificación
y diseño de la evaluación”.
Planificación e Innovación de la Evaluación en Educación Superior: la perspectiva del Profesorado
RIE, 2017,35(1), #-#
Figura 4. Media por ítem y criterio de la dimensión “Innovación y mejora de la evaluación”
Tabla 3
Media y desviación típica por ítem y criterio de la dimensión “Innovación y mejora de la evaluación”.
Ítem
Importancia
Competencia
Utilización
M
DT
M
DT
M
DT
5
Introducir mejoras en los procesos de
evaluación sobre la base del
seguimiento de los mismos
4.8
0.9
3.7
1.1
3.6
1.2
6
Introducir innovaciones en actividad
evaluadora
4.6
1.1
3.7
1.1
3.5
1.2
7
Actualizar los conocimientos sobre
evaluación del aprendizaje
4.7
1
3.5
1.1
3.3
1.2
24
Analizar críticamente la información
derivada de los procesos de evaluación
4.9
0.9
3.9
1.1
3.9
1.3
30
Favorecer la colaboración y
coordinación entre el profesorado en
los procesos de evaluación
4.8
1.0
3.6
1.3
3.2
1.5
“Analizar críticamente la información derivada de los procesos de evaluación”
(ítem 24) es el ítem más valorado en esta dimensión en los tres criterios, si bien existe
una notable diferencia entre las puntuaciones obtenidas entre el criterio importancia
y los de competencia y utilización. La mayoría del profesorado (70%) lo consideró
muy importante, el 29% se consideró muy competente al respecto y el 33% de ellos
indicó que siempre o frecuentemente analizan críticamente la información derivada
de los procesos de evaluación. No obstante, debido a la importancia de la actuación
Figura 4. Media por ítem y criterio de la dimensión
“Innovación y mejora de la evaluación”
Analizar críticamente la información derivada de los procesos de evaluación”
(ítem 24) es el ítem más valorado en esta dimensión en los tres criterios, si bien existe
una notable diferencia entre las puntuaciones obtenidas entre el criterio importancia
y los de competencia y utilización. La mayoría del profesorado (70%) lo consideró
muy importante, el 29% se consideró muy competente al respecto y el 33% de ellos
63
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
indicó que siempre o frecuentemente analizan críticamente la información derivada
de los procesos de evaluación. No obstante, debido a la importancia de la actuación
es inquietante que un 14.52% de los encuestados indicara que nunca analiza crítica-
mente la información derivada de los procesos de evaluación.
Tabla 3
Media y desviación típica por ítem y criterio de la dimensión “Innovación y mejora de la evaluación”.
Ítem Importancia Competencia Utilización
M DT M DT M DT
5
Introducir mejoras en los procesos
de evaluación sobre la base del
seguimiento de los mismos
4.8 0.9 3.7 1.1 3.6 1.2
6Introducir innovaciones en actividad
evaluadora 4.6 1.1 3.7 1.1 3.5 1.2
7Actualizar los conocimientos sobre
evaluación del aprendizaje 4.7 1 3.5 1.1 3.3 1.2
24
Analizar críticamente la información
derivada de los procesos de
evaluación
4.9 0.9 3.9 1.1 3.9 1.3
30
Favorecer la colaboración y
coordinación entre el profesorado en
los procesos de evaluación
4.8 1.0 3.6 1.3 3.2 1.5
Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017,35(1), #-#
es inquietante que un 14.52% de los encuestados indicara que nunca analiza
críticamente la información derivada de los procesos de evaluación.
Figura 5. Frecuencia por ítem y criterio de la dimensión “Innovación y mejora de la evaluación.
Si bien introducir mejoras (ítem 5) e innovaciones (ítem 6) en la evaluación son
consideradas como muy importantes por una alta proporción del profesorado
(67.45% y 56.21%), son pocos los que se consideran altamente capacitados para ello
(24.59% y 23.89%) y menos los que finalmente lo hacen a menudo (23.19% y 22.25%).
“Actualizar los conocimientos sobre evaluación del aprendizaje” (ítem 7) es
también considerada muy importante por la mayor parte del profesorado,
obteniéndose puntuaciones medias en la competencia y uso. Una cuarta parte del
profesorado (23.42%) manifestó que nunca o pocas veces actualizan sus
conocimientos sobre evaluación del aprendizaje, expresando el 17.10% que lo hacen
con frecuencia.
Por último, la gran mayoría del profesorado (67.68%) consideró de gran
importancia “Favorecer la colaboración y coordinación entre el profesorado en los
procesos de evaluación” (ítem 30), siendo menos (24.59%) los que marcaron sentirse
capaces de hacerlo y los que realmente indicaron que favorecen la colaboración y
coordinación con sus compañeros (20.84%); de hecho, algo más de un tercio de los
encuestados (36.63%) reveló no hacerlo nunca.
Diferencias en función de la Rama de Conocimiento y Experiencia Laboral
En la Tabla 4 se presentan las diferencias significativas obtenidas en la puntuación
media por ítem en función de la rama de conocimiento y experiencia laboral. En
aquellos casos en los que se ha detectado una diferencia significativa (p<.05) se ha
calculado el tamaño del efecto para valorar el tamaño de estas diferencias.
Figura 5. Frecuencia por ítem y criterio de la dimensión
“Innovación y mejora de la evaluación.
Si bien introducir mejoras (ítem 5) e innovaciones (ítem 6) en la evaluación
son consideradas como muy importantes por una alta proporción del profesorado
64 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
(67.45% y 56.21%), son pocos los que se consideran altamente capacitados para ello
(24.59% y 23.89%) y menos los que finalmente lo hacen a menudo (23.19% y 22.25%).
Actualizar los conocimientos sobre evaluación del aprendizaje” (ítem 7) es también
considerada muy importante por la mayor parte del profesorado, obteniéndose pun-
tuaciones medias en la competencia y uso. Una cuarta parte del profesorado (23.42%)
manifestó que nunca o pocas veces actualizan sus conocimientos sobre evaluación del
aprendizaje, expresando el 17.10% que lo hacen con frecuencia.
Por último, la gran mayoría del profesorado (67.68%) consideró de gran importan-
cia “Favorecer la colaboración y coordinación entre el profesorado en los procesos de
evaluación” (ítem 30), siendo menos (24.59%) los que marcaron sentirse capaces de
hacerlo y los que realmente indicaron que favorecen la colaboración y coordinación
con sus compañeros (20.84%); de hecho, algo más de un tercio de los encuestados
(36.63%) reveló no hacerlo nunca.
Diferencias en función de la Rama de Conocimiento y Experiencia Laboral
En la Tabla 4 se presentan las diferencias significativas obtenidas en la puntuación
media por ítem en función de la rama de conocimiento y experiencia laboral. En aquellos
casos en los que se ha detectado una diferencia significativa (p<.05) se ha calculado el
tamaño del efecto para valorar el tamaño de estas diferencias.
Tabla 4
Diferencias significativas (Test de Kruskal-wallis) y tamaño del efecto (A de Delaney) por ítem y criterio
[Importancia (I), Competencia (C) y Utilización (U)] en Rama de Conocimiento y experiencia laboral.
Ítem Rama de conocimiento Años de experiencia
P A P A
Categoría 1. Diseño y planicación del proceso de evaluación
10.031 (I) 0.55(I) 0.000 (C) 0.59 (C)
8- - - -
9- - 0.013(I) 0.56(I)
15 0.011 (I) 0.55(I)
18 - - 0.013 (I) 0.56 (I)
20 - - 0.007 (C); 0.001(C) .57(C); 0.56(U)
25 - - 0.010(C) 0.58(C)
31 0.000(C); 0.029(U) 0.57(C); 0.55(U) - -
Categoría 4. Innovación y mejora de la evaluación
5- - 0.000(C); 0.002(U) 0.59(C);0.57(U)
6- - 0.002(C); 0.001(U) 0.57(C); 0.58(U)
7- - - -
24 0.010(I) 0.55(I) 0.001(C); 0.046(U) 0.59(C); 0.55(U)
30 0.000(C) 0.57(C) 0.000(C); 0.007(U) 0.58(C); 0.56(U)
En cuanto a la rama de conocimiento, podemos ver que existen algunas diferencias
en ambas dimensiones. En la dimensión “Diseño y planificación de la evaluación”
65
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
existen diferencias significativas en la importancia del ítem 1 “Diseñar sistemas y pro-
cedimientos de evaluación” y 15 “Relacionar y adecuar el sistema de evaluación con las
competencias y objetivos de la materia”; en ambos casos el profesorado de Ingeniería
y Arquitectura otorgó puntuaciones más elevadas que el profesorado de otras ramas.
Del mismo modo existen diferencias en la competencia y uso percibido del ítem 31
“Utilizar las plataformas y herramientas tecnológicas en el proceso de evaluación”, el
profesorado de Ciencias Sociales y Jurídicas e Ingeniería y Arquitectura otorgó una
mayor puntuación en el criterio ‘competencia’ y ‘utilización’, en cambio el profesorado
de Arte y Humanidades, Ciencias y Ciencias de la salud fueron los que otorgaron una
menor puntuación.
La dimensión “Innovación y mejora de la evaluación” presenta diferencias sig-
nificativas en dos ítems: ítem 24 “Analizar críticamente la información derivada de
los procesos de evaluación”, otorgando mayor importancia el profesorado de Arte
y Humanidades e Ingeniería y arquitectura; y el ítem 30 “Favorecer la colaboración
y coordinación entre el profesorado en los procesos de evaluación”, en este caso, el
profesorado de Arte y Humanidades concedió puntuaciones menores en el criterio
competencia y uso, siendo, de nuevo, el profesorado de Ingeniería y Arquitectura,
y también el de Ciencias los que realizan un mayor uso percibido de esta actuación.
Existen también diferencias notables en las puntuaciones obtenidas en función de la
experiencia del profesorado encuestado (Tabla 4). En cuanto al “Diseño y planificación
de la evaluación” se encuentran diferencias significativas en cinco de los nueve ítems
de la dimensión: los ítems 1 “Diseñar sistemas y procedimientos de evaluación”, 9
“Definir y dar a conocer los objetivos, estándares y criterios de la evaluación” y 25 “Dar
a conocer el procedimiento de calificación” presentan una diferencia con un tamaño
del efecto medio en el criterio competencia; el ítem 18 “Construir instrumentos de eva-
luación” en la importancia y el ítem 20 “Considerar la evaluación de forma integrada
en el proceso de enseñanza aprendizaje” en competencia y utilización.
La experiencia de los docentes encuestados es una variable que afecta a la impor-
tancia, competencia y uso percibidos de la innovación y mejora de la evaluación, exis-
tiendo diferencias significativas con un tamaño del efecto mediano en los tres criterios
de cuatro de los cinco ítems (5, 6, 24, 30) que componen la dimensión.
En líneas generales el profesorado con menos años de experiencia, y por tanto,
presumiblemente más joven, otorgó puntuaciones mayores en el criterio importancia.
En cambio, el profesorado con mayor experiencia laboral se siente más competente y
manifestó utilizar en mayor medida las actuaciones descritas en los ítems.
Vargha y Delaney (2000, p.106) proponen tres niveles (pequeño, medio y grande)
para interpretar la magnitud o tamaño del efecto. En este estudio los valores obtenidos
al calcular la A de Delaney fueron de nivel medio (Tabla 4). En este sentido, Bono y
Arnau (1995, p.196) consideran que este nivel medio supone que son efectos que “el
observador cuidadoso puede observar directamente”
Discusión y conclusiones
Tras la exposición de los resultados obtenidos pretendemos aquí dar respuesta a
las cuestiones de investigación planteadas.
66 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
El profesorado encuestado ha considerado muy importante los ítems incluidos en la
planificación y diseño de la evaluación, así como la innovación y mejora de la evaluación.
En relación a la competencia percibida del profesorado, ha quedado de manifiesto
que es similar en las dos dimensiones (planificación de la evaluación e innovación
en evaluación). El profesorado encuestado se ha sentido muy capacitado para dar a
conocer al alumnado información relativa a la evaluación, como son los objetivos de
la misma, los estándares, los criterios de evaluación y el procedimiento de califica-
ción, también han expresado sentirse capaces de diseñar sistemas y procedimientos
de evaluación. Por otra parte, se han detectado algunos puntos y áreas en las que el
profesorado indicó sentirse menos competente y que suponen puntos en los que se
debería trabajar, estos coinciden con aquellas actuaciones de evaluación menos utili-
zadas por el profesorado, y son:
Diseño y construcción de instrumentos para la evaluación del aprendizaje, con
sus respectivos criterios e indicadores de evaluación, como son listas de control,
escala de valoración o rúbricas.
Uso de herramientas y medios electrónicos para favorecer la evaluación. Si bien
nuestras universidades están altamente equipadas tecnológicamente, se sigue
llevando a cabo en su gran mayoría una evaluación analógica, el profesorado
encuestado no se siente capaz de llevar a cabo una evaluación electrónica o
digital o usar software o herramientas para facilitar la evaluación.
Mejorar e innovar en la evaluación que se lleva a cabo sigue siendo una tarea
pendiente.
Formarse en evaluación.
Colaborar y coordinarse con el resto de profesorado. Aunque se trata de una
tarea muy importante –y el profesorado encuestado lo consideró como tal– es
todavía complicado para el profesorado coordinar y trabajar cooperativamente en
la universidad, siendo una actividad que puede hacerse todavía más complicada
con la actual carga docente.
Por último, destacar que se han detectado diferencias notables en las puntuaciones
obtenidas en función de los años de experiencia del profesorado encuestado, existiendo
también diferencias en determinados ítems en función de la rama de conocimiento.
Se ha podido apreciar que el profesorado con menor experiencia laboral otorga más
importancia a las actuaciones de evaluación, especialmente a aquellas relacionadas
con la innovación y mejora de la evaluación, por otra parte el profesorado con mayor
experiencia laboral se siente más competente.
A la luz de los resultados obtenidos parece esencial indagar y profundizar sobre
algunas cuestiones: ¿Por qué no utilizan los docentes la evaluación electrónica aun
considerándolaimportante?¿Quédificulta su uso?¿Escuestiónde formación o hay
otrosaspectosqueinfluyen?Deigualmodo:¿Quéserequiereparaqueelprofesorado
innoveenevaluación?¿Cómopodemosfomentarlaformaciónenevaluación?¿Cómo
sepuedefavorecerlacolaboraciónycooperaciónentreelprofesoradouniversitario?
A expensas de conocer las respuestas a estas preguntas consideramos esencial
establecer planes específicos para la formación del profesorado universitario en eva-
67
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
luación en la que se consideren las diferencias existentes entre ramas de conocimiento
y entre el profesorado novel y experimentado. Asimismo se hace necesario fomentar
la formación específica en evaluación electrónica, para ello, un primer paso podría
consistir en formar al profesorado en el uso y funcionalidades de algunas de las TIC
de las que disponen en sus respectivas universidades. Para concluir, como reflejan los
resultados de una investigación (Rodríguez-Gómez et al. 2016) consideramos preciso
crear y establecer espacios y tiempos para favorecer el trabajo compartido entre el
profesorado universitario, espacios que puedan servir para compartir experiencias,
resolver dudas y fomentar la coordinación.
Referencias
Biggs, J. (1999). Teaching for quality learning at university. Londres, Reino Unido: Open
University Press.
Biencinto, C., Carpintero, E., Núñez, C., & García, M. (2013). Psychometric properties
of the ActEval questionnaire on university teachers’ assessment activity. Revista Elec-
trónica de Investigación y Evaluación Educativa, 19, 1–15. doi:10.7203/relieve.19.1.2611
Bono, R., & Arnau, J. (1995). Consideraciones generales en torno a los estudios de
potencia. Anales de Psicología, 11(2), 193-202.
Boud, D. (2010). Assessment 2020: Seven propositions for assessment reform in higher edu-
cation. Sydney, Australia: Australian Learning and Teaching Council.
Gómez-Ruiz, M.A., Rodríguez-Gómez, G., & Ibarra-Sáiz, M.S. (2013). Desarrollo de
las competencias básicas de los estudiantes de Educación Superior mediante la
e-Evaluación orientada al aprendizaje. Revista Electrónica de Investigación y Evaluación
Educativa, 19(1), art. 1. doi: 10.7203/relieve.19.1.2457
Grupo de Investigación Evalfor (2011a). Experiencias innovadoras en el aprendizaje a
través de la evaluación. EVALtrends 2011. Cádiz. Recuperado de: http://evaltrends.
uca.es/index.php/publicaciones.html
Grupo de Investigación Evalfor (2011b. Experiencias innovadoras en la sistematización
de la evaluación. EVALtrends 2011 Cádiz. Recuperado de: http://evaltrends.uca.es/
index.php/publicaciones.html
Grupo de Investigación Evalfor (2011c). Experiencias innovadoras de evaluación en la
era digital. EVALtrends 2011 Cádiz. Recuperado de: http://evaltrends.uca.es/index.
php/publicaciones.html
Hanauer, D., & Baurele, C. (2012). Facilitating Innovation in Science Education through
Assessment Reform. Liberal Education. Recuperado de: https://www.aacu.org/libe-
raleducation/pkal
Hanna, D. (2002). La enseñanza universitaria en la era digital. ¿Es ésta la universidad que
queremos?Madrid:Octaedro-EUB
Hargreaves, A. (1997). Cultures of teaching and educational change. En B.J. Biddle, T.
Good & I. Goodson (Eds.), International handbook of teachers and teaching (pp. 1297-
1319). Berlin, Alemania: Springer.
Ibarra Sáiz, M. S. (Dir.). (2008). EvalCOMIX: Evaluación de competencias en un contexto
de aprendizaje mixto. Cádiz: Servicio de Publicaciones de la Universidad de Cádiz.
68 Victoria Quesada Serra, Gregorio Rodríguez Gómez y María Soledad Ibarra Sáez
RIE, 2017, 35(1), 53-70
Kezar, A. (2011). What is the best way to achieve broader reach of improved practices
in higher education?. Innovative Higher Education, 36(4), 235-247. Recuperado de:
http://link.springer.com/article/10.1007/s10755-011-9174-z
López, M.C., Pérez-García, M.P., & Rodríguez, M.J. (2015). Concepciones del profe-
sorado universitario sobre la formación en el marco del espacio europeo de edu-
cación superior. Revista de Investigación Educativa, 33(1), 179-194. doi: http://dx.doi.
org/10.6018/rie.33.1.189811
Martín, C., & Ruiz, C. (2005). Innovación docente en la Universidad en el marco del
EEES. Educatio siglo XXI: Revista de la Facultad de Educación, 23, 171-190.
Miller, L. (1998). Redefining teachers, re-culturing schools: Connections, commitments
and challenges. En A. Hargreaves, A. Lieberman, M. Fullan, & D. Hopkins (Eds.),
International handbook of educational change (pp. 529-543). Berlín, Alemania: Springer.
Mingorance Arnáiz, C., & Calvo Bernardino, A. (2013). Los resultados de los estudian-
tes en un proceso de evaluación con metodologías distintas. Revista de Investigación
Educativa, 31(1), 275-293. doi: http://dx.doi.org/10.6018/rie.31.1.15329
Murillo, F.J., & Hidalgo, N. (2015). Enfoques fundamentales de evaluación de estudian-
tes para la justicia social. Revista Iberoamericana de Evaluación Educativa, 8(1), 43-61.
Recuperado de http://www.rinace.net/riee/numeros/vol8-num1/art3.pdf
Perrota, C. (2014). Innovation in Technology-Enhanced Assessment in the UK and the
USA: Future Scenarios and Critical Considerations. Technology, Pedagogy and Edu-
cation, 23(1). doi: http://dx.doi.org/10.1080/1475939X.20130838453
Quesada Serra, V., Rodríguez Gómez, G., & Ibarra Sáiz, M.S. (2013). ActEval: un instru-
mento para el análisis y reflexión sobre la actividad evaluadora del profesorado uni-
versitario. Revista de Educación, 362, 69-104. doi: 10-4438/1988-592X-RE-2011-362-153
Rodríguez Gómez, G. (Dir.). (2009). EvalHIDA: Evaluación de Competencias con Herramien-
tas de Interacción Dialógica Asíncronas (foros, blogs y wikis). Cádiz: Servicio de Publica-
ciones de la Universidad de Cádiz. Recuperado de: http://www.tecn.upf.es/~daviniah/
evalhida.pdf
Rodríguez Gómez, G. (Coord.), Ibarra Sáiz, M.S., Dodero Beardo, J.M., Gómez Ruiz,
M.A., Gallego Noche, B., Cabeza Sánchez, D... Martínez del Val, A. (2009). Develo-
ping the e-Learning-oriented e-Asessment. En A. Méndez Vilas, A- Solano Martín, J.
Mesa González, & J. A. Mesa González (Eds.) Proceedings of V International Conference
on Multimedia and Information and Communication Technologies in Education (m-ICTE)
(vol.1, pp.515-519). Lisboa, Portugal: Formatex.
Rodríguez Gómez, G., & Ibarra Sáiz, M.S. (2011). E-evaluación orientada al e-aprendizaje
estratégico en la universidad. Madrid: Narcea.
Rodríguez-Gómez, G., Quesada-Serra, V., & Ibarra-Sáiz, M.S. (2016). Learning-orien-
ted e-assessment; the effects of a training and guidance programme on lectu-
rers’ perceptions. Assessment & Evaluation in Higher Education, 41(1), 35-52. doi:
10.1080/02602938.2014.979132
Tomas, M., & Castro, D. (2011). Multidimensional Framework for the Analysis of
Innovations at Universities in Catalonia. Education Policy Analysis Archives, 19(27),
1-18. doi: http://dx.doi.org/10.14507/epaa.v19n27.2011
69
Planicación e Innovación de la Evaluación en Educación Superior: la Perspectiva del Profesorado
RIE, 2017, 35(1), 53-70
Vargha, A., & Delaney, H.D. (2000). A Critique and Improvement of the CL Common
Language Effect Size Statistics of McGraw and Wong. Journal of Educational and
Behavioral Statistics, 25(2), 101-132.
Villardón Gallego, M.L. (2006). Evaluación del aprendizaje para promover el desarrollo
de competencias. Educatio siglo XXI, 24, 57-76.
Zabalza, M.A. (2010). La planificación de la docencia en la universidad: elaboración de las
guías docentes de las materias. Madrid: Narcea.
Zhu, C., & Engels, N. (2014). Organizational Culture and Instructional Innovations in
Higher Education: Perceptions and Reactions of Teachers and Students. Educational
Management Administration & Leadership, 42, 136-158. doi: 10.1177/1741143213499253.
Fecha de recepción:14 de Octubre de 2015
Fecha de revisión: 14 de Octubre de 2015
Fecha de aceptación: 08 de Febrero de 2016
... Innovation in education systems has become an imperative need in higher education, as it seeks change and greater dissemination of successful experiences, as the university needs to change at all levels to survive and thrive in the new "educational market" (Quesada et al., 2017). For professors, this means a significant use of resources and time, which makes it necessary to analyze its effectiveness in the academic result and the quality of teaching through the application of these new techniques (Vivel-Bua et al., 2015). ...
... Under these terms, the evaluation must be permanent in the teaching process, in addition to promoting the possibility of generating new learning in education, i.e., the evaluation is not only a mean of knowledge assessment, but also a form of teaching (Parra, 2008). However, evaluation as an educational element has a political characteristic, so it can be addressed from different perspectives such as the conservative (the professor has absolute power) or progressive (power is distributed between the professor and the student) according to Quesada et al. (2017). In the field of didactics, it is required to encourage the participation of students in their evaluation through self-assessment and co-evaluation, so that they develop their autonomy and ability to learn to learn (González et al. 2007) by collaborating with the professor in the evaluation task. ...
... Regarding the experiences in university teaching that favor the curriculum integration of computer resources and that innovate the evaluative strategies starred by students in the construction of their learnings, remain being a pending and scarce task in professors (Quesada et al., 2017), even more so if they are aimed at future educators in the context of their research training. Thus, the strategy of developing learning evaluative skills with an instrument as well as the elaboration of questions were statistically associated, only in one case out of the three studied, with knowledge domain. ...
Article
Full-text available
The study examines the use of technological tools to implement self and peer-assessment based on students ́ autonomous learning and formal evalu- ation carried out by the teacher, taking advantage of the potential of instant feedback from the tools available in Virtual Learning Environments (VLE). The extensive implementation of VLE in higher educa- tion makes blended learning an emergent modality, automating and facilitating the monitoring of learning progress, through the pedagogical management of effective practices. The innovation proposal aims at fostering students’ autonomy and their central role in the achievement of their learning.The methodological design is correlational seeking to establish the associa- tion between the preparation of questions and online test resolution by the students and their level in perfor- mance tests administered by the teacher. It was carried out in six groups of the 2016 and 2017 cohorts in the Educational Research subject within initial teacher training programs at a Chilean university. The main results show a significant correlation between the use of the virtual environment in the construction and application of a self and peer assessment instruments in a test- typed format and their results in performance tests. It is concluded that student learning is enhanced by integrating assessment as part of the teacher training process with an active and autonomous role of students supported by educational technologies.
... La innovación en los sistemas educativos se ha convertido en una necesidad imperiosa en la educación superior, en tanto busca cambios y mayor difusión de las experiencias exitosas, ya que la universidad necesita cambiar en todos sus niveles para sobrevivir y prosperar en el nuevo "mercado educativo" (Quesada et al., 2017). Para el profesorado, esto significa un consumo importante de recursos y tiempo, lo que hace necesario, entre otras cuestiones, analizar su eficacia en el resultado académico y la calidad de la enseñanza a través de la aplicación de estas nuevas técnicas (Vivel-Bua, et al., 2015). ...
... Bajo estos términos, la evaluación debe estar y ser perma-nente en el hacer pedagógico, además de promover la posibilidad de generar nuevo aprendizaje en el educando, es decir, los instrumentos de evaluación no solo son medios de valoración de conocimientos, sino también formas de enseñanza (Parra, 2008). Ahora bien, la evaluación como elemento educativo tiene carácter político, por eso, se puede abordar desde perspectivas diferentes como la conservadora (el docente tiene el poder absoluto) o progresista (el poder se distribuye entre profesor y estudiante) según Quesada et al. (2017). En materia de didáctica, se exige fomentar la participación de los alumnos en su evaluación a través de la autoevaluación y coevaluación, para que desarrollen su autonomía y capacidad de aprender a aprender (González et al. 2007) al colaborar con el profesor en la tarea de evaluar. ...
... Sobre experiencias en docencia universitaria que favorezcan la integración curricular de recursos informáticos y que innoven en estrategias evaluativas, protagonizadas por estudiantes en la construcción de sus aprendizajes, sigue siendo una tarea pendiente y escasa en docentes (Quesada et al., 2017), más aún, si estas tienen como destinatarios a futuros educadores en el contexto de su formación investigativa. Así, la estrategia de desarrollar habilidades evaluativas para el aprendizaje, de carácter instrumental, como lo es la elaboración de preguntas se asoció, solo en un caso de los tres estudiados, estadísticamente significativa con dominio de conocimientos. ...
Article
Full-text available
El estudio evalúa la utilización de herramientas tecnológicas para implementar evaluación y coevaluación realizada por los estudiantes, en función del aprendizaje autónomo y la evaluación por parte del profesor, aprovechando el potencial de la retroalimentación instantánea de las herramientas que disponen los Ambientes Virtuales de Aprendizaje. La extensa implementación de estos ambientes virtuales en la educación superior hace que el blended learning sea una nueva normalidad, automatizando y facilitando el monitoreo de los avances en el aprendizaje, a través de la gestión pedagógica de prácticas efectivas. La propuesta de innovación propende al desarrollo de la autonomía y protagonismo de estudiantes en el logro de sus aprendizajes. El diseño metodológico es correlacional que busca establecer la asociación entre la confección de preguntas y resolución de test online por parte de los estudiantes y su nivel de desempeño en pruebas de conocimiento administradas por el profesor. Se aplicó en seis grupos de las cohortes 2016 y 2017 en la asignatura Investigación Educativa para carreras de pedagogías de una universidad chilena. Los principales resultados apuntan a una significativa correlación entre uso del ambiente virtual en la construcción y aplicación de instrumento tipo test y los resultados de desempeño en pruebas de conocimiento. Se concluye que el aprendizaje de los alumnos se potencia, al integrar la evaluación como parte del proceso formativo con un rol activo y autónomo de los estudiantes con apoyo de tecnologías.
... Por lo tanto, es conveniente incidir en la idea de que para que la evaluación promueva el aprendizaje del alumnado es necesario considerarla como un aspecto central en la planificación del proceso de enseñanza-aprendizaje (Boud, 2010;Quesada et al., 2013;Rodríguez-Gómez et al., 2016) siendo, de esta manera, un aspecto crucial el hecho de planificar y sistematizar desde el inicio de la planificación docente (Ibarra, 2008;Rodríguez, 2009). De igual manera, para la mejora de la evaluación es fundamental analizar e introducir cambios e innovaciones en aras de un equilibrio entre sus dos grandes funciones: promover el aprendizaje del alumnado y certificar el desarrollo de competencias (Quesada et al., 2017). ...
Chapter
Full-text available
La educación superior enfrenta el desafío de la profesionalización (Torres et al., 2014) y la innovación (Fernández Fassnacht, 2017). Los modelos educativos basados en competencias precisan una formación orientada al logro (López et al, 2016) y al desempeño (Fernandes et al., 2016). Para lograr una formación por competencias orientada al logro profesional y a la innovación, los espacios de aprendizaje en la universidad deben transformarse conforme a los tiempos (Castro y Morales, 2015). “Los espacios de aprendizaje deben diseñarse en función de un propósito formativo y un enfoque experiencial y multidisciplinario” (Farías, 2010, p. 18). Teniendo en cuenta este principio, el proyecto de innovación que se presenta, pretende dar respuesta a situaciones problemáticas y ámbitos de mejora que giran alrededor de un aspecto central del proceso de enseñanza-aprendizaje, que no es otro que el aporte de la experiencia personal del alumno (Guzmán y Saucedo, 2015; Pazos et al., 2015) y hasta qué punto esta puede modificar este proceso y favorecer el intercambio comunicativo docente-discente (Cabero y Martínez, 2019; Escobar, 2020). Indexación SPI 2018 C1, 2022 C2 nº 17. Cómo citar: García Salas, M.L., Trujillo Vargas, J.J., Peña-Acuña, B. y Candeloro, A. (2022).Compartir experiencias en el aula de educación superior: un proceso de enseñanza-aprendizaje multidireccional. En Más allá de la Didáctica tradicional. Thompson Reuters Aranzadi. Colección Aranzadi.
... Se puede considerar, en función de los diversos análisis que se realizaron, que pensar en la implementación en el aula de instrumentos de este tipo, puede contribuir en la evaluación del constructo "gestión del conocimiento", durante el desarrollo de proyectos formativos, en donde se ofrecen datos que faciliten la toma de decisión para el diseño del instrumento descrito, accionar puntualmente para el mejoramiento de los desempeños [28]. ...
Article
Full-text available
Una de las necesidades que se tiene en escuelas de nivel superior, es la falta de instrumentos confiables para realizar evaluaciones objetivas de los desempeños que los estudiantes desarrollan. En ese contexto, en este artículo, se reportó el proceso que se llevó a cabo para validar el constructo “gestión del conocimiento” (GC), en una rúbrica socioformativa, diseñada para evaluar la “GC” en estudiantes de nivel superior en el área de Ingeniería, durante el desarrollo de proyectos formativos y se determinó su confiabilidad. Se aplicó un estudio metodológico descriptivo de validez y confiabilidad de constructo “GC” a través del análisis factorial exploratorio, se usó el software estadístico SPSS. Este estudio, se llevó a cabo con una muestra población objetivo de 152 estudiantes de la Carrera de Ingeniería en Comunicaciones y Electrónica (ICE), de la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME), Unidad Culhuacán (UC), del Instituto Politécnico Nacional (IPN). La rúbrica Socioformativa resultó con validez de contenido, determinada a través del cálculo de la V de Aiken, con valores superiores a 0.8, en la mayoría de las variables, con aportaciones de juicio de expertos. La fiabilidad del instrumento se determinó a través de dos métodos: el alfa de Cronbach (grupo piloto) y a través del análisis factorial exploratorio (muestra población objetivo), resultando en ambos métodos, valores mayores de 0.8. Se concluye: la rúbrica socioformativa, con la que se pretende evaluar el constructo “gestión del conocimiento”, muestra validez de constructo aceptable y alta confiabilidad para ser aplicado en el contexto descrito.
... Esta nueva concepción evaluativa releva la importancia de evaluar al estudiantado, al valorar su aprendizaje en una situación o contexto de la vida real y en condiciones que le permitan mostrar la riqueza del aprendizaje tanto a nivel personal como también social (Vallejo Ruiz y Molina Saorín, 2014). Es decir, desafía al profesorado a evaluar mediante situaciones reales de aprendizaje, ya que solo las valoraciones contextualizadas en la realidad escolar podrán entregar los elementos apropiados y significativos para la reflexión y aprendizaje de los grupos de estudiantes (Quesada Serra et al., 2017). ...
Article
Full-text available
Este artículo analiza las prácticas evaluativas del profesorado que se desempeña en quince escuelas vulnerables de la comuna de Arica, ubicada en el extremo norte de Chile. Se trata de un estudio cualitativo cuyos datos han sido recogidos mediante entrevistas semiestructuradas y grupos de discusión. Para procesar la información, se realizó análisis de contenido siguiendo las directrices de la teoría fundamentada. Los resultados muestran que, si bien, a lo largo de su trayectoria profesional, el profesorado ha ido transitando desde una práctica evaluativa tradicional, a una cada vez más auténtica, aún existen tensiones entre su discurso sobre la evaluación y sus prácticas evaluativas. La evidencia de esas tensiones recomienda conectar la experiencia educativa y evaluativa del aula con asuntos relevantes de la vida del estudiantado. Se trata de promover entre el profesorado prácticas evaluativas sensibles a los contextos escolares, que incorporen recursos afectivos en su implementación.
Article
Full-text available
This paper examines initial teacher training policies in the context of youth digitalisation. Based on international ICT competency frameworks for teachers (UNESCO, 2008, 2019) and information literacy, MIL (UNESCO, 2011), we analyse how Spanish (public and private) universities represent digital innovation, and the identity practices of young people, linked to hyperconnectivity. Focusing on initial training received by future secondary teachers, the sample was selected according to the criteria of non-presential learning (online, distance, blended) applied in the teacher training process. Results confirm ongoing deficiencies in critical teacher digitalisation management, highlighting certain asymmetries between the categories constructed. Data reveals the prevalence of intervention more geared towards formal knowledge than towards decoding digital grammar (which is how digitalisation is used in education). The paper concludes by advocating convergence strategies as a circular mechanism that must underpin all teacher training policies in the age of hyperconnectivity.
Article
Full-text available
Introducción. La relación entre lo que el estudiante aprende y lo que se le evalúa ha sido un tema de relevancia en la educación superior y un tema de investigación que ha llamado la atención en programas del área de la salud, especialmente en medicina. Objetivos. El objetivo de este estudio fue diseñar y validar un instrumento que permitiera conocer y describir las estrategias utilizadas por los docentes del programa de Medicina de la Universidad El Bosque, ubicada en Bogotá, Colombia, la cual consolida su modelo pedagógico de aprendizaje centrado en el estudiante a partir de los objetivos institucionales de aprendizaje, los cuales deben ser evaluados para verificar su consecución. Esto se hizo con el fin de evaluar el nivel de logro de las competencias de formación de los estudiantes. Métodos. Se identificaron dos categorías que debían conformar el instrumento: referentes curriculares y evaluación de la apropiación. Posteriormente se describió el nivel de validez de contenido por medio del acuerdo de jueces a partir del modelo de Lawshe modificado por Tristán y Molgado. Resultados. Los resultados evidenciaron que el instrumento diseñado permite medir de forma válida las categorías y subcategorías planteadas y que los ítems aportan información valiosa sobre cada una de ellas. Esta herramienta también puede ser usada para fines de investigación educativa realizando los ajustes pertinentes de acuerdo con las particularidades propias de la naturaleza de la institución de educación, del programa y de los objetivos de investigación. Conclusiones. Este instrumento puede ser usado para evaluar el nivel de logro de las competencias de formación de los estudiantes y para fines de investigación educativa.
Article
Full-text available
Dentro de la variedad existente en las tendencias actuales sobre la evaluación de estudiantes, se encuentra el propósito común de relacionar evaluación y aprendizaje. La retroalimentación, la democratización, la coherencia y la relevancia son cuatro tópicos aglutinadores sobre los que giran la mayoría de los planteamientos y avances teóricos y prácticos en este ámbito. Como forma concreta de cristalizar una evaluación dialógica, democrática y justa, se propone la modalidad participativa de la evaluación colaborativa en la que docentes y estudiantes se reparten la responsabilidad, negociando y consensuando de forma conjunta el valor de las tareas y en nuestro caso, también la calificación final. El propósito de este estudio, que ha involucrado a un total de 100 alumnos y 2 docentes, es precisamente la comprobación del grado de relación existente entre las calificaciones compartidas de 4 tareas universitarias con las que habrían aportado en solitario el docente y el grupo de estudiantes. Se ha seguido un diseño de investigación correlacional y se ha comprobado la existencia de diferencias significativas. Los resultados muestran la estrecha correlación entre las calificaciones compartidas y las calificaciones del docente, aunque se han hallado diferencias estadísticamente significativas entre estas. Por otro lado, no se han encontrado diferencias entre las calificaciones compartidas y las calificaciones de los estudiantes. Las repercusiones de estos resultados, hacen reflexionar, entre otras cuestiones, sobre la posibilidad real de ajustar dichas calificaciones abiertas a la participación de los estudiantes en contextos universitarios donde las repercusiones sobrepasan de largo el ámbito únicamente formativo.
Article
Full-text available
La e-Evaluación orientada al aprendizaje (e-EOA) es un proceso de aprendizaje, mediado por las TIC, que pro-mueve el desarrollo de competencias útiles para el presen-te académico y el futuro laboral de los estudiantes. En esta investigación cuasi-experimental, con diseño pretest-postest con grupos experimentales y de control, conside-ramos que las actuaciones de la e-EOA (VI) favorecen un mayor desarrollo de competencias (VD). Los resultados revelan que en los grupos experimentales se mejora el nivel competencial y existen diferencias significativas entre su pretest-postest. Además, se comprueba que las competencias que mejoran son coherentes con la teoría planteada (creatividad, resolución de problemas...).
Article
Full-text available
Un elemento clave en una educación que trabaje por la Justicia Social es una evaluación, que lejos estar dirigida a clasificar y ordenar a los estudiantes legitimando con ello las desigualdades sociales, busca explícitamente contribuir al compromiso social y desarrollo crítico de los estudiantes mediante procesos evaluativos justos. De ahí surge un nuevo enfoque llamado “Evaluación de los estudiantes para la Justicia Social” como una aportación más de una educación dirigida a la construcción de una sociedad más justa.En este artículo, partiendo de la definición de Justicia Social, hacemos una revisión de seis enfoques de evaluación actuales que fundamentan la Evaluación de los estudiantes para la Justicia Social: Evaluación Democrático-Deliberativa, Evaluación Crítica, Evaluación Participativa, Evaluación Inclusiva, Evaluación Sensible al Contexto Cultural y Evaluación Auténtica. De su análisis se propone un decálogo de características que debe tener una evaluación para la Justicia Social: Evaluación “para” el aprendizaje y no “del” aprendizaje, inclusiva, culturalmente sensible, participativa y democrática, crítica, que promueva la acción social, del desarrollo integral, optimista, interdisciplinar y justa.Palabras claves: Justicia social, Evaluación para la Justicia Social, Evaluación de los estudiantes, Evaluación alternativa.A key element in an education that works for Social Justice is an assessment, which is not related with categorize and sort student, legitimizing social inequalities, , but explicitly seeks to contribute to social commitment and critical student development through a fair evaluation processes. Hence a new approach called "Assessment of students for Social Justice" emerges, understood as a contribution of education aimed directed towards building a more just society.In this study, based on the definition of Social Justice, we make a review of six current assessment approaches that lay the foundation of Students’ Assessment for Social Justice: Democratic Deliberative Assessment, Critical Assessment, Participatory Assessment, Inclusive Assessment, Contextually Responsive Assessment and Authentic Assessment. From This approaches analysis we propose a Decalogue of features that should have an Assessment for Social Justice: Assessment "to" learning and not "of" learning, inclusive, culturally sensitive, participatory and democratic, critical, that promotes social action, comprehensive student development, optimistic, interdisciplinary and fair.Keywords: Social Justice, Assessment for Social Justice, Student assessment, Alternative assessment.
Article
Full-text available
This paper presents the process whereby ActEval, a questionnaire to gather information about the assessment activity of university teachers, was designed and validated. The objectives of the study reported here were: a) to identify the main assessment tasks university teachers should perform in higher education; and b) to design and validate an instrument to evaluate university teachers' opinion of their assessment activity. The method used for this study was a three-stage survey. The first stage (first pilot study) included a literature review regarding the main tasks to be considered in the assessment process in higher education. Once these tasks were identified, a rough version of the ActEval questionnaire was designed and subsequently completed by a small sample of university teachers. The second stage was the validation of ActEval by a panel of judges, after which the questionnaire was redesigned accordingly. In the third and last stage a second pilot study was carried out, concluding with the final design of the ActEval questionnaire. The items on the questionnaire were judged as having a high level of validity, clarity and relevance in the validation process. Moreover, the pilot studies confirmed the ease of completion and comprehension of the items, as well as the time needed to answer them. The ActEval questionnaire can be a very useful tool for university teachers, enabling them to analyze and reflect upon their own assessment activity, but it can also be used by university authorities as an instrument to evaluate their teachers' needs in order to plan and design effective training activities that ultimately improve the student assessment processes performed by teachers in higher education.
Article
Full-text available
La utilización de una metodología docente basada en el fortalecimiento de distintas competencias exige la aplicación de un sistema de evaluación que permita valorar adecuadamente el logro de las competencias establecidas. Si bien, se suele decir que un sistema de enseñanza de este tipo perjudica el aprendizaje al reducir los conocimientos adquiridos. Nuestro objetivo es averiguar si la utilización de una metodología docente variada es positiva para la formación del alumno, así como si existe algún tipo de actividad que resulte más atractiva o más favorable para superar la asignatura. Para ello nos servimos de los resultados obtenidos por los alumnos de una misma asignatura a lo largo de varios cursos académicos
Book
Rodríguez-Gómez, G. e Ibarra-Sáiz, M.S. (Ed.). (2011). e-Evaluación orientada al e-Aprendizaje estratégico en Educación Superior. Madrid: Narcea.
Chapter
Over the previous quarter century, research on educational change has come to attain stature and significance as an important and legitimate field of study in its own right. This evolving field of educational change is grounded in and has also influenced a complex collection of approaches to bringing about educational change in practice. Thus, studies of educational change have been variously concerned with the implementation of organizational innovations (Gross, Giacquinta, & Bernstein, 1971; Havelock, 1973; House; 1974; Huberman & Miles, 1984), with managed or planned educational change (Hall & Loucks, 1977; Leithwood, 1986), and with mandated educational reform (Berman & McLaughlin, 1978; McLaughlin, 1990; Sikes, 1992). Studies have also been conducted of how educational change is experienced or initiated by educators themselves in relation to the contingencies of their own practice (Richardson, 1991), their stage of career development (Huberman, 1993), the context of their school or subject department (Hargreaves, Davis, Fullan, Wignall, Stager, & Macmillan, 1992; Lieberman, Saxl, & Miles, 1988; Louis & Miles, 1990; McLaughlin & Talbert, 1993) and a host of other subjectively relevant phenomena as described in Fullan’s (1991) definitive review of the field.
Book
Contaba un Rector que intentar trasformar la universidad es como querer cambiar un cementerio. Puedes contar con cualquiera menos con los de dentro. Graciosa pero exagerada afirmación que no hace justicia al enorme esfuerzo que muchos docentes universitarios están realizando por mejorar la enseñanza universitaria y modernizar sus estilos docentes. Y lo están haciendo en un contexto social y económico que no favorece ni estimula, precisamente, ese objetivo. En cualquier caso, nunca como en la actualidad se ha hecho patente la conciencia de que es preciso buscar mecanismos e iniciar estrategias de innovación que mejoren la docencia y propicien un mejor aprendizaje de los estudiantes. Es un proceso no exento de dificultades y diletancias. No resulta fácil abandonar viejas fórmulas, de las que algunos se sienten, pese a todo, orgullosos, para adoptar nuevos estilos cuya eficacia formativa está por demostrar. Pero ése es el gran reto de la Universidad en este inicio del Siglo XXI. Este libro sobre las Guías Docentes señala uno de los posibles caminos a seguir en ese proceso de transformar la Universidad. Tomando como eje la "planificación de la docencia" se van abordando los diversos componentes del diseño curricular para configurar, finalmente, una propuesta formativa innovadora y capaz de enriquecer los aprendizajes de nuestros estudiantes que, al final, es nuestro propósito básico. La Guía Docente constituye un "container" abierto y flexible en el que podremos ir integrando progresivamente todos los avances que deseemos en cada uno de los campos del quehacer didáctico. Por otra parte, la Guía docente es un diálogo que entablamos con nuestros estudiantes, es un recurso didáctico que ponemos en sus manos para que les oriente y apoye en su tarea de aprender. Elaborar la Guía es repensar nuestra docencia, pero poniéndonos en el pupitre del estudiante para anticipar sus dificultades y revisar punto por punto en qué podríamos ayudarles para asimilar mejor los conocimientos y competencias que deben adquirir con nosotros.
Article
This article presents the results of the empirical validation of the questionnaire ActEval (Self-Report on the Evaluation Activity of university teachers). ActEval attempts to identify how important teachers consider a variety of assessment tasks, whether they feel competent, and to what extent they use them in their daily practice, in line with the new competences under the European Higher Education Area. Validation is studied using Non-Metric Multidimensional Scaling (PROXSCAL) and the reliability results show high levels of internal consistency. The data suggest that some items in the questionnaire should be reviewed in order to obtain an effective tool for the analysis of evaluation practice.