Available via license: CC BY 4.0
Content may be subject to copyright.
1
Meta-ranking de universidades.
Posicionamiento de las universidades españolas
Teodoro Luque-Martínez*, Nina Faraoni**, Luis Doña-Toledo*
Cómo citar este artículo/Citation: Luque-Martínez, T.; Faraoni, N.; Doña-Toledo, L. (2018). Meta-ranking de universidades.
Posicionamiento de las universidades españolas. Revista Española de Documentación Cientíca, 41 (1): e198. https://doi.
org/10.3989/redc.2018.1.1456
Resumen: Este estudio propone la elaboración de un meta-ranking con las 14 universidades españolas que aparecen en
al menos cuatro de los cinco rankings globales considerados, que son de reconocida notoriedad internacional. Se puede
diferenciar entre rankings de investigación con datos bibliométricos y rankings que tienen en cuenta otros aspectos
y otras formas de recabar datos basadas en encuestas. Las universidades españolas alcanzan mejores posiciones en
los primeros que en los segundos. Se pone de relieve una debilidad mayor en la internacionalización, la reputación
o el ratio estudiante-profesor que en los indicadores de investigación. Son excepción las universidades que destacan
en las dos dimensiones. A la vista de estas conclusiones resulta evidente la necesidad de profundizar en una mayor
internacionalización, en mejorar la reputación y mejorar la visibilidad internacional de la universidad española.
Palabras clave: Ranking de universidades; rankings globales y sintéticos; sistema universitario español; meta-ranking;
reputación de la universidad.
Universities metaranking. Positioning of the Spanish universities
Abstract: This study proposes the elaboration of a meta-ranking, including the 14 Spanish universities which appear
in at least four of the ve global rankings considered in this study, that are some of the world’s most inuential. It is
necessary to dierentiate between research rakings that use bibliometric data and rankings that take into account other
aspects and other forms of data collection, basically based on surveys. Spanish universities attain better positions in
the rst group. The investigation highlighted that the higher weaknesses we can nd are in the internationalization, the
reputation or in the student-teacher ratio. The one exception is for universities that stand out in the two dimensions.
Regarding the outcome, there is an evident need for a greater internationalisation, to improve the reputation of the
higher education institutions and to enhance the international visibility of the Spanish universities.
Keywords: University rankings; synthetic and global rankings; Spanish education system; meta-ranking; university reputation.
Copyright: © 2018 CSIC. Este es un artículo de acceso abierto distribuido bajo los términos de la licencia Creative Commons
Reconocimiento 4.0 Internacional (CC BY 4.0).
Recibido: 09-01-2017; 2ª versión: 12-06-2017; Aceptado: 28-06-2017.
Revista Española de Documentación Cientíca
41(1), enero-marzo 2018, e198
ISSN-L:0210-0614. https://doi.org/10.3989/redc.2018.1.1456
ESTUDIOS / RESEARCH STUDIES
*Universidad de Granada, Dpto. Comercialización e Investigación de Mercados.
Facultad de Ciencias Económicas y Empresariales, Campus Universitario de La Cartuja, Granada
Correo-e: tluque@ugr.es | ORCID iD: https://orcid.org/0000-0003-1282-6822
Correo-e: luisdt@ugr.es | ORCID iD: https://orcid.org/0000-0003-2238-2671
**Universidad de Granada, Doctoranda programa de Economía y Empresa.
Facultad de Ciencias Económicas y Empresariales, Campus Universitario de La Cartuja, Granada
Correo-e: faraoninina@correo.ugr.es | ORCID iD: https://orcid.org/0000-0003-1582-5104
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
2
1. INTRODUCCIÓN
La necesidad de evaluar y competir en todos los
ámbitos de la vida cotidiana ha llevado a desarro-
llar una nueva forma de concebir la educación uni-
versitaria (Olssen y Peters, 2005). En este contex-
to han aparecido numerosos rankings de univer-
sidades que generan polémica y debate, a veces
apasionados, cada vez que se publican. Las clasi-
caciones académicas han proliferado en el mundo,
han aparecido sistemas de información sobre ellas
como el Ranking System Clearinghouse, apadrina-
do por el Institute for Higher Education Policy, y
han nacido observatorios encargados de evaluar la
calidad y el rigor utilizados en los rankings promo-
viendo las buenas prácticas y los valores éticos en
su redacción (i.e. IREG Observatory on Academic
Ranking y Excellence). También se aprecia su fama
por el nacimiento de instrumentos que intentan
sintetizar el puesto de las universidades en los dis-
tintos rankings (Delgado-López-Cózar, 2012).
Según el diccionario de la Real Academia Espa-
ñola, un ranking es una “clasicación de mayor a
menor, útil para establecer criterios de valoración”.
Como primer concepto se encuentra “clasicación”,
pero es especialmente relevante su para qué: “la
utilidad para establecer criterios de valoración”. Por
tanto, se espera que los rankings aporten un plus,
más allá de una mera clasicación. Y esto radica en
la capacidad de guiar al interlocutor ofreciéndose
como fuente able y honesta en la formación del
prestigio y de la calidad de una universidad.
La fama de los rankings de universidades adquie-
re una relevancia especial con la publicación del
Academic Ranking of World Universities (ARWU),
aunque los rankings hayan aparecido por primera
vez en 1870 según Grewal y otros (2008).
Por otro lado, las instituciones de educación su-
perior intentan incorporar estudiantes y, según
Sung y Yang (2008), la imagen proyectada por la
universidad es el principal agente que puede con-
seguirlo. Para Luque y Barrio (2009), la imagen
corporativa de una organización es un buen pre-
dictor del poder de atracción que esta institución
tendrá sobre su público objetivo. Las universida-
des toman conciencia de la importancia de gene-
rar una imagen que sea fuerte en la visión de sus
públicos objetivo (Brown y Mazzarol, 2009). La
fuerza que ejerce la imagen corporativa se puede
reejar en la sociedad en su conjunto, como pasa
con las universidades británicas y estadunidenses
que hacen aparecer su entorno de igual prestigio
que sus universidades (Sung y Yang, 2008). Alves
(2011) comprueba que la imagen es importante al
inuenciar el valor percibido y, por consecuencia,
la satisfacción. Crear una imagen es parte de la
estrategia básica de una institución y los rankings
ayudan en el intento (Luque-Martínez, 2015a). En
este contexto, los rankings son útiles instrumen-
tos para crear una imagen inuyente, partiendo
de una información parcial e incompleta (Alves y
Raposo, 2010). Además intentan abarcar a todas
las instituciones (cuando son rankings globales)
resumiendo varios indicadores con diferente pon-
deración para llegar a una puntuación (cuando son
rankings sintéticos).
Existe amplia literatura sobre rankings univer-
sitarios y sobre comparación entre ellos, pero se
ha identicado una ausencia en la literatura de
trabajos sobre meta-ranking de universidades y,
como consecuencia, la inexistencia de estudios
de posicionamiento de universidades basados en
meta-ranking. Sin embargo, trabajar con varios
rankings aporta más solvencia a la clasicación
que se realiza, puesto que diferentes rankings, al
utilizar diferentes indicadores, aportan matices que
enriquecen la clasicación. Además, al disponer de
más indicadores se puede elaborar un perl más
completo de las universidades y permite compro-
bar con más detalle el posicionamiento respecto de
otras universidades nacionales e internacionales.
En suma, ante la diversidad de rankings, que
siempre son aproximaciones y que incorporan ma-
tices diferentes, cabe preguntarse sobre la idonei-
dad de hacer una clasicación con la información
de varios rankings: un meta-ranking que reúna y
resuma esos matices. Precisamente el objetivo de
este trabajo es elaborar un meta-ranking, a partir
de rankings sintéticos y globales para obtener una
clasicación de universidades que resuma una infor-
mación más completa a través de dos vías: una, uti-
lizando la puntuación global de cada ranking selec-
cionado y, otra, utilizando todos los indicadores de
los rankings seleccionados que permiten un análisis
más detallado de la clasicación, una vez elaborado,
es aplicado a las universidades españolas para ob-
tener una representación del posicionamiento de las
mismas identicando, por una parte, aquéllas que
están mejor posicionadas en las diferentes dimen-
siones utilizadas y, por otra, qué universidades del
mundo son referentes en cada una de ellas.
2. RANKINGS SELECIONADOS PARA LA
ELABORACIÓN DE UN META-RANKING DE
UNIVERSIDADES ESPAÑOLAS
Los rankings universitarios son una forma de or-
denar las universidades con arreglo a unos crite-
rios, por tanto son una aproximación, y esto no
debe olvidarse. Para una utilización correcta hay
que tener muy presente los detalles de su elabo-
ración y no perder de vista sus limitaciones. Efec-
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
3
tivamente, un uso correcto sirve para tener infor-
mación sobre la evolución de una universidad y po-
der compararla con otras del entorno o del mundo
(Docampo y otros, 2012). Constituyen una buena
herramienta para hacer benchmarking, estable-
cer objetivos contrastables y, en general, para la
planicación estratégica (Luque-Martínez y Barrio-
García, 2009).
De manera sintética, se pueden establecer dife-
rentes tipo de rankings dependiendo del criterio:
• Según el número de indicadores conside-
rados pueden ser unidimensionales cuan-
do se tiene en cuenta uno solo, o multidi-
mensionales, cuando son varios los toma-
dos en consideración.
• Según el territorio que abarquen, serán na-
cionales, internacionales (para una zona o
región que comprenda varios países) o glo-
bales (para todo el mundo).
• De acuerdo con el ámbito al que se apli-
quen, en este caso pueden ser de investi-
gación, de docencia, de reputación, de sos-
tenibilidad o de empleabilidad, entre otros
aspectos a considerar.
• Teniendo en cuenta el tipo de indicador que
se utilice, los hay basados en datos, ya sean
bibliométricos (indicadores de investigación,
como número de artículos o número de ci-
tas), de I+D+I (incluye proyectos, número
e importe de contratos, patentes o creación
de spin-o), o de otras dimensiones (como
infraestructuras o internacionalización), en
denitiva, datos secundarios o estadísticas
ociales. O bien se elaboran a partir de per-
cepciones u opiniones sobre algunas de las
dimensiones de la actividad universitaria
mediante encuestas de diferentes carácte-
rísticas y metodología.
Los rankings de universidades han sido objeto de
muchas críticas (Luque-Martínez y Barrio-García,
2016; Hazelkorn, 2012, Docampo, 2008 y 2010).
En primer lugar, está el grupo de críticas relacio-
nadas con la medida de los indicadores, puesto
que predominan los indicadores bibliométricos o
de investigación o porque hay infrarrepresenta-
ción para algunos campos, como las humanidades
o las ciencias sociales (Ishikawa, 2009; Robinson-
García, 2014). También han sido objeto de críticas
por la falta de transparencia en la recogida de los
datos (Liu y Cheng, 2005) o el sesgo introducido
por la lengua predominante en las publicaciones
cientícas, en concreto el inglés (Altbach, 2015).
Además, se cuestiona la idoneidad de determina-
dos indicadores como los premios Nobel (Margin-
son y van der Wende, 2007; Sanz-Casado y otros,
2013).
Segundo, las criticas relativas a las característi-
cas de las instituciones que se ordenan. Se compa-
ran universidades con características muy diferen-
tes, por estructura organizativa y grados de auto-
nomía (Aghion y otros, 2010), con años de historia
muy diferentes (Luque-Martínez, 2013), con ta-
maños muy diversos (por estudiantes, profesores,
ratio de alumnos-profesor), o diferentes ofertas de
titulaciones. Además las universidades pueden es-
tar enfocadas a la docencia o a la investigación o
a la transferencia, con especialización en campos
diferentes. También las universidades operan en
contextos económicos y sociales muy diversos, con
niveles de recursos desiguales (Luque-Martínez,
2015b). Además, en unos casos son universidades
privadas y en otros son públicas.
Finalmente, las críticas que se reeren a consi-
deraciones metodológicas, por la forma de recoger
los datos bibliométricos (Waltman y otros, 2012),
porque recurren a indicadores múltiples, así como
por la forma de sintetizarlos (Sanz-Casado y otros,
2013), o por cómo se ponderan los indicadores se-
leccionados (Buela-Casal y otros, 2007).
Todo esto diculta la comparación y erosiona la
utilidad de las clasicaciones.
En el presente análisis se utilizan rankings sin-
téticos, puesto que se elaboran con diferentes
criterios e indicadores que se sintetizan en una
puntuación global para cada universidad, median-
te ponderaciones propias de cada ranking. Al mis-
mo tiempo, son rankings globales porque inten-
tan abarcar las instituciones más relevantes del
mundo. Cada uno de los rankings universitarios
globales y sintéticos pone el énfasis en matices
diferentes, ya sea de producción cientíca o de
otras dimensiones. Si la ordenación de las univer-
sidades se realiza considerando al mismo tiempo
varios rankings, la clasicación obtenida será más
completa puesto que reúne más dimensiones de
la actividad universitaria.
Tales rankings trabajan con indicadores bibliomé-
tricos pero también no bibliométricos y con encues-
tas, consideran tanto indicadores de investigación
como de otra índole. En suma, los rankings utili-
zados en esta investigación deben cumplir con los
requisitos de ser sintéticos, globales y tener acce-
sible la información de sus indicadores. A pesar del
indudable interés que tienen, no se han selecciona-
do algunos rankings porque no dan una puntuación
sintética (como el de Leiden o U-Multirank), no son
globales o la información de los indicadores no está
accesible (i.e. Scimago). Los seleccionados tienen
una gran notoriedad y son utilizados por universi-
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
4
dades y sistemas universitarios como fuentes de
información y como instrumentos para hacer ben-
chmarking (Hernández y otros, 2016; Hazelkorn,
2012; Rauhvargers, 2014; Robinson-García y otros,
2014). Son los siguientes (los criterios de elabora-
ción se pueden ver la respectiva web):
• University Ranking by Academic Performan-
ce (URAP): http://www.urapcenter.org
• Academic Ranking of World Universities
(ARWU); http://www.shanghairanking.com
• National Taiwan University (NTU): http://
nturanking.lis.ntu.edu.tw/
• Times Higher Education (THE): https://www.
timeshighereducation.com/world-university-
rankings
• Quacquarelli Symonds-QS ranking (QS):
http://www.topuniversities.com/university-
rankings
Los tres primeros rankings utilizan básicamente
indicadores bibliométricos especialmente referidos
a investigación, mientras que los otros dos (THE
y QS) además de algún indicador bibliométrico
(principalmente citas), también utilizan otros (i.e.
internacionalización, reputación, ratio estudiantes
por profesor o ingresos por investigación) y alguno
de ellos se obtiene mediante encuestas, como los
referidos a la reputación, ya sea académica o de
investigación.
Estos rankings están entre los más conocidos y
gozan de gran notoriedad en la comunidad univer-
sitaria internacional, se vienen publicando desde
hace años y sus puntuaciones son accesibles en
sus respectivas páginas web. Cada uno recoge da-
tos con matices diferentes, por ello es interesante
compendiarlos para llegar a un ranking resumen,
o un meta-ranking. Y una vez elaborado, aplicarlo
a las universidades españolas, representándolas y
consiguiendo el posicionamiento de las diferentes
universidades en dicho meta-ranking.
3. ASPECTOS METODOLÓGICOS
Para alcanzar el objetivo hay que resolver, en pri-
mer lugar, el asunto de la materia prima con la que
trabajar. Es decir, la confección de una base de da-
tos completa de universidades lo más homogénea
y completa posible. Después, elegir y aplicar una
técnica de análisis que sintetice la información y
la trate para extraer utilidad que aporte valor para
las universidades y el sistema universitario. Para
ello se ha seguido un proceso que consta de las
siguientes etapas.
3.1. Recogida y depuración de datos
Cada ranking trabaja con un diferente número
y composición de universidades. El primer reto es
elaborar una base de datos de universidades lo
más homogénea, amplia y completa posible.
Se recogieron los datos (de indicadores, puntua-
ción general y posición) de los cinco rankings, a
partir de las respectivas webs ociales. Hubo que
comprobar la denominación de las universidades
y homogeneizarlas. En total 358 universidades
aparecen en los rankings seleccionados y 101 uni-
versidades más lo hacían en al menos 4 de los 5
rankings seleccionados, esto hace una suma de
459 universidades. El análisis se va a realizar con
las universidades que aparecen al menos en 4 ran-
kings, porque da un número próximo al mínimo
que consideran los rankings con menor número de
universidades (500), de esta manera no se tiene
un número excesivo de datos faltantes.
Todos los rankings tienen algún dato de puntua-
ción global que falta y de los 2.295 casos diferen-
tes (universidades), estaban completos 2.092 y
solamente 203 (un 8,8% del total) guran como
datos faltantes. De ese total, el ranking QS es el
que presenta más missing data (27,9%) y es el
que menos universidades incluye con datos com-
pletos, 331 universidades de 459. Por el contra-
rio, el ranking con un número mayor de ellas es el
URAP, con 455, por tanto con menos missing data
(0,9%). Los otros tres rankings tenían números in-
termedios como se aprecia en la tabla I.
3.2. El problema de los datos faltantes
A medida que aumenta el número de rankings a
analizar conjuntamente, el número de los datos que
faltan crece. La primera cuestión a resolver es el
tratamiento de los datos faltantes, es decir, si se
busca una solución (y cuál) o no. Para trabajar con
una base de datos completa es necesario realizar un
proceso de estimación de los datos faltantes y com-
probar que es mejor solución que no hacer nada.
En este caso se ha elegido el método de imputación
múltiple implementado en IBM SPSS STATISTIC 20.
En concreto la opción de “Fully Conditional Speci-
cation” (FCS) algoritmo de imputación múltiple,
que realiza la imputación de los valores faltantes
secuencialmente en cada iteración comenzando por
la primera variable que tiene valores perdidos.
Se repite 100 veces para obtener 100 imputacio-
nes. Cada cadena comienza con diferentes números
aleatorios iniciales y diferentes valores iniciales.
Un proceso similar para los datos faltantes se
hace también con los 31 indicadores de los ran-
kings seleccionados.
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
5
Tabla I. Número de universidades en los rankings y datos faltantes
3.3. Comprobación
Tras la imputación de los missing data se com-
prueba que las correlaciones entre los diferentes
rankings antes y después de imputar se mantie-
nen en valores muy parecidos, en los casos de
mayor diferencia solamente es de pocas centé-
simas. En todos los casos las correlaciones son
signicativas al 1%, como se observa en la tabla
II. La correlación que presenta la mayor diferen-
cia antes y después de la imputación es la que se
da entre NTU y QS, que alcanza un valor de 0,04
mientras que se mantiene en los mismos valores
o con valores de una centésima en ocho de diez
correlaciones. Esto sirve de aval para la imputa-
ción realizada.
3.4. Transformación y calibración de los datos
A pesar de que los datos vienen en un rango de
valores parecido, aunque no totalmente coinciden-
te, se aplica la transformación de datos recomen-
dada por Rainer y Miller (2005) y aplicada también
por Franke y Schreier (2008), consistente en la si-
guiente operación:
Donde
Xtij= puntuación transformada de la universidad
i en el ranking j.
Xij= puntuación original de la universidad i en el
ranking j.
Xjmax= puntuación máxima en el ranking j.
Xjmin= puntuación mínima en el ranking j.
Aunque se tenga el mismo rango de valores,
puede que el criterio que subyace en cada ranking
haga que los datos no sean directamente compa-
rables, por este motivo Franke y Schreier (2008)
recomiendan realizar la siguiente calibración:
Donde
Xsij= puntuación calibrada de la universidad i en
el ranking j.
Xtij= puntuación transformada de la universidad
i en el ranking j.
Rankingk,referente: puntuación de la universidad k
en el ranking elegido como referente.
Rankingk,j: puntuación de la universidad k en el
ranking j.
n= número de universidades en presentes en el
ranking j.
k= universidades que aparecen en el ranking de
referencia y en el ranking j.
3.5. Elaboración de un meta-ranking
Para resumir la información de los cinco rankings
en uno solo se aplica análisis factorial, de esta ma-
nera se obtiene una nueva variable que sintetiza
la información de todos los rankings, es decir, un
meta-ranking a partir de las puntuaciones factoria-
les de cada caso, minimizando la pérdida de la in-
formación de partida contenida en las puntuaciones
iniciales. También se comprueba la pertinencia de
considerar una o varias dimensiones que se pueden
distinguir entre los rankings considerados. Como
se ha visto en la tabla de correlación anterior, se
aprecia cierta estructura de correlación entre los
rankings que consideran datos de investigación de
carácter bibliométrico, por un lado, y los rankings
que consideran además otros tipos de datos y los
recogidos por encuestas, por otro. Esto apoya la di-
visión en dos dimensiones que vamos a comprobar
realizando un análisis factorial con dos factores.
Para profundizar en los detalles se aplica análi-
sis factorial a los 31 indicadores de los 5 rankings
identicando las principales dimensiones que sub-
yacen en la información que contienen.
Ranking Número de universidades Número de universidades
en 4 rankings Datos faltantes % de datos
faltantes
URAP 2000 455 4 0,9
ARWU 500 439 20 4,4
NTU 500 435 24 5,2
THE 800 432 27 5,9
QS 700 331 128 27,9
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
6
3.6. Representación de las universidades
Realizado el análisis factorial, se observa tanto la
posición de las universidades con una sola dimen-
sión como la posición al considerar dos dimensio-
nes. Para ello se han seleccionado las universida-
des españolas que aparecen en al menos cuatro de
los cinco rankings seleccionados.
También se describe la posición (en las principa-
les dimensiones se representan) de las universida-
des españolas en las dimensiones identicadas en
al análisis factorial.
4. ANÁLISIS DE DATOS
4.1. Análisis de las puntuaciones globales
En este caso concreto la aplicación o no de la trans-
formación y calibración de los datos mencionados
anteriormente no genera diferencias puesto que el
rango de valores de los rankings es muy parecido y
al realizarse la imputación no hay datos faltantes. A
lo que hay que añadir que se trabaja con la matriz de
correlaciones para realizar el análisis factorial, o esa
con o sin transformaciones, el resultado es el mismo.
A partir de la base de datos con 459 universi-
dades y aplicando el procedimiento mencionado
de imputación (100 imputaciones), se realiza un
análisis de componentes principales utilizando el
programa SPSS 20. El análisis es pertinente puesto
que presenta un índice KMO de 0,847 y la prueba
de esfericidad de Bartlett es signicativa (p=0,00),
lo que demuestra la existencia de estructura de
correlación. Hay un solo factor con valor propio
mayor que 1, ese único factor extraído contiene el
79,1% de la varianza original de las puntuaciones
de los cinco rankings. En todos los casos la comu-
nalidad es superior a 0,7, desde las más bajas de
NTU y QS que tienen una comunalidad de 0,734
y 0,728, respectivamente, hasta las mayores que
son ARWU y URAP (0,839 y 0,838). En todo caso,
son valores muy superiores a los mínimos estable-
cidos como necesarios en la aplicación de este aná-
lisis. Las cargas factoriales superan sobradamente
el valor de 0,8: URAP (0,916), ARWU (0,916), NTU
(0,857), THE (0,903) y QS (0,853).
Para comprobar el parecido de este meta-ran-
king con los rankings iniciales se han calculado las
correlaciones ordinales, según el orden resultante
de este meta-ranking y el existente inicialmente
para cada ranking. Para ello se utilizó el coeciente
de correlación de rangos rho de Spearman. Como
se observa en la tabla III, todas las correlaciones
son signicativas y muy elevadas. La correlación
más elevada se da entre el ranking NTU y URAP
0,939, en todos los demás casos las correlaciones
mayores se producen con el META-RANKING. Aún
con esa excepción, esto es un buen indicador de la
capacidad de representación de los rankings anali-
zados mediante el meta-ranking.
En el sistema universitario español, solamente
hay 14 universidades que cumplen el requisito de
aparecer en al menos cuatro de los cinco rankings
analizados. Al sintetizar en una sola dimensión la
información de los 5 rankings, que recordemos
conserva casi el 80% de la información inicial
(79,1%), la clasicación de esas universidades en
España y en el mundo se muestra en la tabla IV.
Las primeras posiciones están ocupadas por las
universidades de Barcelona y Madrid. Así por orden
de posición, en primer lugar aparece la Universidad
de Barcelona seguida de la Autónoma de Barcelona
que están entre las 200 primeras del mundo. En-
tre las posiciones 200 y 300 del ranking mundial
se situan la Autónoma de Madrid, Pompeu Fabra
y Complutense. En el intervalo 300-400 están las
Tabla II. Correlación entre las puntuaciones globales de los rankings antes y después de la imputación
(entre paréntesis)
URAP ARWU NTU THE QS
URAP 1
(1) 0,841*
(0,840*)0,801*
(0,807*)0,744*
(0,734*)0,700*
(0,682*)
ARWU 0,841*
(0,840*)1
(1) 0,739*
(0.738*) 0,798*
(0,790*) 0,684*
(0,694*)
NTU 0,801*
(0,807*)0,739*
(0,738*) 1
(1) 0,672*
(0,665*) 0,645*
(0,605*)
THE 0,744*
(0,734*)0,798*
(0,790*) 0,672*
(0,665*) 1
(1) 0,813*
(0,823*)
QS 0,700*
(0,682*)0,684*
(0,694*) 0,645*
(0,605*) 0,813*
(0,823*) 1
(1)
* nivel se signicación al 0,01.
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
7
Tabla III. Correlaciones ordinales (rho de Spearman) entre los rankings globales sintéticos y el meta-ranking
universidades de Valencia, Granada y Politécnica
de Cataluña y en el último, 400-459, se encuentran
las universidades de Santiago de Compostela, País
Vasco, Zaragoza, Sevilla y Salamanca.
No obstante, como ya se observó en la estructura
de correlación, cabe distinguir dos subconjuntos de
rankings entre los seleccionados. Es pertinente plan-
tear la existencia de dos dimensiones, dos grupos de
rankings entre los seleccionados. En el análisis fac-
torial exploratorio se observa la gran diferencia en
importancia entre el factor 1 que explica el 79,1% de
la varianza frente al 9,85% que explica el factor 2. La
nueva estructura de 2 factores contiene un 88,95%
de la información. Todas la variables consideradas
(puntuaciones globales de los rankings) están muy
bien representadas, como lo demuestran las altas
comunalidades existentes, superiores a 0,848, que
es la menor y corresponde a NTU.
Solamente a efectos de facilitar la interpretación
de los dos factores se recurrió a la rotación varimax,
una rotación ortogonal que, por tanto, mantiene la
incorrelación de los factores. Tras la rotación, la im-
portancia de los factores se equilibra, así el primer
factor explica un 47,19% de la información contenida
en las 5 variables iniciales (puntuaciones globales de
los 5 rankings) y sintetiza sobre todo la información
de los 3 rankings elaborados con datos de investiga-
ción de carácter bibliométrico (URAP, ARWU y NTU).
Por otro lado, el factor 2 representa el 41,76% de la
información total y sintetiza principalmente la infor-
mación de los rankings que utilizan otros indicadores
además de los de investigación y que recurren a en-
cuestas. Esto se deduce de las cargas de los factores
recogidas en la tabla. Sin embargo, no hay que des-
preciar la información del ranking THE captada por el
factor 1, así como la información de ARWU y URAP
captada por el factor 2.
Coef. Correlación
(Número de
universidades) URAP ARWU NTU THE QS META-RANKING
URAP 1 0,826* 0,939* 0,660* 0,623* 0,859º*
ARWU 0,826* 1 0,855* 0,764* 0,672* 0,892*
NTU 0,939* 0,855* 1 0,726* 0,636* 0,892*
THE 0,660* 0,764* 0,726* 1 0,773* 0,901*
QS 0,623* 0,672* 0,636* 0,773* 1 0,858*
META-RANKING 0,859* 0,892* 0,892* 0,901* 0,858* 1
* nivel se signicación al 0,01.
META-RANKING
Posición (España/Mundo) UNIVERSIDAD
1/111 Barcelona
2/163 Autónoma de Barcelona
3/237 Autónoma de Madrid
4/274 Pompeu Fabra
5/297 Complutense de Madrid
6/367 Valencia
7/372 Granada
8/391 Politécnica de Cataluña
9/404 Politécnica de Valencia
10/415 Santiago de Compostela
11/417 País Vasco
12/434 Zaragoza
13/443 Sevilla
14/446 Salamanca
Tabla IV. Posiciones de las universidades españolas (que aparecen en al menos cuatro de los cinco ran-
kings seleccionados) en los rankings y en el META-RANKING
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
8
En suma, el factor 1 representa una dimensión en
la que se oponen las universidades que han obte-
nido altas puntuaciones en los rankings con datos
bibliométricos de investigación frente a las que han
obtenido puntuaciones más bajas, como se puede
apreciar en la gura 1. En este factor, destacan las
universidades de Barcelona, Valencia o Granada
que presentan las mayores puntuaciones, aunque
también superan el punto medio las de Sevilla, Za-
ragoza, País Vasco y Autónoma de Barcelona, que
están por encima de la media del conjunto de uni-
versidades considerado (459). En el lado opuesto
están todas las demás, en particular, con menores
puntuaciones, las universidades Politécnicas de Ca-
taluña y Valencia y la Pompeu Fabra.
En cuanto al factor 2, opone las universidades que
han obtenido puntuaciones mayores en los rankings
que utilizan otros indicadores incluyendo encuestas,
frente a las universidades que tienen menores pun-
tuaciones en ellos. La única española que aparece
en la parte superior del gráco, por tanto por enci-
ma de la media de las 459 universidades conside-
radas, es la Universidad Autónoma de Barcelona.
Están próximas la Pompeu Fabra, la Autónoma de
Madrid y la de Barcelona. El resto está por debajo
de la media, en algunos casos bastante alejadas,
como las universidades de Sevilla, Salamanca, Va-
lencia, Zaragoza, País Vasco o Granada.
4.2. Análisis de los indicadores de todos los
rankings
El análisis factorial evidenció que de los 31 indica-
dores de los cinco rankings uno de ellos no tiene mu-
cho que ver con el resto (ratio profesores-alumnos del
ranking QS), como lo pone de maniesto una comu-
nalidad inferior a 0,3. Los indicadores de idoneidad del
análisis son muy buenos, al alcanzar un KMO de 0,915
y una prueba de esfericidad de Bartlett signicativa
(0,00). La mayor parte de los indicadores tienen una
comunalidad superior a 0,8 y solamente uno de ellos
no llega a 0,6 (citas por profesor tiene 0,58).
Tabla V. Matriz de cargas de componentes rotados
Ranking Factor
1 2
URAP 0,835 0,445
ARWU 0,737 0,552
NTU 0,891 0,298
THE 0,463 0,829
QS 0,331 0,900
Figura 1. Representación de las universidades españolas según factor 1 y factor 2 (rotación varimax)
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
9
Se identican cinco factores con valores propios
mayores que 1, que explican un 84,72% de la va-
rianza total. La comunalidad y las cargas factoriales
con rotación varimax se pueden ver en el Anexo 1.
Factor 1: volumen de producción cientíca.
Sintetiza los indicadores de producción cientíca
mostrados por los datos biliométricos como son:
número de artículos (en el año en curso o como
media de los últimos años), citas, documentos
totales, impacto total de la producción cientíca,
colaboración internacional en los artículos, junto
a estos también están los indicadores de reputa-
ción docente y de investigación (ranking THE) y
reputación académica (ranking QS). Es una prueba
más de la vinculación entre reputación universita-
ria y producción cientíca. Esta dimensión explica
el 28,9% de la información total (tras la rotación
varimax) y reúne indicadores de los diferentes
rankings, especialmente de URAP que es un ran-
king claramente de producción cientíca, de NTU
y ARWU en los indicadores de volumen y de THE y
QS en los de reputación.
Las universidades españolas que destacan y que
están por encima de la media del conjunto de las
459 analizadas son Barcelona, Autónoma de Bar-
celona, Complutense de Madrid, Autónoma de Ma-
drid, Valencia, Granada y Sevilla.
Las diez universidades del mundo que más des-
tacan en esta dimensión son Toronto, Sao Paolo,
University College London, Oxford, Michigan, Har-
vard, Tokyo, Johns Hopkins, British Columbia y
Seoul National.
Factor 2: regularidad de la producción cien-
tíca. Este factor explica un 20,74% de la infor-
mación contenida de todos los indicadores, resu-
me los indicadores que se reeren a la producción
cientíca pero como media de los últimos años
como: el número de artículos, número de citas,
media de citas, de artículos más altamente citados
todos ellos referidos a los últimos 11 años, además
de las citas y el indice h de los últimos dos años.
Todos ellos referidos al ranking NTU.
En esta dimensión solamente hay dos universi-
dades españolas que superan la media de todas las
consideradas que son las de Barcelona y Valencia.
En cuanto a las universidades referentes en este
factor, salvo la universidad china de Soochow, to-
das son estadounidenses: Johns Hopkins, Michigan,
California Los Angeles, Pennsylvania, Washington
University of St. Louis, MIT, Standford, Pittsburg y
University California San Diego.
Factor 3: calidad-productividad de la pro-
ducción cientíca. Explica casi lo mismo que el
anterior (19,4%) y contiene los indicadores de ca-
lidad de los diferentes rankings como impacto de
las citas (URAP), Premios Nobel entre alumnos o
profesores, autores altamente citados, publica-
ciones en Nature o Science, producción per cápita
(ARWU), citas, reputación docente y de investiga-
ción (THE) y citas por profesor (QS).
Como se ve, la calidad de la producción académi-
ca también está vinculada a la reputación de inves-
tigación y académica puesto que son indicadores
que tienen unas cargas parecidas a las que tienen
en el factor 1.
Entre las universidades españolas solo están por
encima de la media del conjunto la Pompeu Fabra
y la de Salamanca. En particular las universidades
más grandes (Sevilla, Complutense, Valencia, Gra-
nada y Barcelona) son las que están en las posicio-
nes más bajas de las catorce universidades espa-
ñolas analizadas.
Entre las diez primeras universidades del mundo
en esta dimensión abundan las estadounidenses
que son mayoría (8): California Institute of Tech-
nology, Harvard, Princeton, MIT, University Califor-
nia-Berkeley, Cambridge, Stanford, Chicago, ENS
Paris y Columbia.
Factor 4: internacionalización. Este factor ex-
plica bastante menos que los anteriores (10,04%)
y resume los indicadores de internacionalización
medidos por los indicadores de ratio profesores in-
ternacionales y estudiantes internacionales de los
rankings THE y QS. Aunque con un peso bastante
menor algo aporta la reputación de los empleado-
res (medida por QS).
También son únicamente dos las universida-
des españolas que superan la media del conjunto
(Pompeu Fabra y Politécnica de Cataluña), aunque
en este caso están muy próximas a la media las
universidades Autónoma de Barcelona, Granada y
Autónoma de Madrid.
Entre las universidades que lideran esta dimen-
sión hay mayoría de origen anglosajón (en par-
ticular británicas y australianas) y ninguna esta-
dounidense. Las diez primeras son: Hong Kong,
London School of Economics, Essex, EPF Lausan-
ne, Singapore, Warwick, Nanyang Tech., Tecno-
logy of Sidney, Australian National y New South
Wales.
Factor 5: ingresos de la empresa. Es el factor
que menos explica (5,65% del total de la informa-
ción) . Básicamente recoge el indicador de ingresos
derivados de las empresas que mide el THE y algo
la reputación del empleador del QS. Este último
indicador se reparte casi por igual entre el factor 4
(internacionalización) y éste.
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
10
Entre las universidades españolas destacan las
politécnicas (Politécnica de Valencia y de Cataluña)
y la de Salamanca que se sitúa en la media del
conjunto de las 459 universidades.
Entre las primeras universidades hay un claro
predominio asiático, en particular de China con
seis y Corea con tres. Las diez primeras son:
Soochow, Tsinghua, Shandong, Pekin, Tianjin,
Shanghai Jiao Tong, Korea Advanced Institute
of Science and Tech., Pohang, Seoul National y
Delft.
Solamente hay una universidad no asiática
(Delft) y ninguna estadounidense.
A continuación se muestra el posicionamiento
de las universidades españolas respecto de los
factores con mayor poder explicativo, que son los
tres primeros. La gura 2 muestra el posiciona-
miento de las universidades españolas en las di-
mensiones volumen de producción y regularidad
de la producción cientíca. Hay dos universidades
por encima de la media en las dos dimensiones
(Barcelona y Valencia), y destacan tanto en volu-
men como en regularidad de la producción cientí-
ca. Mientras que cinco más superan la media de
volumen de producción.
La gura 3 muestra el posicionamiento de las
universidades españolas en las dimensiones vo-
lumen de producción y calidad de la producción
cientíca. No hay ninguna universidad española
que esté por encima de la media en las dos di-
mensiones, siete superan la media de volumen
de producción, dos superan la media del factor
calidad de la producción (Salamanca y Pompeu
Fabra) y las otras cinco no superan la media en
ninguna de las dos dimensiones.
Respecto a la gura 4 que representa el factor
de la regularidad con el de la calidad, la mayoría
de las universidades españolas no superan la me-
dia en regularidad del conjunto de universidades
estudiado, en concreto diez de catorce. Como ya
se ha comentado hay dos que superan la media en
regularidad y dos que la superan en calidad.
Figura 2. Análisis factorial de los indicadores de los rankings. Representación de las universidades
españolas según factor 1 (volumen) y factor 2 (regularidad de la producción cientíca) con rotación
varimax
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
11
Figura 3. Análisis factorial de los indicadores de los rankings. Representación de las universidades espa-
ñolas según factor 1 (volumen) y factor 3 (calidad de la producción cientíca) con rotación varimax
Figura 4. Análisis factorial de los indicadores de los rankings. Representación de las universidades espa-
ñolas según factor 2 (regularidad) y factor 3 (calidad de la producción cientíca) con rotación varimax
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
12
5. CONCLUSIONES Y LIMITACIONES
Tras todo el proceso llevado a cabo se extraen las
conclusiones y aplicaciones que a continuación se
resumen, siendo conscientes de que dicho proceso
ha tenido que solventar dicultades y, por tanto, se
ha tenido que optar por soluciones lo que conecta
con sus limitaciones.
En la literatura que conocemos no existe un aná-
lisis de este número de rankings realizado conjun-
tamente, partiendo de una base de datos común
de las universidades que aparecen en, al menos,
cuatro de los cinco rankings. Esto constituye una
aportación a destacar, así como todo el proceso de
imputación de datos faltantes para disponer de una
base homogénea y completa.
En este trabajo se han seleccionado cinco ran-
kings globales, denominados así porque recogen
datos de universidades de todo el mundo, y sinté-
ticos, porque resumen en una valoración global los
indicadores que utilizan.
• Los rankings globales y sintéticos analizados
presentan entre ellos correlaciones positivas ele-
vadas y signicativas tanto en las puntuaciones
como en las posiciones de las universidades.
• Por un lado, los rankings basados en datos
bibliométricos presentan correlaciones más
elevadas entre ellos. Por otro lado, también
presentan correlaciones más elevadas entre
ellos los rankings que consideran otros datos
no directamente de investigación y basados
en encuestas.
A pesar de la elevada correlación entre ellos, hay
que resaltar que cabe diferenciar entre dos subcon-
juntos. Uno formado por los tres rankings que utili-
zan datos (básicamente de producción cientíca) y
otro formado por los dos rankings que además de
algunos datos bibliométricos incorporan opiniones
basadas en encuestas u otros indicadores no rela-
cionados con investigación (nivel de internacionali-
zación, reputación o ratio estudiantes por profesor).
Las puntuaciones de todos los rankings tienen
correlaciones signicativas y elevadas. Pero es de
destacar que las correlaciones mayores se dan en-
tre esos dos grupos identicados. Por un lado, tie-
nen correlaciones más altas entre sí los rankings
URAP, ARWU y NTU y, por otro lado, las tiene el
grupo formado por los rankings THE y QS. Las co-
rrelaciones menores se dan entre cada uno de los
rankings de un grupo con los del otro.
En general, el ranking QS es el que muestra una
correlación menor con el resto y el que tiene más
valores faltantes entre las universidades que apa-
recen en cuatro de los cinco rankings selecciona-
dos. En este sentido es el más atípico. Le sigue en
correlación más baja con el resto el ranking THE,
también en valores faltantes, aunque ya con un
número mucho menor de estos valores. Como ya
se ha dicho y se puede ver en los criterios de ela-
boración, estos dos rankings, con respecto a los
otros, también presentan otras peculiaridades tan-
to por su elaboración como por ser realizados por
entidades privadas no universitarias.
• El meta-ranking sintetiza una gran parte de
la información que contienen los rankings
analizados.
Es posible elaborar un meta-ranking que resu-
ma o sintetice a todos los seleccionados. El análi-
sis factorial realizado proporciona indicadores más
que aceptables, se ha obtenido un factor que con-
tiene el 79,1% de la información. Las posiciones
de las 459 universidades analizadas en el meta-
ranking se correlacionan de manera signicativa y
muy elevada con las posiciones que tienen en cada
uno de los cinco rankings.
• El THE, ARWU o ranking de Shanghái y NTU
son los que tienen mayor correlación con el
meta-ranking.
El meta-ranking tiene una correlación superior al
0,9 en el primer caso, para el ranking ARWU y NTU
alcanza el 0,892, y sobrepasa con creces el 0,8 con
los otros rankings.
• El análisis factorial muestra las dos dimen-
siones o grupos en los rankings selecciona-
dos, los netamente de investigación y biblio-
métricos y el resto.
A pesar de la gran diferencia existente entre el
factor 1 y factor 2 en cuanto a varianza explicada
(más de siete veces mayor la del primero) y sola-
mente a efectos de interpretación y para conocer el
posicionamiento de las universidades, se ha consi-
derado una solución rotada con esos dos factores.
• Las universidades españolas ocupan mejores
posiciones en el primer grupo (investigación-
bibliométrico) que en el segundo.
Al representar las universidades españolas en
ese plano de dos dimensiones, se pueden extraer
algunas conclusiones interesantes. En la dimensión
o factor 1, que es la relativa a los rankings que con-
sideran datos de investigación principalmente, hay
7 universidades por encima de la media (solamente
se consideran las 14 universidades que aparecen en
al menos cuatro de los 5 rankings) y las siete res-
tantes están por debajo. La situación es peor en la
segunda dimensión o factor 2, que considera otros
indicadores basados en encuestas y no exclusiva-
mente relacionados con investigación, puesto que
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
13
solamente la Universidad Autónoma de Barcelona
está por encima de la media. Dicha universidad es
la única que aparece por encima de la media en las
dos dimensiones. Siempre hablando en términos
comparativos con el resto de las universidades ana-
lizadas para esta solución de dos dimensiones, hay
que añadir que muchas universidades que tienen un
buen desempeño en la dimensión 1 (universidades
de Valencia, Granada, Sevilla y Zaragoza), lo tienen
claramente menor en la dimensión 2.
El análisis factorial de todos los indicadores con
los que se elaboran los rankings seleccionados
aporta reexiones interesantes.
• El volumen de producción cientíca está vin-
culado a la reputación investigadora pero
también a la docente y a la reputación aca-
démica, en general.
• El número mayor de universidades españo-
las que supera la media del conjunto se da
en la dimensión de volumen de producción
cientíca (concretamente la mitad de ellas).
Ese número es muy inferior en internaciona-
lización, relación con las empresas, calidad
y, sobre todo, en regularidad de la produc-
ción cientíca.
• De acuerdo con el punto anterior, la reputa-
ción de la universidad española viene sobre
todo por el volumen de producción cientíca,
no tanto por la calidad.
• Se han identicado las universidades que
lideran cada dimensión y que constituyen
un buen referente para realizar acciones de
benchmarking.
• Las universidades estadounidenses predomi-
nan en las primeras posiciones por volumen,
pero sobre todo por regularidad y calidad
de la producción cientíca. Sin embargo, no
aparecen universidades estadounidenses en
las dimensiones de internacionalización y
vinculación con las empresas.
• Las primeras posiciones en la dimensión de
internacionalización están ocupadas por uni-
versidades anglosajonas. En particular, esto
reeja la orientación a la internacionaliza-
ción de las universidades británicas y de las
australianas. Su apuesta por la internaciona-
lización ha dado resultados.
• En cuanto a la vinculación con la industria y
a la obtención de nanciación son las univer-
sidades asiáticas (chinas y coreanas) las que
ocupan las primeras posiciones. Su estrate-
gia de vincularse con el sector productivo ha
sido clara y estos datos la conrman.
• Recomendaciones interesantes se pueden
extraer de todo esto para las universidades
españolas, en particular en términos de re-
putación, internacionalización y vinculación
con la industria.
En general, considerando las puntuaciones glo-
bales de los rankings, las universidades españolas
tienen peor desempeño en reputación (académi-
ca, cientíca, de empleadores), el reconocimiento
que se pone de maniesto mediante encuestas,
en internacionalización, en la proporción de es-
tudiantes y profesores extranjeros y en ingreso
por la industria. Se pone de relieve que en re-
putación, las universidades españolas tienen unos
resultados peores que en la producción cientíca.
Siempre en términos relativos para esta solución
de dos dimensiones.
Una implicación clara, derivada del análisis de to-
dos los indicadores, es la necesidad de mejora que
tienen las universidades españolas en la calidad y
regularidad de la producción cientíca (más que en
volumen) y esto se hace reconociendo la calidad
y la excelencia de la investigación y promoviendo
un sistema estable de nanciación que mantenga
la regularidad, algo que no se ha tenido en los úl-
timos años.
Paralelamente, hay que prestar más atención a
la reputación de la universidad y del sistema uni-
versitario, primero por la vía de la producción cien-
tíca (volumen y calidad) como se ha dicho, pero
también con otras acciones de gestión universitaria
y de comunicación, para ganar en reconocimiento
de la sociedad (estudiantes, empleadores y demás
público objetivo) que son los que responden a en-
cuestas con las que nalmente se mide la reputa-
ción. De esta manera mejorar en imagen, es un
aspecto de las universidades que cada vez reclama
más interés (Sung y Yang, 2008; Luque y Barrio,
2009; Brown y Mazzarol, 2009).
Aunque ha habido iniciativas y estrategias de in-
ternacionalización, se constata que la internacio-
nalización y la vinculación con el sector productivo
y social son ámbitos con mucho margen de mejora
para la universidad española, como lo corroboran
los análisis comentados. No se ha sabido aprove-
char la potencialidad de tener un idioma de los más
hablados del mundo, ni la existencia de un espacio
latinoamericano con tanta demanda en formación.
La actuación de las universidades británicas y aus-
tralianas constituye un buen ejemplo para la in-
ternacionalización. Mejorar en internacionalización
pasa por mejorar la proporción de estudiantes y
profesores extranjeros. Todo esto debe redundar
en una mayor visibilidad internacional de la univer-
sidad española.
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
14
• Más allá de posiciones concretas, el interés
está en el mapa de posicionamiento de las uni-
versidades y en la identicación de las univer-
sidades líderes en el mundo para cada dimen-
sión, como herramienta de benchmarking.
Este tipo de información es de utilidad para rea-
lizar benchmarking con otras universidades y apo-
yar la toma de decisiones de los directivos de las
universidades y de las administraciones públicas,
que tienen responsabilidad en los sistemas uni-
versitarios, aprendiendo de quien obtiene mejo-
res resultados dentro de un grupo comparable de
universidades. Este es el verdadero plus o valor
añadido derivado de este meta-ranking, la utilidad
como ejercicio de comparación, nacional e interna-
cional, puesto que se pueden ver las universidades
que están para cada dimensión por debajo o por
encima de la media del conjunto de universidades
considerado y cuáles son las que lideran cada di-
mensión en el mundo. Como se ha visto, para la
producción cientíca principalmente estadouniden-
ses, para la internacionalización británicas y aus-
tralianas y para la vinculación con la industria las
chinas y coreanas.
Finalmente, cabe destacar algunas limitaciones
de este trabajo. Se ha contado con las puntuacio-
nes de cinco rankings, no son todos los existentes
pero sí son de los que cumplen los requisitos es-
tablecidos y están entre los más reconocidos. La
población está formada por 459 a las que hemos
tenido que realizar un proceso de imputación de
datos faltantes para tener un número importante
de casos. En particular, el ranking QS se constata
que es el más incompleto por el número de datos
faltantes que tiene. Además, se ha optado por un
determinado procedimiento de extracción de los
factores y una determinada rotación. Son eleccio-
nes que, aunque argumentadas, implican que no
hay un único modo de operar.
Hay que insistir en que los rankings selecciona-
dos tienen sus debilidades, que han sido puestas
de relieve, y que no podemos ignorar, es necesario
tenerlas presentes pero eso no debe paralizar el
análisis. Más aún, debe ser un aliciente para supe-
rar las limitaciones, una vía es tomar en considera-
ción los diferentes matices o dimensiones existen-
tes en las universidades y que los rankings inten-
tan captar, como se ha intentado con este trabajo.
6. REFERENCIAS
Aghion, P.; Dewatripont, M.; Hoxby, C.; Mas-Colell, A.;
Sapir, A. (2010). The governance and performance of
universities: Evidence from Europe and the US. Eco-
nomic Policy, 25 (61), 7–59. https://doi.org/10.1111/
j.1468-0327.2009.00238.x
Altbach, P. (2015). The dilemmas of ranking. Internatio-
nal Higher Education, 42. https://doi.org/10.6017/
ihe.2006.42.7878
Alves, H. (2011). The measurement of perceived value in
higher education: a unidimensional approach. The Ser-
vice Industries Journal, 31 (12), 1943-1960. https://
doi.org/10.1080/02642069.2011.550042
Alves, H.; Raposo, M. (2010). The inuence of university
image on student behaviour. International Journal of
Educational Management, 24 (1), 73-85. https://doi.
org/10.1108/09513541011013060
Brown, R. M.; Mazzarol, T. W. (2009). The importance of
institutional image to student satisfaction and loyalty
within higher education. Higher Education, 58 (1), 81-
95. https://doi.org/10.1007/s10734-008-9183-8
Buela-Casal, G.; Gutiérrez-Martínez, O.; Bermúdez-Sán-
chez, M. P.; Vadillo-Muñoz, O. (2007). Comparative
study of international academic rankings of univer-
sities. Scientometrics, 71 (3), 349–365. https://doi.
org/10.1007/s11192-007-1653-8
Delgado-López-Cózar, E. (2012). Cómo se cocinan los
rankings universitarios. How to cook the university
rankings. Dendra médica, 11 (1), 43-58.
Docampo, D. (2008). Rankings internacionales y calidad
de los sistemas universitarios. Revista de Educación,
(1), 149-176.
Docampo, D. (2010). On using the Shanghai ranking to
assess the investigation performance of university
systems. Scientometrics, 86 (1), 77-92. https://doi.
org/10.1007/s11192-010-0280-y
Docampo, D.; Herrera, F.; Luque-Martínez, T.; Torres-Sa-
linas, D. (2012). Efecto de la agregación de universi-
dades españolas en el Ranking de Shanghai (ARWU):
caso de las comunidades autónomas y los campus de
excelencia. El Profesional de la Información, 21 (4),
428-432. https://doi.org/10.3145/epi.2012.jul.16
Franke, N.; Schreier, M. (2008). A meta-ranking
of technology and innovation management/
entrepreneurship journals. Entrepreneurship Journals.
Die Betriebswirtschaft (DBW).
Grewal, R.; Dearden J. A.; Lilien, G. L. (2008). The
University Rankings Game: Modeling the Compe-
tition among Universities for Ranking. The Ame-
rican Statistician, 62 (3), 232-237. https://doi.
org/10.1198/000313008X332124
Hazelkorn, E. (2012). The Eects of Rankings on Student
Choices and Institutional Selection. En Jongbloed, B.;
Vossensteyn, H. (eds.), Access and Expansion Post-
Massication: Opportunities and Barriers to Further
Growth in Higher Education Participation. London:
Routledge.
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Meta-ranking de universidades. Posicionamiento de las universidades españolas
15
Hernández, M.; Sureda, B.; Escribano Rodríguez, B.; Ca-
rrera, E.; Martínez, J.; A., Aguado, J. C.; Cot, M. y
Busquets, P. (2016). Informe sobre la Competència de
Sostenibilitat i Compromís Social a la Universitat Poli-
tècnica Catalunya.
IBM SPSS Advanced Statistics 20.0 (2011).
Ishikawa, M. (2009). University rankings, global
models, and emerging hegemony. Critical analysis
from Japan. Journal of Studies in International
Education, 13 (2), 159–173. https://doi.
org/10.1177/1028315308330853
Liu, N. C.; Cheng, Y. (2005). The academic ranking of world
universities. Higher Education in Europe, 30 (2), 127-
136. https://doi.org/10.1080/03797720500260116
Luque-Martínez, T. (2013). La actividad investigadora de
la universidad española en la primera década del siglo
XXI: la importancia del tamaño de la universidad. Revis-
ta Española de Documentación Cientíca, 36 (4): e026.
doi: http://dx.doi.org/10.3989/redc.2013.4.1046
Luque-Martínez, T. (2015a). Horizon 2031. The University
of Granada in Light of its V Century. Reections on the
Future of the University. Granada (España): Editorial
Universidad de Granada. http://biotic.ugr.es/pages/
horizon-2031.
Luque-Martínez, T. (2015b). Actividad investigadora y
contexto económico. El caso de las universidades
públicas españolas. Revista Española de Documen-
tación Cientíca, 38 (1): e076. doi: http://dx.doi.
org/10.3989/redc.2015.1.1135
Luque-Martínez, T.; Barrio-García, S. del (2009). Mo-
delling university image: The teaching sta view-
point. Public Relations Review, 35 (3), 325-327.
https://doi.org/10.1016/j.pubrev.2009.03.004
Luque-Martínez, T.; Barrio-García, S. del (2016). Cons-
tructing a synthetic indicator of research activity.
Scientometrics, 108 (3), 1049-1064. https://doi.
org/10.1007/s11192-016-2037-8
Marginson, S.; Van der Wende, M. (2007). To rank
or to be ranked: The impact of global rankings in
higher education. Journal of Studies in Interna-
tional Education, 11 (3-4), 306-329. https://doi.
org/10.1177/1028315307303544
Olssen, M.; Peters, M. A. (2005). Neoliberalism, hig-
her education and the knowledge economy: From
the free market to knowledge capitalism. Journal
of Education Policy, 20 (3), 313-345. https://doi.
org/10.1080/02680930500108718
Rainer Jr, R. K.; Miller, M. D. (2005). Examining di-
erences across journal rankings. Communi-
cations of the ACM, 48 (2), 91-94. https://doi.
org/10.1145/1042091.1042096
Rauhvargers, A. (2014). Where are the global rankings
leading us? An analysis of recent methodological
changes and new developments. European Journal of
Education, 49 (1), 29-44. https://doi.org/10.1111/
ejed.12066
Robinson-García, N. (2014). Classifying and visualizing
the disciplinary focus of universities. The invisible fac-
tor of university ranking. Doctoral thesis. Universidad
de Granada.
Robinson-García, N.; Torres-Salinas, D.; López-Cózar, E.
D.; Herrera, F. (2014). An insight into the importance
of national university rankings in an international con-
text: the case of the I-UGR rankings of Spanish uni-
versities. Scientometrics, 101 (2), 1309-1324. https://
doi.org/10.1007/s11192-014-1263-1
Sanz-Casado, E.; García-Zorita, C.; Serrano-López, A. E.;
Efraín-García, P.; De Filippo, D. (2013). Rankings na-
cionales elaborados a partir de múltiples indicadores
frente a los de índices sintéticos. Revista Española de
Documentación Cientíca, 36 (3): e012. https://doi.
org/10.3989/redc.2013.3.1.023
Sung, M.; Yang, S. U. (2008). Toward the model of uni-
versity image: The inuence of brand personality, ex-
ternal prestige and reputation. Journal of Public Re-
lations Investigation, 20 (4), 357-376. https://doi.
org/10.1080/10627260802153207
Waltman, L.; Calero-Medina, C.; Kosten, J.; Noyons, E.;
Tijssen, R. J.; Eck, N. J.; Wouters, P. (2012). The Lei-
den Ranking 2011/2012: Data collection, indicators,
and interpretation. Journal of the American Society for
Information Science and Technology, 63 (12), 2419-
2432. https://doi.org/10.1002/asi.22708
Rev. Esp. Doc. Cient., 41(1), enero-marzo 2018, e198. ISSN-L: 0210-0614. https://doi.org/10.3989/redc.2018.1.1456
Teodoro Luque-Martínez, Nina Faraoni, Luis Doña-Toledo
16
ANEXO 1
Matriz de componentes rotados
Indicador Comunalidades Factor 1 Factor 2 Factor 3 Factor 4 Factor 5
URAP_nº artículos 0,968 0,907 0,287 0,22 -0,014 0,118
URAP_nº citas 0,957 0,775 0,349 0,482 0,039 -0,023
URAP_documentos totales 0,956 0,885 0,313 0,264 -0,002 0,079
URAP_impacto total artículos 0,964 0,779 0,342 0,486 0,058 0,014
URAP_impacto total citas 0,926 0,661 0,339 0,604 0,062 -0,066
URAP_ colaboración internacional 0,889 0,823 0,26 0,316 0,207 -0,038
ARWU_egresados Nobel y Fiels 0,667 0,325 0,203 0,717 0,069 0,021
ARWU_profesores Nobel y Fields 0,721 0,282 0,209 0,771 0,057 -0,02
ARWU_investigadores altamente
citados 0,806 0,429 0,352 0,698 0,102 -0,003
ARWU_artículos en Nature y Science 0,88 0,471 0,338 0,732 0,092 -0,008
ARWU_ artículos indexados en SCI 0,9 0,853 0,322 0,179 -0,011 0,189
ARWU_rendimiento académico 0,742 0,235 0,178 0,754 0,233 0,181
NTU_nº artículos útimos 11 años
(2004-2014) 0,962 0,669 0,682 0,155 0,024 0,159
NTU_nº artÍculos último año (2014) 0,959 0,722 0,622 0,083 0,027 0,208
NTU_nº citas útimos 11 años (2004-
2014) 0,981 0,47 0,815 0,294 0,091 0,039
NTU_nº citas último año (2014) 0,983 0,53 0,789 0,241 0,112 0,091
NTU_nº media citas últimos 11 años
(2004-2014) 0,918 -0,051 0,844 0,388 0,185 -0,137
NTU_índice h 2013-2014 0,948 0,394 0,846 0,233 0,146 0,036
NTU_nº artículos altamente citados 0,98 0,437 0,81 0,337 0,134 0,04
NTU_nº artículos en revista de
impacto 2014 0,973 0,512 0,793 0,234 0,119 0,116
THE_profesorado 0,832 0,553 0,251 0,57 0,162 0,336
THE_perspectiva internacional 0,886 0,075 0,041 0,199 0,914 -0,059
THE_investigación 0,874 0,554 0,214 0,536 0,278 0,396
THE_citas 0,618 0,09 0,329 0,598 0,346 -0,156
THE_ingresos procedentes de la
industria 0,661 0,139 -0,016 -0,02 -0,033 0,8
QS_reputación académica 0,754 0,682 0,041 0,316 0,284 0,328
QS_reputación empleadores 0,623 0,407 0,228 0,095 0,445 0,446
QS_internacionalización de la
institución 0,732 0,077 0,062 0,043 0,848 0,028
QS_internacionalización de los
alumnos 0,778 -0,028 0,186 0,176 0,839 0,091
QS_citas por facultad 0,577 -0,008 0,039 0,578 0,097 0,481
Método de extracción: Análisis de componentes principales.
Método de rotación: Normalización Varimax con Kaiser.
Análisis factorial de indicadores de los cinco rankins. Comunalidades y cargas factoriales con rotación
varimax