Los rankings universitarios se han popularizado en los últimos años, recogiéndose sus resultados en los diferentes medios de comunicación. Además las universidades los utilizan como reclamo y forma de reivindicarse frente a las otras universidades en un entorno globalizado. Así, hemos analizado en estas páginas distintos rankings (Shanghai, Leiden, QS, THE). Asimismo en nuestros dos artículos “el valor de los rankings universitarios (primera parte)” y “el valor de los rankings universitarios (segunda parte) analizamos cuál puede ser el valor de los rankings y su metodología.

El 17 de abril de 2013 se ha publicado el CWTS Leiden Ranking 2013, que mide “el rendimiento científico de las 500 principales universidades en todo el mundo”, para lo cual utiliza un conjunto de “indicadores bibliométricos sofisticados”, de modo que ofrece “medidas muy precisas del impacto científico de las universidades así como la implicación de las universidades en la colaboración científica”. Es, por lo tanto, un ranking que tiene en cuenta exclusivamente la investigación. En estas páginas también analizamos el ranking de la Universidad de Leiden para el 2011/2012, metodología y principales resultados.

Los resultados son similares a los de la edición anterior, un claro dominio de las universidades de Estados Unidos (38 en el top 50), seguidas de las universidades del Reino Unido (7 en el top 50). Las universidades españolas siguen en posiciones discretas, con 15 universidades que aparecen a partir de la posición 259 (Universidad de Barcelona).

El ranking se basa en la experiencia bibliométrica del Centre for Science and Technology Studies (CWTS) de la Universidad de Leiden. Sus promotores afirman que en comparación con otros rankings universitarios, este ranking ofrece mejores indicadores acerca del impacto y la colaboración científicas y utiliza una metodología mucho más transparente. Además, no confía solamente en datos subjetivos obtenidos a partir de encuestas o aportados por las propias universidades, como sucede en otros rankings.

La versión para 2013 incluye mejoras y nuevas características, de acuerdo con los autores, especialmente en lo que se refiere a la metodología para obtener datos así como la adición de cinco campos o áreas científicas. Además se ha incorporado un nuevo indicador que mide la relación entre la universidad y las empresas y la posibilidad de excluir publicaciones en determinados tipos de revistas (revistas no internacionales, revistas profesionales y revistas de difusión popular).

Metodología

El Ranking toma como referencia las publicaciones recogidas en la base de datos de Thomson Reuters. Recoge las 500 universidades de todo el mundo con la mayor generación de publicaciones en el “Web of Science database”. Además de universidades incluye organizaciones relacionadas directamente con las universidades, como los hospitales asociados con universidades.

Las publicaciones se han asignado a las universidades tomando como referencia la universidad de pertenencia de los autores según se indique en dicha publicación.  Generalmente las universidades no han verificado esta asignación. Los propios autores del ranking reconocen que pueden existir errores debido a que el proceso se ha realizado parcialmente de forma manual y por la existencia de inexactitudes; así pueden darse “falsos positivos” es decir, publicaciones que se han asignado a una universidad cuando el autor realmente no pertenece a ésta  y  ‘falsos negativos’, que son publicaciones que no se han asignado a una universidad cuando realmente debería haberse hecho.

Se han definido cinco áreas de producción científica:

  • Biomédica y ciencias de la salud.
  • Ciencias de la vida y la tierra.
  • Matemáticas e informática.
  • Ciencias naturales e ingeniería.
  • Humanidades y ciencias sociales.

La asignación de las categorías de las publicaciones del “Web of Science” a cada área se puede consultar en un fichero Excel o utilizando el software VOSviewer.

Indicadores

El  CWTS Leiden Ranking 2013 toma como referencia las publicaciones recogidas en la base de datos de Thomson Reuters’ Web of Science  en el período 2008-2011. Solamente se han tenido en cuenta las publicaciones de uno de los siguientes tipos: artículo (article) y revisión (review). Además se incluyen publicaciones de universidades, no de otros centros de investigación.

El Ranking utiliza indicadores de productividad científica, impacto científico e indicadores de colaboración.

La productividad científica se mide utilizando el indicador Number of publications (P). Se calcula contando el número total de publicaciones de una universidad.

Indicadores de impacto

  • MCS (mean citation score). número medio de veces que se citan las publicaciones de una universidad;
  • MNCS (mean normalized citation score). número medio de veces que se citan las publicaciones de una universidad normalizadas por campo y año de publicación.  Así, un valor MNCS de dos significa que las publicaciones de una Universidad se han citado dos veces de media en el mundo.
  • PP(top 10%) (proportion of top 10% publications). proporción de publicaciones de una universidad que en comparación con otras publicaciones en el mismo campo y el mismo año se encuentran en el top 10% de las citadas con más frecuencia.

Se ha tomado como referencia para la obtención de datos hasta el final del año 2012 y se excluyen auto-citas. Los autores consideran que el indicador PP(top 10%) es más estable que el indicador MNCS y por ello consideran que éste, PP(top 10%), es el más importante del Ranking.

Indicadores de colaboración

  • PP(collab) (proportion of interinstitutional collaborative publications): proporción de trabajos que una universidad ha publicado en colaboración con una o más organizaciónes; 
  • PP(int collab) (proportion of international collaborative publications. proporción de trabajos que una universidad ha publicado en colaboración con dos o más países;
  • PP(UI collab) (proportion of collaborative publications with industry). Este indicador es nuevo. Mide la proporcion de publicaciones que una Universidad ha publicado en colaboración con una o más empresas.
  • MGCD (mean geographical collaboration distance): distancia geográfica media de las organizaciones que han colaborado en una publicación  según las direcciones recogidas en el listado de direcciones de la publicación.

Revistas científicas de tipo especial

Se consideran especiales estas publicaciones si cumplen una de las dos condiciones siguientes:

  • La revista científica no se publica en inglés o si se publica en inglés los autores son de pocos países, lo cual indica que la revista no es realmente de ámbito internacional.
  • La revista científica tiene un número pequeño de referencias a otras revistas en  la base de datos Web of Science, indicando una débil conexión con otras revistas. Esto es frecuente con muchas revistas científicas en humanidades, revistas profesionales y revistas orientadas al gran público (“populares”).

El Leiden Ranking permite excluir publicaciones de estos tipos para obtener los indicadores. Excluyendo revistas especiales los autores consideran más exactos los indicadores MNCS y PP(top 10%). Por defecto están excluídas.

Indicadores dependientes/independientes del tamaño de la Universidad

El Leiden Ranking utiliza por defecto indicadores independientes del tamaño de la Universidad (estadísticas por publicación), de modo que permite comparaciones entre universidades pequeñas y otras mayores.  También permite mostrar indicadores dependientes del tamaño de la Universidad, que proporcionan estadísticas globales de la Universidad (por ejemplo productividad total)

Resultados

El ranking, utilizando el indicador de impacto científico proportion top 10% publications (PPtop 10%))  ofrece los siguientes resultados tomando en consideración todas las áreas (ranking global):

Las diez primeras universidades en el ranking son: MIT, Univ Calif – Santa Barbara, Stanford Univ, Princeton Univ, Harvard Univ, Rice Univ, Univ Calif – Berkeley, Caltech, Univ Calif – San Francisco, Yale Univ, es decir, todas universidades de Estados Unidos.

En el top 50 se encuentran universidades de los siguientes países:

  • 38 universidades pertenecientes a Estados Unidos, encabezadas por el MIT.
  • 7 universidades del Reino Unido: Cambridge (24), Oxford (30), London Sch Hyg & Trop Med (33), Imperial College London (41), Univ St. Andrews (47), Exeter (49), Univ Coll London (50).
  • 2 universidades suizas: la Ecole Polytechnique Federale de Lausanne que es el primer centro de fuera de Estados Unidos (puesto 13) y el ETH de Zurich (puesto 26).
  • 1 universidad de Israel: Weizmann Inst Sci, en el puesto 23.
  • 1 universidad de Dinamarca: Tech Univ Denmark (45).
  • 1 universidad de Irlanda: Trinity College (48).

Entre las 500 universidades, aparecen 15 universidades españolas, una menos que el año pasado, aunque en posiciones similares: Universidad de Barcelona (259), Universidad Politécnica de Valencia (282), Universidad de Santiago de Compostela (317), Universidad Autónoma de Barcelona (333), Universidad de Valencia (336), Universidad Autónoma de Madrid (356), Universidad de Zaragoza (366), Universidad de Granada (375), Universidad Politécnica de Cataluña (396), Universidad de Sevilla (402), Universidad Complutense (406), Universidad de Murcia (408), Universidad de Oviedo (409), Universidad del País Vasco (411), Universidad Politécnica de Madrid (434).

En la página web del ranking se pueden consultar los resultados para otros indicadores de productividad científica así como de colaboración, utilizando diferentes parámetros y por área.

Tomás Gómez 18/04/2013

REFERENCIA S Y MÁS INFORMACIÓN

CWTS Leing Ranking.

CWTS Leiden Ranking: metodología.

CWTS Leiden Ranking: recursos adicionales.

Leideng Ranking 2011/2012

THE World University Rankings 2012/2013

El valor de los rankings universitarios (primera parte)

El valor de los rankings universitarios (segunda parte)

Análisis de los rankings de Shanghai y THE 2011.

Análisis del ranking de Shanghai 2012