¿Existen relaciones de poder en la ciencia mundial?

Según Fernanda Beigel, investigadora principal del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) de Argentina, los rankings universitarios se convirtieron en “una fuente directa para reforzar el prestigio de un pequeño grupo de universidades, de sus principales revistas y editoriales oligopólicas”.

Para Beigel, la aplicación de estos rankings “tiende a volver cada vez más periférica a la ciencia desarrollada en los espacios alejados del circuito mainstream o de corriente principal”.

Sin embargo, otros expertos notan que no existen otras herramientas de medición de la producción científica, y afirman que la constitución de Universidades de Rango Mundial (URM) es un tema de “vital importancia para el desarrollo económico de largo plazo”.
El debate se está posicionando entre buscar nuevas herramientas y aprovechar las existentes para identificar los puntos débiles de la educación en los países en vías de desarrollo.

Las revistas científicas
Beigel recuenta que, históricamente, tres procesos forjaron el carácter internacional de la actividad científica: 1) la circulación de personas, textos y objetos, 2) el modo de producción de conocimiento y, 3) el financiamiento de la investigación.

“Pero fue el sistema de publicaciones el medio más eficiente de ‘universalización’ de un estilo legítimo de producción, a medida que las revistas se convertían en el eje de rotación del sistema académico mundial. Y pronto los indicadores bibliométricos sirvieron como fuente principal para las comparaciones internacionales”, agrega.

Este sistema comienza en 1959, con la creación del Instituto de Información Científica (ISI) y del Science Citation Index (SCI).

Esta base de datos se presentó como una fuente de información internacional “pero tanto el sistema de evaluación como la mayoría de las revistas tenían un anclaje particular y concreto, principalmente, la academia estadounidense. Gradualmente, esta se universalizó como la única base de datos capaz de medir ‘ciencia mundial’”.

¿Ciencia periférica?
Para la experta del CONICET, “el ISI, sus índices y el factor de impacto terminaron por imponer una idea de ciencia mainstream vinculada a aquellos artículos publicados en revistas incluidas en el SCI y, por oposición, una idea de ciencia periférica, en la que se incluye todo lo que estaba fuera de esta base de datos”.

En ese sentido, lo local y lo internacional, “características inseparables de la producción científica, se volvieron divisibles en términos del proceso de reconocimiento académico: los científicos periféricos terminaron circunscritos a la circulación local, mientras que los académicos de las universidades centrales acumularon capital científico internacional”.
Con el paso de los años, esta tendencia se afianzó y profundizó. Y con ello, el prestigio adquirido por una publicación en una revista ISI fue universalizado como sinónimo de prestigio internacional.

Así, la influencia en los debates de la ciencia difieren fuertemente según dónde se producen las investigaciones. “Y es aquí donde la historia de cada campo y su proceso de ‘acumulación originaria’ de prestigio ISI juegan un papel determinante para el establecimiento de jerarquías estructurantes del proceso de circulación”, nota Beigel.

Rankings universitarios
Quizá uno de los puntos de mayor debate será el referido a los rankings universitarios. Según Beigel, éstos “se basan solo en datos bibliométricos y premios internacionales y, en consecuencia, estarían orientados por la competitividad global en lugar de observar realmente la performance en investigación”.

Sin embargo, las instituciones que elaboran los principales rankings no lo ven así. Webometrics, quizá la más grande, toma en cuenta a “todas las universidades del mundo, no solamente unos cuantos cientos de instituciones del mundo desarrollado”, y afirma proveer “información confiable, multidimensional, actualizada y útil acerca del desempeño de las universidades”.

Por su parte, QS University Rankings detalla los siguientes criterios y su ponderación a la hora de hacer sus evaluaciones: Reputación Académica (30%), Reputación entre Empleadores (20%), Ratio Académicos/Alumnos (10%), Proporción de Académicos con Doctorado (10%), Publicaciones Científicas por Académico (5%), Citas Científicas por Publicación (10%), Impacto Online (5%), Red Internacional de Investigación (10%).

El Ranking de Nueva Economía usa estos criterios: Plantel universitario, docente y administrativo (30%), Calidad docente (30%), Percepción (20%), Acreditación y posgrado (10%) y Carreras (10%).

El meollo
Por un lado, Beigel propone crear (y ha avanzado en esto) un “índice institucional de circulación de la producción científica” para observar y evaluar de mejor manera el conocimiento producido en la periferia.

Mientras, el experto boliviano Wilmar Ascárraga, advierte que “nuestras universidades enfrentan grandes desafíos”, y que es urgente mejorar aspectos como la docencia (entorno de aprendizaje), la investigación, el vínculo con la industria, perspectiva internacional (docentes, estudiantes e investigación) y transferencia de conocimiento.

Posiblemente el camino acertado sea avanzar en ambos frentes, sin usar las críticas a los rankings como excusa para la situación actual, pero al mismo tiempo promoviendo herramientas propias que reflejen mejor la generación del conocimiento científico fuera de los circuitos elitistas del primer mundo.