Enlaces accesibilidad

Los científicos que falsifican con método científico obtienen 'mejores notas'

  • El prestigio de los trabajos se mide con índices en ocasiones manipulables
  • Ha habido experimentos y triquiñuelas para manipular esos ránkings
  • Se han conseguido 'colar' trabajos falsos en publicaciones y conferencias

Por
 Manual científico.
Manual científico. Eusebius/Flickr

A cierto nivel, el mundo de la ciencia gira en torno a las publicaciones científicas: trabajos que los académicos preparan con esmero y que son examinados por sus colegas, en un proceso conocido como revisión por pares para acabar siendo dados a conocer al entorno especializado y al público general en revistas, conferencias y libros.

De las publicaciones científicas dependen muchas veces los puestos de trabajo y la esencia de los propios científicos: las subvenciones que obtienen, la financiación para llevar a cabo proyectos concretos o la posibilidad de dedicarse a alguna rama teórica del saber sin tener que preocuparse de mundanales cuestiones.

Pero esta dependencia lleva a veces a una minoría a situaciones en las que resulta más fácil 'manipular' ese proceso de revisión y publicación que dedicarse al trabajo real. Son triquiñuelas que en ocasiones se convierten en escándalos debido a su alcance.

El índice h de citación

La forma de medir el impacto de las publicaciones es para algunos su principal campo de batalla. Es un área un tanto gris, en ocasiones un poco relativa, aunque existen 'índices' aceptados por la comunidad y que se pueden calcular, generalmente según el número de veces que los trabajos son citados posteriormente y por quién exactamente.

Uno de esos índices, inventado por Jorge Hirsch, es el índice h -sobre el que también hay controversia- que básicamente mide la relevancia de los trabajos científicos con una fórmula.

Depende del número de trabajos publicados y cuántas citas tienen como mínimo. Por ejemplo: si alguien publicó 30 trabajos y el primero recibió 100 citas, el segundo 25 y el resto de cinco o menos, su índice h sería entonces 2, porque solo tiene dos trabajos que tienen más de dos citas.

En cambio alguien pudo haber publicado cinco trabajos y recibir cuatro citas a uno: su índice sería 4 porque tiene cuatro trabajos con al menos cuatro citas cada uno.

Favores entre científicos

Pero este método también tiene sus problemas y es que algunos científicos tienden a intercambiarse favores apareciendo como autores de los trabajos de otros, con el único objetivo de figurar en las listas cuando esos trabajos son luego citados. O se citan profusamente entre sí, esperando que los demás hagan lo mismo. Todo por un puñado de citas, en contra del buen hacer del método científico.

Es como cuando los webmasters intercambian enlaces en sus webs para mejorar su reputación y aparecer 'más alto' en los resultados de las búsquedas de Google. El "yo te doy cremita, tú me das cremita" de la ciencia.

En una situación similar, la editorial Elsevier y el instituto de ingeniería IEEE tuvieron que retirar 120 trabajos recientemente al descubrir que su contenido era simplemente 'basura' que había sido generada por ordenador, texto prácticamente alteatorio.

El problema era que lo que comenzó como una broma se fue de las manos y empresas y otras organizaciones menos estrictas que otras dieron por bueno algunos de esos trabajos científicos como parte de su mecánica burocracia, autorías y citas incluidas. El ridículo de la situación fue espantoso.

Engaño a Google Académico

Meses antes, investigadores de la Universidad de Granada y de Navarra demostraron cuán fácil era engañar a Google manipulando uno de sus servicios: Google Académico, en concreto Google Scholar Citations y Google Scholar Metrics.

Para lograrlo crearon un trabajo falso, lo tradujeron burdamente con las herramientas de traducción de Google y lo subieron a su web de la universidad. El autor: el inexistente "Marco Alberto Pantani-Contador".

El robot de Google rastreó la web y la añadió a su base de datos; poco a poco fueron aumentando las citas y los indicadores bibliométricos de referencia al trabajo en cuestión.

En total los tres investigadores mejoraron las citas y a la vez aumentaron las de 47 investigadores y 51 revistas. El engaño demostró lo fácil que es a veces manipular una fórmula o un ránking. También sirvió para denunciar esa 'obsesión compulsiva' que consideran que existe en la comunidad científica al usar las citas como la unidad de medida, convertidas en 'moneda de cambio' a veces.

Noticias

anterior siguiente