viernes, noviembre 11, 2005

Publicación científica

Si recientemente escribía sobre los fallos en el sistema "peer review" de selección de artículos para las publicaciones científicas, encuentro en tecnocidanos otro post sobre los fallos en el sistema de clasificación de esas mismas revistas. Hace referencia a su vez a otro del Chronicle of Higher Education.
Cito literalmente
"Así que para mejorar el impacto hay que disminuir el número de artículos o aumentar el de citas, algo que puede conseguirse siguiendo algunos procedimientos bien conocidos: 1) pedir/sugerir al autor que sea comprensivo, citando artículos ya aparecidos en la revista en donde quiere publicar; 2) privilegiar autores que sean famosos y/o poderosos; 3) fomentar artículos sobre temas que estén de moda; 4) publicar textos (editoriales, revisiones, reseñas,...) que no suelen aportar datos nuevos (y, por tanto, no son contabilizados como artículos que hacen crecer el denominador de la división que mide el impacto) pero que, en cambio, suelen llevar muchas referencias a los números anteriores (y, en consecuencia, incrementan la cifra del numerador)."
Por una parte ahonda en las debilidades del sistema que rige la investigación universitaria actualmente. Pero me llama más la atención como una muestra del exceso de confianza que estamos depositando actualmente en índices puramente cuantitativos para valoraciones que tienen consecuencias muy importantes. ¿No hemos vivido siglos sabiendo reconocer a artistas, científicos o instituciones sin utilizar índices? ¿Por qué ahora no podemos vivir sin ellos? ¿No nos estaremos "cargando" la diversidad de nuestra sociedad? Si nos ponemos de acuerdo en qué valores representar en un índice y todos gestionamos para ser los mejores en ese índice, ¿qué especio queda para la creatividad y para implantar nuevos modelos de gestión? Viva la cuantificación, pero sepamos ponerla en su sitio.

Technorati tags:
| |

No hay comentarios: