Poco tiempo llevo aprendiendo y conociendo qué es esto de la Evaluación Científica y la Bibliometría. Tal vez demasiado poco como para opinar acerca de ello.
No obstante, la sensación que se me queda cada vez que leo algo o me cuentan algo sobre el tema es de desconcierto. Y no sólo eso, sino que cuanto más ahondo acerca del tema más desconcertado me encuentro. Es por ello, que si caigo en el error agradecería que los expertos en la materia me corrigieran de inmediato. La impresión que me llevo, de momento, es que la calidad de los trabajos, al igual que sucede con Google y su sistema de recuperación de búsquedas, se basa principalmente en la popularidad. Y ¿es realmente válida la popularidad como un criterio de calidad? En esto es donde aún no me aclaro, digamos que voy asimilando conceptos pero sin que éstos me lleguen a convencer. Lo que sí es cierto es que todo este paradigma hace que algo que en un principio se me antojaba como aburridísimo (contar citas, bua!), ahora sí que despierta cierto interés en mí.
La calidad de un trabajo podría definirse como un aspecto (por llamarlo de alguna manera) intrínseco al documento, algo implícito que ya subyace en el documento desde el momento en el que éste es concebido. Es decir, un artículo (o un sitio web) es bueno ya de por sí, y al tomar contacto con la comunidad, ésta lo que hace no es más que constatar su calidad.
El problema de la evaluación de la ciencia surge, como siempre, desde el momento en el que se establecen criterios. Ya que esto supone incluir cierto factor no exento de subjetividad. Pero bueno, una vez asumidos unos criterios, haber sido discutidos y considerados válidos por la gran mayoría, como es el caso de las citas, se incorporan como base para la evaluación.
Pero es éste el momento que más dudas me suscita acerca de la validez del sistema. Desde el mismo momento en el que se intuyó cómo funcionaban los buscadores en Internet (que son, a fin de cuentas los que evalúan la calidad/visibilidad de los sitios web) surgió el posicionamiento, cuya principal función es "falsear" esos resultados mediante una serie de técnicas hasta el punto que se ha convertido en una profesión.
En la ciencia, sin llegar a esos extremos, y siempre desde mi humilde punto de vista, ha ocurrido exactamente lo mismo, desde el momento en el que se establecen unos criterios de evaluación, se convierte en práctica habitual establecer una serie de métodos que falseen estos resultados. De hecho, hay mucha mafia al respecto.
De hecho, cada vez son más las voces críticas con los resultados que ofrece Google y por lo fácil que es vulnerarlos. ¿No ocurrirá lo mismo con la evaluación científica si continúan y aumentan las malas prácticas?
La calidad de un trabajo podría definirse como un aspecto (por llamarlo de alguna manera) intrínseco al documento, algo implícito que ya subyace en el documento desde el momento en el que éste es concebido. Es decir, un artículo (o un sitio web) es bueno ya de por sí, y al tomar contacto con la comunidad, ésta lo que hace no es más que constatar su calidad.
El problema de la evaluación de la ciencia surge, como siempre, desde el momento en el que se establecen criterios. Ya que esto supone incluir cierto factor no exento de subjetividad. Pero bueno, una vez asumidos unos criterios, haber sido discutidos y considerados válidos por la gran mayoría, como es el caso de las citas, se incorporan como base para la evaluación.
Pero es éste el momento que más dudas me suscita acerca de la validez del sistema. Desde el mismo momento en el que se intuyó cómo funcionaban los buscadores en Internet (que son, a fin de cuentas los que evalúan la calidad/visibilidad de los sitios web) surgió el posicionamiento, cuya principal función es "falsear" esos resultados mediante una serie de técnicas hasta el punto que se ha convertido en una profesión.
En la ciencia, sin llegar a esos extremos, y siempre desde mi humilde punto de vista, ha ocurrido exactamente lo mismo, desde el momento en el que se establecen unos criterios de evaluación, se convierte en práctica habitual establecer una serie de métodos que falseen estos resultados. De hecho, hay mucha mafia al respecto.
De hecho, cada vez son más las voces críticas con los resultados que ofrece Google y por lo fácil que es vulnerarlos. ¿No ocurrirá lo mismo con la evaluación científica si continúan y aumentan las malas prácticas?
Buena reflexión, fígaro! Estupendo post.
ResponderEliminarA veces es dificil situar la delgada línea roja entre la optimización (de una web, de un artículo, de una revista buscando la mayor visibilidad ) y el falseamiento de lo mismo. Por eso el impacto no es medida de calidad, aunque esté relacionado con ella de algún modo (que no sabemos muy bien cuál es).
Qué curioso, lo que se bloguea sobre bibliometría últimamente,
un saludo
Gracias por la visita!!
ResponderEliminarComo ya digo, estoy empezando a interesarme por el tema y no lo llego a ver claro. Evidentemente el impacto está muy relacionado con la calidad, aunque no siempre y esto suele a confundirse.
Gracias por el apunte!