viernes, 18 de octubre de 2013



Publicando en revistas científicas: los evaluadores y el acceso a la evidencia empírica

Hace poco tiempo leí un artículo publicado en una revista académica en el que se hacía una buena revisión de la literatura especializada en un campo específico de la Ciencia Política. Se trataba sobre los enfoques teóricos y metodológicos que más se han utilizado, las dimensiones más analizadas y también sobre los países menos explorados. El manuscrito, a la par, abiertamente exhortaba a los investigadores a preocuparse de trabajar esas realidades poco conocidas. De mi lado, mi pregunta básica fue “¿por qué esos países están menos estudiados que otros?” y una de mis inmediatas respuestas fue… “porque los datos no se consiguen con facilidad”. Más allá de la cantidad de investigadores que existen en México, Argentina, Brasil o Chile, tengo la sospecha que hay otra razón que explica por qué son los más estudiados. Creo que es simple y llanamente porque el acceso a los datos es más rápido. No hay que intentar tapar el sol con un dedo: sabemos bien que hay investigadores que seleccionan sus casos de estudio en función de si el trabajo de campo lo pueden hacer cómodamente sentados en la oficina.
En fin,  comenté sobre este tema a un colega y él inmediatamente decidió asumir el reto de investigar algunos de los países menos estudiados. Hizo trabajo de campo intenso pero, obviamente, consiguió pocos datos sistemáticos. Lo que encontró fue que habían archivos incompletos, mutilados, funcionarios que negaban la información o la daban parcialmente, cifras disponibles solamente para pocos años y en otros casos…… simplemente la información no existía. Punto.
El colega escribió un manuscrito, lo mandó a una revista y esperó alrededor de tres meses (lo mínimo que demora un arbitraje). A la vuelta, el consejo editorial decidió rechazar su trabajo adjuntando las evaluaciones de los árbitros. Una pedía el rechazo y dos “revisar y reenviar”. Dos de las tres (más allá de interesantes comentarios y valiosas sugerencias teóricas y metodológicas) decían que faltaba evidencia empírica, que se requería más datos, que si se podía agregar la información de tal o cual hecho, etc. En ese caso la respuesta es simplemente: “NO, no se puede agregar más datos, ni hacer nada más simple y llanamente por que la información NO EXISTE”.
Más allá de la frustración del colega, lo que me pareció interesante analizar es la paradoja que este caso plantea. Por un lado, se hace una invitación a estudiar los países menos trabajados; y, por otro lado, se desechan artículos sobre esos países por falta de datos. El mensaje final de esto es: si eres pragmático estudia los casos ya conocidos (Argentina, Brasil, Chile o México) pues es más fácil acceder a los datos y publicar. Si insistes en analizar los otros países, harás un gran sacrificio en el trabajo de campo para que al final te rechacen el manuscrito por ausencia de información sistemática. Decide.  Triste pero cierto. Al final, en unos años, cuando se vuelva a hacer una revisión de la literatura sobre el tema, vamos a estar en la misma situación: mucho trabajos sobre 4 o 5 países y nada sobre el resto.
Yo estoy firmemente convencido que los hallazgos teóricos/empíricos de cualquier ciencia se los debe difundir, prioritariamente, a través de revistas científicas. Pero eso no me releva de la obligación de criticar cuando los evaluadores conocen solamente el tema pero no la realidad del país que se estudia. Cuando eso pasa, los manuscritos reciben evaluaciones como la que he comentado. Desde luego, si toda mi vida hice trabajo de campo desde la oficina es poco probable que pueda entender que hay realidades en las que no se puede hacer una base de datos. En ese aspecto, me parece que las revistas científicas deben hacer un esfuerzo para seleccionar mejor a sus evaluadores. Designar un árbitro solamente en función de que conozca el tema me parece que puede llevar a que un manuscrito sobre un país poco conocido nunca salga a la luz (o tenga que esperar a otra revista) simplemente por el hecho de que los evaluadores desconocen la realidad del caso.
Como defiendo profundamente la idea de publicar en revistas también defiendo profundamente la idea de que cualquier aseveración se debe contrastar con datos. Lo que estoy diciendo aquí es que, en determinados contextos, hallar mucha información empírica simplemente no es posible.
Finalmente, creo que el reto es entender dos cosas que pueden parecer obvias pero que evaluaciones como la comentada parecen ignorarlas. Primero: la realidad social difiere de la realidad del laboratorio (no la metodología). Segundo: no siempre es posible hacer trabajo cuantitativo. En la medida que no tengamos esto en claro seguiremos conociendo mucho más de los países que ya conocemos algo y menos, cada vez menos, de los que todos tenemos interés en aprender.