Publicando en revistas científicas: los
evaluadores y el acceso a la evidencia empírica
Hace poco tiempo leí un artículo publicado en una revista
académica en el que se hacía una buena revisión de la literatura especializada
en un campo específico de la Ciencia Política. Se trataba sobre los enfoques
teóricos y metodológicos que más se han utilizado, las dimensiones más
analizadas y también sobre los países menos explorados. El manuscrito, a la
par, abiertamente exhortaba a los investigadores a preocuparse de trabajar esas
realidades poco conocidas. De mi lado, mi pregunta básica fue “¿por qué esos
países están menos estudiados que otros?” y una de mis inmediatas respuestas
fue… “porque los datos no se consiguen con facilidad”. Más allá de la cantidad
de investigadores que existen en México, Argentina, Brasil o Chile, tengo la
sospecha que hay otra razón que explica por qué son los más estudiados. Creo
que es simple y llanamente porque el acceso a los datos es más rápido. No hay
que intentar tapar el sol con un dedo: sabemos bien que hay investigadores que
seleccionan sus casos de estudio en función de si el trabajo de campo lo pueden
hacer cómodamente sentados en la oficina.
En fin, comenté sobre
este tema a un colega y él inmediatamente decidió asumir el reto de investigar
algunos de los países menos estudiados. Hizo trabajo de campo intenso pero,
obviamente, consiguió pocos datos sistemáticos. Lo que encontró fue que habían
archivos incompletos, mutilados, funcionarios que negaban la información o la
daban parcialmente, cifras disponibles solamente para pocos años y en otros
casos…… simplemente la información no existía. Punto.
El colega escribió un manuscrito, lo mandó a una revista y
esperó alrededor de tres meses (lo mínimo que demora un arbitraje). A la
vuelta, el consejo editorial decidió rechazar su trabajo adjuntando las
evaluaciones de los árbitros. Una pedía el rechazo y dos “revisar y reenviar”.
Dos de las tres (más allá de interesantes comentarios y valiosas sugerencias
teóricas y metodológicas) decían que faltaba evidencia empírica, que se
requería más datos, que si se podía agregar la información de tal o cual hecho,
etc. En ese caso la respuesta es simplemente: “NO, no se puede agregar más
datos, ni hacer nada más simple y llanamente por que la información NO EXISTE”.
Más allá de la frustración del colega, lo que me pareció
interesante analizar es la paradoja que este caso plantea. Por un lado, se hace
una invitación a estudiar los países menos trabajados; y, por otro lado, se
desechan artículos sobre esos países por falta de datos. El mensaje final de
esto es: si eres pragmático estudia los casos ya conocidos (Argentina, Brasil,
Chile o México) pues es más fácil acceder a los datos y publicar. Si insistes
en analizar los otros países, harás un gran sacrificio en el trabajo de campo
para que al final te rechacen el manuscrito por ausencia de información
sistemática. Decide. Triste pero cierto.
Al final, en unos años, cuando se vuelva a hacer una revisión de la literatura
sobre el tema, vamos a estar en la misma situación: mucho trabajos sobre 4 o 5
países y nada sobre el resto.
Yo estoy firmemente convencido que los hallazgos teóricos/empíricos
de cualquier ciencia se los debe difundir, prioritariamente, a través de
revistas científicas. Pero eso no me releva de la obligación de criticar cuando
los evaluadores conocen solamente el tema pero no la realidad del país que se
estudia. Cuando eso pasa, los manuscritos reciben evaluaciones como la que he
comentado. Desde luego, si toda mi vida hice trabajo de campo desde la oficina
es poco probable que pueda entender que hay realidades en las que no se puede
hacer una base de datos. En ese aspecto, me parece que las revistas científicas
deben hacer un esfuerzo para seleccionar mejor a sus evaluadores. Designar un
árbitro solamente en función de que conozca el tema me parece que puede llevar
a que un manuscrito sobre un país poco conocido nunca salga a la luz (o tenga
que esperar a otra revista) simplemente por el hecho de que los evaluadores
desconocen la realidad del caso.
Como defiendo profundamente la idea de publicar en revistas
también defiendo profundamente la idea de que cualquier aseveración se debe
contrastar con datos. Lo que estoy diciendo aquí es que, en
determinados contextos, hallar mucha información empírica simplemente no es
posible.
Finalmente, creo que el reto es entender dos cosas que pueden
parecer obvias pero que evaluaciones como la comentada parecen ignorarlas.
Primero: la realidad social difiere de la realidad del laboratorio (no la
metodología). Segundo: no siempre es posible hacer trabajo cuantitativo. En la
medida que no tengamos esto en claro seguiremos conociendo mucho más de los
países que ya conocemos algo y menos, cada vez menos, de los que todos tenemos
interés en aprender.