SciELO - Scientific Electronic Library Online

 
 número9El espejo de la naturaleza y la enfermedad histórica en la construcción del conocimientoRedes políticas en el área arauco-pampeana: la Confederación indígena de Calfucurá (1830-1870) índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Intersecciones en antropología

versión On-line ISSN 1850-373X

Intersecciones antropol.  n.9 Olavarría ene./dic. 2008

 

¿Cantidad o calidad? Cuánto y dónde publicar1

Victoria D. Horwitz

Victoria D. Horwitz. Instituto de Arqueología, Facultad de Filosofía y Letras, UBA. 25 de Mayo 217, 3er piso 1002, Ciudad de Buenos Aires. E-mail:vhorwitz@mail.retina.ar

Recibido 17 de Diciembre 2007
Aceptado 17 de Abril 2008

RESUMEN

Este trabajo es una reflexión de cómo los investigadores pueden diseñar una estrategia para su producción científica en arqueología. Sostenemos que un plan adecuado incide en las oportunidades laborales que se abren a los jóvenes investigadores de esta disciplina. En particular, argumentamos que la forma de medir la calidad de las publicaciones científicas debería ser un factor a tomar en cuenta, y sugerimos una secuencia para planificar la publicación de los resultados de las investigaciones en este campo.

Palabras clave: Índice de impacto; Revisión de pares; Diseño y estrategia de producción científica.

ABSTRACT

Quantity Or Quality? How Much And When To Publish. This paper reflects on how young researchers can design strategies of scientific production, given that the amount of publication generated weighs heavily on future job opportunities. Particularly, the way of measuring quality of scientific publication is presented here, and how this should be taken into account. Finally, this paper suggests a general framework to plan strategies for the publication of research results.

Keywords: Impact factor; Peer review; Design and strategies for scientific production.

INTRODUCCIÓN

 A medida que la construcción de una carrera profesional en arqueología se torna más exigente y competitiva, aumenta la necesidad de trazar un camino estratégico jalonado por un cronograma de producción científica que sea factible. Las publicaciones constituyen un aspecto crítico de la planificación, es decir son bloques necesarios para la acumulación de los antecedentes de producción. Con esto en mente, los investigadores deberían armar cronogramas de sus actividades anuales decidiendo, por ejemplo entre otras cuestiones, dónde publicar los resultados de sus investigaciones. Semejante decisión implica considerar si mandan a evaluar variaciones sobre las mismas ideas a distintas editoras, o si escriben un único trabajo donde presentan los resultados de sus estudios.

 Si bien todo científico desearía generar una variedad de ideas y estudios originales en poco tiempo, lo que efectivamente sucede es que sus análisis abarcan una gama limitada de problemas en forma simultánea. Como consecuencia, podrá producir una cantidad limitada de manuscritos presentando ideas y datos originales dentro de un periodo determinado. Entonces, una opción sería enviar manuscritos que presenten estudios o resultados similares a varias revistas científicas de menor prestigio pero que acepten difundir temas ya conocidos. Por el contrario, otra opción sería someter a evaluación los resultados a una sola revista que exija originalidad de ideas o datos, en cuyo caso inevitablemente publicarán menor cantidad de trabajos. La decisión no es simple ya que el avance de una carrera científica a través de diversas instancias de evaluación depende en gran medida de publicar en espacios de prestigio, y justamente las editoriales científicas mejor conceptuadas prefieren publicar solamente temas novedosos y originales.

 El caso de los arqueólogos argentinos se inscribe en las generales de la situación descripta. El camino que cada uno tome incidirá sobre las oportunidades de acceder a cargos y becas en instituciones científicas. Estas dependen de evaluaciones que juzgan comparativamente los antecedentes de los candidatos, en especial su producción en forma de publicaciones. El sistema científico requiere que se incorpore a los mejores investigadores. Pero en la práctica los distintos sistemas de evaluación tienen dificultades para identificarlos. Las figura 1 razones residen, por ejemplo en las limitaciones obvias de los criterios basados exclusivamente en la cantidad de publicaciones producidas, o los problemas insoslayables y cada vez más evidentes que se detectan en los criterios que miden prioritariamente calidad de la producción científica a través de las publicaciones.

 Este trabajo propone identificar diversos aspectos que intervienen en el proceso de acumulación de antecedentes de publicaciones. Presenta primero una breve introducción a las limitaciones que afectan los criterios que miden la calidad de las publicaciones. Luego señala que los criterios basados sobre lacantidad de la producción son decisivos en algunas instancias de una evaluación, pero al mismo tiempouna estrategia de largo plazo para una carrera científica debería dar preferencia a las publicaciones de calidad. También presenta los mecanismos de las ciencias para determinar que un artículo es de calidad, por ejemplo a través de procesos que permiten evaluar contribuciones científicas enviadas para publicación. En relación a dicho proceso de evaluación, este artículo muestra los cambios de énfasis y tipos de criterios utilizados al compás de la intención de estandarizar políticas de evaluación y financiamiento. Finalmente, se comparan aquí las semejanzas y diferencias de un par de procesos de evaluación, para finalmente discutirlas en el contexto de la planificación de este aspecto de la producción académica.

CÓMO SE MIDE CALIDAD

 ¿Se puede medir calidad en ciencia? Se ilusionan con una respuesta afirmativa aquellos que asignanfondos para mantener institutos y laboratorios, financiarproyectos de investigación, contratan investigadores, renuevan cargos docentes y de investigación en universidades o instituciones científicas, o que deciden sobre la gama de situaciones relacionadas con el avance de las disciplinas científicas. Las comisiones de evaluación institucionales, regionales, nacionales e internacionales basan sus respectivas asignaciones de fondos sobre la premisa de que las evaluaciones de calidad producen resultados confiables. Dichas conclusiones sirven como base de las decisiones para financiar todo tipo de proyectos, desde los individuales hasta los de cooperación internacional (ver por ejemplo, OCDE 1997).

 De modo que la investigación de calidad constituye una de las piedras angulares del avance de las disciplinas científicas. Una forma de conseguirla se basa sobre un proceso transparente y eficiente de la revisión de pares. En el caso de los escritos científicos, hasta hace algunas décadas existía lo que parecía un círculo cerrado, dentro del cual la calidad de algunos artículos, y por ende la aceptación para publicación, resultaba de la revisión de pares, y derivaba del prestigio de la revista científica o casa editorial responsable. En años recientes, se instauró un sistema de medición de calidad, basado sobre diversos índices de impacto, que pretendió ser más objetivo pero que en la práctica terminó asignando altos valores a las mismas revistas antes consideradas de mayor prestigio.

Reseña histórica de los índices de impacto

 Antes de que se propusieran los índices de impacto y su derivado ranqueo de revistas científicas, la única medida de calidad de la producción científica se basaba sobre el prestigio de la revista que difundía los resultados. Sin embargo, resultaba difícil explicar cómo adquirían y mantenían dicha valoración las revistas así consideradas. Para superar lo que parecían criterios arbitrarios y subjetivos, en 1955 Eugene Garfield sugirió utilizar un índice de citas, argumentando que sería un aporte a la organización del conocimiento científico y a la administración de la bibliografía (Garfield 2005). Luego, fue seguido por otros vehículos de medición, por ejemplo, en 1961 el Institute for Science Information (ISI), hoy Thomson Scientific, publicó el primer Science Citation Index. Poco después de 1970 comenzó el Journal Citation Report (JCR) que incluye hoy todas las citas de alrededor de 8000 revistas científicas. En 1975 apareció el Social Science Citation Index. Y más cerca en el tiempo se acuñó el término journalology (Lock 1989) para describir la disciplina que se ocupa de analizar los alcances de las citas bibliográficas en ciencia.

 El índice de impacto, considerado como un criterio objetivo de evaluación, resulta del paneo de las citas que aparecen en las miles de revistas científicas que forman parte del análisis. Brevísimamente, el índice refleja un promedio de la cantidad de veces que se cita un artículo publicado en los últimos dos años a lo largo del año que se analiza. Por ejemplo, durante el año 2007 se miden las veces que se citan todos los artículos publicados durante 2005 y 2006, y se los estandariza en una curva que toma en cuenta las revistas publicadas durante esos dos años. Se desarrollaron también otros índices tales como el de inmediatez, que mide cuán rápidamente se empieza a citar un artículo, o el índice de vida promedio, que mide por cuánto tiempo se continúa citando asiduamente un artículo. Sin embargo, el índice de impacto es el que se usa con mayor frecuencia (Buchholz 1995).

 Durante los primeros años luego de propuesto, se tomó el índice de impacto (IC) como una medidabibliométrica cuantitativa fundamental de la calidad de una revista científica. Esto abarcaba los artículos que allí aparecían, los investigadores que los escribían, así como las instituciones donde estos trabajaban. No obstante, a medida que pasó el tiempo se evidenciaron cada vez más limitaciones (ver por ejemplo, Amin y Mabe 2000; Buchholz 1995; Coelho et al. 2003). Recientemente se argumentó que no tomaba en cuenta las diferencias entre disciplinas2, así como tampoco el tipo de escrito -ya sea reseña, nota corta, artículo-, su tamaño, ni el número de autores por artículo, e incluso si ocurrían variaciones significativas en una misma revista de un año al siguiente (ver más sobre esto en Amin y Mabe 2000). Se sostuvo que esto producía un efecto circular de retroalimentación dado que los artículos citados con mayor frecuencia aparecían en publicaciones de prestigio, y éstas acumulaban cada vez más prestigio porque sus artículos eran citados más veces que los publicados por otras revistas (Amin y Mabe 2000). Por su parte, Smith (2006) llamó la atención a la existencia de revistas inescrupulosas que intentaban manipular el sistema para que le asignen un índice de impacto alto. El mismo autor también mencionó casos en que a un artículo se le asignaba el valor del índice de impacto de la revista donde había aparecido, sin considerar la calidad del artículo propiamente dicho.

 Otra crítica es que ocurrían cambios dramáticos en los ranqueos de los artículos y revistas cuando semedían las citas a lo largo de un período de cinco años en lugar de dos. Esto afectaba mucho más a losartículos de las ciencias sociales y las humanidades en comparación con los de las ciencias exactas y naturales (Amin y Mabe 2000) debido al mayor tiempo que transcurrían en ser discutidas y aceptadas en sus respectivas comunidades disciplinares. Por su parte, Lindsey (1989) remarcó que los índices de impacto respondían a "modas" en las disciplinas. Argumentó que la distribución de las citas restringía su utilidad sólo a identificar ejemplos extremos, y que tampoco eran sensibles a las dimensiones éticas y morales de calidad de la contribución científica. También se afirmó que los trabajos que explicaban una técnica de análisis eran citados con muchísima mayor frecuencia que una contribución teórica original. Lo propio sucedía con artículos de revisión o puesta al día, que también suelen ser citados con frecuencia. A esto hay que agregar que los índices resultan de la revisión de alrededor de las 8000 revistas que procesa el Thomson, lo que derivó en una situación que favorecía solamente a unas pocas dado que ignoraban a todas las restantes.

 Otra cuestión de peso detectada fue que el índice reflejaba una correlación fuerte entre la cantidad deartículos que publicaba una revista por año, el idioma o país donde se publicaba, y si era el medio principal de difundir el conocimiento de la asociación principal de una disciplina en particular (Coelho et al. 2003). Un ejemplo del ámbito de la arqueología muestra cabalmente que la cantidad de lectores puede afectar el peso de una revista en la comunidad científica a la que sirve. La Society for American Archaeology distribuye miles de copias de sus cuatro volúmenes anuales de American Antiquity mientras que la Sociedad Argentina de Antropología entrega a sus miembros4 sólo cientos de ejemplares de su único tomo anual de Relaciones.

Más pertinente a la discusión central de este trabajo relativa a dónde y cuánto publicar es que de las 17revistas científicas argentinas que publican trabajos de arqueología3 ninguna forma parte de los listados del Science Citation Index, y sólo unas pocas aparecen en el Latindex o en otros servicios de indización o de resúmenes (Romanos de Tiratel y Giunti 2007). Por ejemplo, el Latindex tiene tres objetivos que soncontribuir a la mejora y actualización cualitativa de las publicaciones, aumentar la exposición y visibilidad de las publicaciones, y establecer normas editoriales y criterios de calidad para las publicaciones (Caicyt-Conicet 2005). Pero solamente el primero y el tercero se cumplen hoy en día, y en consecuencia la visibilidad de los artículos no es comparable con las revistas de otras regiones (Romanos de Tiratel y Giunti 2007).

 El principal criterio para que una revista sea considerada de calidad es que su proceso de evaluación se base sobre la revisión de pares.

Revisión de pares

La credibilidad del sistema de publicaciones científicas descansa en gran medida sobre el proceso de selección y evaluación de pares (Lindsey 1988; Mulligan 2004). Se conoce como revisión de pares opeer review a los comentarios de un original que realizan expertos en una disciplina, a pedido de una organización académico-científica. Se expiden acerca de la validez, originalidad, significado y claridad de un trabajo, sea éste un análisis teórico, una propuesta metodológica o una investigación concluida. En elcaso de las revistas científicas, también se solicita otro tipo de recomendaciones que luego serán utilizadas para decidir si eventualmente se publica el artículo. Generalmente, la opinión de los evaluadores no se considera definitiva sino más bien un apoyo de las decisiones que toman los comités editoriales. Es decir, que los evaluadores no son árbitros sino formadores de opinión. No obstante ello, la opinión de los evaluadores suele influir en el proceso de aceptación de manuscritos (ver por ejemplo Hargens y Herting 1990: 91).

El mecanismo de la evaluación de pares se lleva a cabo habitualmente por medio de formularios especialmente diseñados para la ocasión. En ellos se solicita al evaluador que se expida por una de cuatro opciones: aceptar sin modificaciones el original, aceptar con mínimas modificaciones, sólo aceptar si se realizan modificaciones sustanciales, o directamente rechazar. Cuando el evaluador recomienda la última opción, debe justificar su parecer. De hecho, cualquiera seala opción sugerida, generalmente va acompañada de un texto que explica las bondades o flaquezas del manuscrito. En muchos casos, el formulario de evaluación también incluye una lista de categorías con opciones acerca de una serie de aspectos relacionados con los contenidos y aspectos formales del escrito. El tipo de cuestiones que le interesa conocer a los editores se puede agrupar en dos categorías. Por un lado están las cuestiones objetivas y, por el otro, las cuestiones que requieren un análisis crítico de mayor nivel de abstracción y conocimiento específico (ver Tabla 1 y discusión más abajo).

Tabla 1. Ítems que aparecen en formularios de evaluación.
a17t1

 El rol de la revisión de pares es tanto integral como central a los procesos de evaluación científica. Sinembargo, dicho proceso no es tan objetivo ni preciso como se piensa. Por ejemplo, se plantea un debateacerca de la confiabilidad de las opiniones de los evaluadores. Una posición sostiene que las diferenciasentre evaluadores derivan de los propios individuos que evalúan, y la posición contraria sostiene que lasdiferencias resultan de la metodología de análisis. En el primer grupo se encuentra Lindsey (1988), quiensostiene que incluso los procesos de selección más rigurosos tienen como talón de Aquiles a los evaluadores, ya que generan resultados inciertos cuando no calibran apropiadamente la calidad del trabajo. Esto no significa que los evaluadores sean mal intencionados, sino que por diferencias en lapercepción de ideas novedosas aplican los criterios científicos de manera distinta (Starbuck 2005). Lindsey (1991) también sostiene que las opiniones de evaluadores son inestables. En este sentido, losevaluadores en las ciencias sociales suelen presentar mayor variabilidad que los de las ciencias exactas y naturales, quizás porque hay menos acuerdo en lo referente a los paradigmas aceptados por las comunidades disciplinares a las que pertenecen (Pfeffer et al. 1977).

Por su parte, Hargens y Herting (1990) sostienen que existen sesgos en las muestras que se utilizan enlos estudios de opiniones de evaluadores que deben ser tomados en cuenta. Entre ellos está la homogeneidad en la calidad de los escritos utilizados en las muestras analizadas, o las estrategias elegidas por los editores para seleccionar evaluadores, o incluso las diferencias inherentes a cada campo disciplinar, por ejemplo, si contiene varias escuelas teóricas metodológicas en pugna.

 Las ciencias exactas y naturales son las disciplinas que definen el meollo del debate en torno a la posibilidad de medir objetivamente la calidad de los evaluadores, así como las diferencias significativas en la puntuación del impacto tanto de los trabajos como de los espacios donde se publican. En las ciencias sociales ocurre un fenómeno de características ligeramente distintas ya que la estructura de laspublicaciones no se concentra en muy pocas revistas científicas de mucho prestigio, sino que se agrupa en torno a una cantidad de vehículos de difusión de prestigio similar (Hargens y Herting 1990). Estadiferencia permite que un manuscrito rechazado por una revista, pueda ser reenviado a otra de reconocimiento aproximadamente similar y que tenga buenas perspectivas de ser aceptado.

 Se sostuvo anteriormente que algunos estudiosos dudaban de la confiabilidad de las evaluaciones,mencionando que los trabajos que presentaban resultados de investigación de alta calidad no teníanmuchas mayores oportunidades de ser publicados que los mediocres. En este sentido, Starbuck (2005) afirmó que la mitad de los artículos publicados en las revistas de mayor prestigio no incluían necesariamente los mejores trabajos sometidos a evaluación, inclusive que 20% de los artículos de mayor calidad fueron rechazados por las revistas mejor consideradas. Se conocen también casos de trabajos originales y de punta que fueron rechazados simplemente porque sus resultados parecían increíbles o las conclusiones engañosas (Mulligan 2004). Sin embargo, junto con estas circunstancias negativas -aunque inocentes- que forman parte de todo proceso, también existen situaciones mal intencionadas y de sabotage, derivados de la competencia por recursos escasos, o problemas personales que terminan dirimiéndose en el espacio equivocado (Mulligan 2004).

 Ocurre también otro fenómeno que atenta contra la calidad estandarizada de los evaluadores y, por consiguiente, de la valoración de calidad de los manuscritos. Según Mulligan (2004), uno de los temasque más preocupa a los editores de revistas científicas en estos momentos, es cómo lograr encontrar buenos evaluadores, y que una vez reclutados, sigan aceptando revisar manuscritos. Los mejores generalmente aceptan revisar porque, por ejemplo, desean estar al tanto de las investigaciones pioneras en su campo. Pero, una vez que aumenta la presión de demanda sobre los evaluadores de calidad, estos temen quedar atrapados por obligaciones que les consuman cada vez más tiempo. Esto tiene consecuencias directas sobre la calidad de los revisores que forman parte del sistema de peer review, ya que los editores no pueden conseguir la cantidad de buenos evaluadores que necesitan. A su vez, esto resulta en que muchos trabajos son revisados con criterios de calidad distintos; podrá, por ejemplo, repercutir en la aceptación de un trabajo, o en las sugerencias de mejoramiento. Estas consideraciones afectan poco las cuestiones objetivas de una revisión, pero repercuten mucho sobre las cuestiones que defino en la siguiente sección como evaluador-dependientes.

Cuestiones objetivas versus las evaluador dependientes

 En general, los formularios de pedido de evaluación solicitan opinión sobre dos tipos de cuestiones que caracterizo como: objetivas y evaluador-dependientes. Se trata de categorías similares a las propuestas por Buchholz (1995: 196) cuando sugiere que para evaluar la calidad de la investigación se apela tanto a métodos que miden cuantitativamente la ciencia como forma de comunicación -cientometría (Nalimov y Mulchenko 1969; Pritchard 1969)- que permiten obtener caracterizaciones y juicios objetivos e independientes de los evaluadores, como a la revisión de pares, cuando lo que se busca es una caracterización adecuada que se enfoca en los contenidos y niveles cognitivos de un estudio.

Aquí se considera que los aspectos objetivos se basan primordialmente sobre las apreciaciones formales -técnicas y estilísticas- de los escritos; mientras que los evaluadores dependientes incluyen elconocimiento, la capacidad crítica y analítica de los investigadores seleccionados como evaluadores. Esdecir, que los segundos dependen de calidad del evaluador, reflejada en su capacidad analítica, de suconocimiento del campo, o de la vinculación internacional que le ayude estar al tanto de los temas de vanguardia en su disciplina.

 La Tabla 1 ordena las categorías de cuestiones mencionadas en dos columnas, tomadas de los formularios de evaluación de las revistas científicas que aparecen en la Tabla 2. Bajo la primera columna de la Tabla 1 se ordenan las cuestiones Objetivas, en este caso los aspectos formales, descriptivos, y de redacción; se trata mayormente aspectos gramaticales, tipográficos, o normas de estilo. Algunas categorías hasta pueden ser evaluadas por personas ajenas a la disciplina científica, pero que tengan alguna formación editorial. Por el contrario, la segunda columna titulada Evaluador-dependiente incluye cuestiones que solamente puede valorar un especialista en el tema que trata el trabajo. Si bien aparecen mayor cantidad de categorías objetivas, generalmente se considera que el peso de las cuestiones evaluador-dependientes es mayor. De hecho, la aceptación o el rechazo de los manuscritos se basan generalmente sobre los criterios derivados de las cuestiones evaluadordependientes.

Tabla 2. Diferencias en los porcentajes en formularios de evaluación de algunas revistas científicas donde publican arqueólogos de Argentina.
a17t2

Para extraer conclusiones preliminares a partir de una muestra no sistemática, se ordenaron y compararon ambas categorías tal como aparecen en los formularios de 13 revistas nacionales e internacionales de interés para los arqueólogos. La Tabla 2 muestra que 11 de las 13 revistas solicitaron medir las cuestiones objetivas en sus formularios, expresadas ya sea en escalas ordinales o nominales. Se observa gran variedad porcentual en lo relativo a la cantidad de cuestiones objetivas versus las evaluador-dependientes. No obstante ello, todas las revistas realizaron cinco preguntas fundamentales acerca del estudio: (i) ¿es original y novedoso?, (ii) ¿es útil?, (iii) ¿es de interés general?, (iv) ¿la ciencia está bien hecha?, y (v) ¿la evidencia utilizada es adecuada? Queda claro que basan la decisión de aceptar o rechazar un trabajo por las respuestas de las preguntas caracterizadas como evaluador-dependiente. Por el contrario, las cuestiones que se valoran a través de las categorías objetivas sirven meramente como apoyo de las opiniones que sugieren aceptar el trabajo con modificaciones, y nunca para justificar un rechazo directo.

Cualidades de un evaluador de calidad

 Ahora bien, ya que las valoraciones de los evaluadores tienen algún peso en un dictamen final, los editores de contribuciones científicas suelen buscar revisores que reúnan las siguientes características:

sean especialistas en el tema -ni siquiera de la disciplina, sino del tema específico,

estén al día con los avances tanto en Argentina como en el exterior,

sean buenos investigadores, y

no tengan problemas personales con el autor del trabajo.

Estos serían requisitos ideales, aunque no siempre se cumplen a causa del aumento geométrico de lacantidad de manuscritos sometidos a revisión. Como se mencionó antes, hoy en día, tanto en términosabsolutos como relativos, el universo de buenos evaluadores disponibles se va achicando.

¿Qué valoran las agencias financiadoras?

 Las dos secciones anteriores presentaron brevemente aspectos que definen en mayor o menormedida las aceptaciones y rechazos de trabajos para publicar, así como los requisitos que los editoresbuscan en potenciales revisores. Es decir, que las secciones anteriores describieron los procesos deevaluación de publicaciones desde la posición de los editores de trabajos científicos. Rotando hacia otraperspectiva que deberá tener en cuenta todo investigador que diseña su producción científica, se presentarán en esta sección los casos de los asesores y jurados que asignan puntajes a las publicaciones en el contexto de la evaluación de antecedentes de investigación para acceder a becas, cargos, o subsidios.

 Evidentemente, visto a través de los ojos de un investigador que diseña su estrategia de producción,es necesario conocer la forma en que los editores estructuran las decisiones respecto de trabajos, asícomo los procesos de selección a situaciones académicas, para recién entonces diseñar una estrategia de la construcción de antecedentes que permita acumular rápidamente la cantidad de publicaciones de calidad necesarias para conseguir las metas deseadas.

 Como ya se mencionó, si bien las comisiones asesoras o los jurados representan la primera instanciaen el proceso de evaluación de antecedentes, generalmente, no participan en forma directa en la instancia decisoria. No obstante ello, sus recomendaciones pueden servir como la base argumental de los dictámenes finales.

 Como ejemplos de procesos de selección que se organizan de manera similar se presentan a continuación los casos del CONICET y la Universidad de Buenos Aires (UBA). En el primer caso, la comisión asesora donde se discute la disciplina de la Arqueología incluye especialistas en temas diversos. Esta instancia se limita a estudiar y valorar los antecedentes, y luego recomendar los ofrecimientos a beca, o los ingresos a carrera del investigador; pero las decisiones finales se toman en instancias superiores. Tal como lo indica su nombre, la comisión asesora no es la que decide.

 El segundo caso ejemplifica los concursos docentes de la UBA; en ellos se valoran los antecedentes ypresentaciones orales de los candidatos para luego generar dictámenes que proponen órdenes de mérito. Sin embargo, la decisión final queda en manos del Consejo Superior de la universidad.

 Tanto en el CONICET como en la UBA -así como en otras casas como la UNLP y organismos como la ANPCyT existen lineamientos generales para la valoración de antecedentes, aunque no se imponen directivas rígidas. No existen tablas de puntajes absolutos para distintas categorías de antecedentes, y obviamente esto atañe también a las publicaciones. Antiguos miembros de jurados y comisiones asesoras de ambas instituciones comentaron que nunca les fueron impuestas pautas específicas que obligaran a valorar las publicaciones de una forma en particular, aunque mencionaron conocer ejemplos de Planillas y Pautas de Evaluación, y Procedimientos de Evaluación y Adjudicación en agencias tales como la CIC de la Provincia de Buenos Aires (XVI CNAA, Mesa Redonda 2007).

 En la Argentina, al menos hasta ahora, los jurados y las comisiones asesoras que evalúan antecedentes para recomendar cargos, subsidios, o ascensos de categorías normalmente tienen libertad para definir el peso que le darán a cada antecedente; aunque distinto sería el caso para algunas becas, a las que se le asigna porcentaje de puntos específicos para cada rubro de los antecedentes. Excepto en los mencionados casos de becas, hay formas habituales de valorar y comparar antecedentes. Por ejemplo, existe acuerdo general que una ponencia presentada a una reunión científica debe tener menor peso que un libro, un artículo, un capítulo de libro, o que los cuadernillos didácticos recibirían menor consideración que todos ellos. Sin embargo, a veces las comisiones definen categorías amplias dondeterminan considerando como equivalentes a publicaciones que deberían tener distintos puntajes; este sería el caso de la categoría "publicaciones extranjeras", dentro de la cual se incluyen con cantidadde puntos similar a obras sin referato junto con artículos aparecidos en revistas de mucho prestigio.

 Asimismo, los asesores marcan diferencias entre el prestigio o la categoría del lugar donde se presenta la ponencia, o el índice de impacto de la publicación periódica. En contraposición, no hay acuerdo general en la valoración específica de los antecedentes en cada situación particular, es decir que a veces un libro puede valer X cantidad de puntos, y otras veces Y cantidad de puntos.

 En otras palabras, cada jurado o comisión evaluadora define cuántos puntos le va a otorgar a cadatipo de publicación, pero la valoración puede ser distinta a la que le asignó el jurado de un proceso deevaluación anterior, o la que le dará otra comisión en el futuro. En los últimos años, siguiendo el impulso que los representantes de las ciencias exactas y naturales le imprimieron al proceso de evaluación en CONICET, se le otorga cada vez mayor peso a las publicaciones en revistas de gran prestigio internacional y, preferentemente, de alto índice de impacto. Sin tomar en cuenta las características de cada disciplina, se tiende a considerar que la investigación de calidad es la que se difunde en revistas de alto impacto. Esto último perjudica a las ciencias sociales ya que en muchos casos no tienen índice de impacto, o porque las contribuciones al conocimiento en las ciencias sociales y humanas tardan un mayor lapso temporal en ser aceptadas y utilizadas en su comunidad disciplinar, o por la mayor variabilidad en criterios que aplican los evaluadores para recomendar publicar o rechazar trabajos (Amin y Mabe 2000).

 A lo mencionado arriba se agrega otra situación que, tal como señalaron varios antiguos miembros decomisiones y jurados: frente a dos candidatos de similar calidad de antecedentes, terminaban volcando su preferencia por la persona con mayor cantidad de publicaciones. A la luz de lo expuesto, un diseño delargo plazo de una carrera científica debería tener en cuenta tanto la cantidad de publicaciones como lacalidad del lugar donde se publican los resultados de la investigación.

 Entonces, llegado el momento de elegir la revista científica donde publicar los estudios, convendríaplanificar a partir de una lista de factores prioritarios que combine generar calidad y cantidad simultáneamente:

1. elegir una publicación que se dedique a temas de la especialidad, ya sea por afinidad temática, metodológica, o regional;2. que la revista tenga un factor de impacto lo más alto posible, o en su defecto que goce de reconocimiento entre los arqueólogos;3. que el proceso de evaluación y publicación posterior dure poco tiempo;4. que los revisores ayuden a mejorar el manuscrito.

 El primer punto puede resultar crucial en la carrera profesional ya que todo investigador debe asegurar que sus ideas circulen ampliamente entre la comunidad que mayor interés y necesidad tendría en discutirlas. Esto obliga a diseñar una estrategia que preste igual atención a enviar un trabajo a una revistacientífica con un alto grado de impacto -se encuentre o no indexada- como a la circulación de sus ideasentre la comunidad científica que mejor provecho le dará. Las consecuencias a largo plazo pueden ser beneficiosas, en aquellos casos que evaluadores especialistas en el tema tengan una opinión favorablede los estudios realizados, o perniciosa en aquellos casos en los que muy pocos colegas conozcan losresultados de las investigaciones porque aparecieron en revistas poco conocidas en la región.

CONSIDERACIONES FINALES

 Entonces, la producción científica de una persona se mide -entre otros factores- por la calidad y cantidad de publicaciones generadas, y debe superar el desafío que plantean los procesos que evalúan calidad. Se sugirió aquí que a similar calidad de la producción científica de dos candidatos, los jurados o las comisiones asesoras argentinas solían inclinarse por la cantidad de la producción.

 En forma paralela, se observó que tanto los jurados/ comisiones como los editores de publicacionesnecesitaban elegir ya sea entre candidatos de producción similar o manuscritos de interés parecido.También se mencionó que los editores de revistas científicas reciben a veces opiniones opuestas orecomendaciones de los distintos revisores que se contraponían. ¿Cómo resolver semejantes tensiones?

En el caso de las revistas científicas, cuando los editores reciben dos evaluaciones contrapuestasgeneralmente solicitan una tercera opinión, y siguen la mayoritaria. Pero los jurados y comisiones asesoras no siempre optan por solicitar opiniones a otros especialistas; algunas comisiones deciden estudiar más a fondo los antecedentes en general y la calidad de cada publicación en particular en busca de medidas de robustez y contribución científica, mientras que otras optan por hacer un simple recuento de la cantidad de publicaciones. También hay posiciones intermedias de comisiones/jurados que comienzan contando la cantidad de publicaciones, luego valorando su calidad y, si la paridad se mantiene, vuelven nuevamente a privilegiar la cantidad de publicaciones para marcar la diferencia entre candidatos.

En resumidas cuentas, la mayoría de los procesos de evaluación plantean desafíos similares a quienespretenden diagramar su carrera científica. Por ello, la respuesta apropiada requiere planificar una estrategia que limite las consecuencias negativas ya sea de publicar mucho o poco.

 En caso de optar por mayor cantidad, entonces se generará menor calidad en las publicaciones. Este sería el resultado de los trabajos que presentan cuestiones o resultados ya conocidos; generalmente sonrechazados por las editoriales de mayor prestigio y, como consecuencia, terminan apareciendo en publicaciones de menor reconocimiento.

 El fenómeno inverso ocurre cuando se envían escritos a las revistas de mayor índice de impacto, es decir aquellas que aceptan o rechazan trabajos siguiendo las opiniones de revisores de primer nivel. En estos casos, la aceptación para publicación en una revista de alto impacto resultaría de que los evaluadores de calidad consideraran que el escrito presenta ideas o resultados originales, novedosos, significativos y valiosos para la comunidad. Dado que difícilmente se puedan generar muchos artículos que presenten ideas y resultados de semejantes características, esto significa que a mayor calidad se esperaría una menor cantidad de publicaciones.

 A la luz de las implicancias recién mencionadas, y sobre la base de la poca rigidez de algunos procesos de evaluación en Argentina que apelan a criterios de selección basados en el número de publicaciones, surgiría la conveniencia de diseñar una estrategia que privilegie la cantidad por sobre la calidad de la contribución científica. No obstante ello, la calidad de la producción también se valora en alguna instancia del proceso de evaluación, ya sea reflejada en el prestigio de la revista o porque los evaluadores conocen y aprueban los trabajos. Seguramente una publicación que haya marcado un hito en el conocimiento de la disciplina tendrá un gran peso absoluto y relativo a la hora de las comparaciones y asignación de puntos.

 Claramente, tal como se mencionó antes, el grado de conocimiento que tendrán los evaluadores dependerá del lugar donde se publiquen los estudios. En cuanto al peso que tiene el prestigio de unapublicación en el proceso de evaluación, todo autor tiene que tomar en cuenta que las revistas de mayorprestigio normalmente convocan evaluadores de primer nivel, los cuales justamente tienen el conocimiento y capacidad analítica de identificar ideas novedosas, y serán también ellos quienes recomienden rechazar el trabajo si contiene ideas publicadas con anterioridad. La consecuencia de enviar escritos presentando las mismas ideas a diversas revistas, entonces, es que no se logrará cumplir con la meta de acumular producción de calidad y alto índice de impacto, y quizás tampoco se logre la alternativa de publicar cantidad.

 En el caso específico de las publicaciones en arqueología de nuestra región, es un hecho que hasta el año 2008 ninguna revista latinoamericana de la especialidad figura en los índices de impacto administrados por Thomson. Esto podría afectar a los arqueólogos locales a la hora de acumular puntosdurante la evaluación de antecedentes, especialmente en casos de evaluación comparativa con candidatos de otras disciplinas. Una producción científica considerada de baja calidad impide también obtener subsidios en el exterior, ya que las agencias financiadoras valoran los antecedentes de publicaciones en revistas internacionales de alto prestigio, es decir en revistas que privilegian la originalidad y exclusividad de las ideas o resultados que se desea publicar.

 Afortunadamente, la particular cultura disciplinar de la arqueología ofrece una característica que mitiga este panorama frustrante: no se expresa a través de una pirámide con poquísimas revistas de alto impacto en la cúspide y muchas de menor prestigio en la base, sino como una estrella con múltiples revistas de reconocimiento similar. Es decir que los arqueólogos pueden acumular antecedentes gracias a que gozan de una selección relativamente amplia de lugares donde dar a conocer las ideas y los resultados de sus investigaciones, especialmente si escriben trabajos en varios idiomas, de interés teórico-metodológico general, multi- o interdisciplinario, o comparaciones inter-regionales.

 A la luz de lo presentado, se sugiere la conveniencia de diseñar una estrategia que privilegie la siguiente secuencia de pasos: 1. elegir revistas científicas del mayor prestigio posible y de la especialidad del autor,2. preferentemente que tengan procesos de evaluación y publicación rápidos,3. dar a conocer los trabajos en más de un idioma, y4. combinar la presentación de manuscritos en revistas nacionales, regionales, y globales.

Agradecimientos

 Agradezco a los amigos que respondieron a mis pedidos: Ricardo Jorge envió bibliografía necesaria pero difícilmente accesible; María Gutiérrez, Mariana Mondini, Débora Kligmann, y Catriel Greco facilitaron formularios de evaluación de manuscritos. Gustavo Politis enriqueció lo presentado aquí con comentarios y ejemplos de su experiencia personal. Seguí algunas de las recomendaciones hechas por María José Figuerero Torres. Los evaluadores del trabajo original sugirieron cambios e información adicional para mejorarlo, muchas gracias a ambos, así como a los editores de esta revista que supieron elegir a dos buenos revisores/evaluadores.

NOTAS

1 Este trabajo ordena temas presentados en la mesa redonda moderada por Débora Kligmann y María Gutiérrez y en el XVI Congreso Nacional de Arqueología Argentina: Cómo, cuándo y dónde publicar: consejos para planificar una carrera en la investigación científica. San Salvador de Jujuy, Octubre 2007.

2 En este sentido las ciencias sociales suelen salir perdiendo en relación a las ciencias exactas -particularmente- y lasnaturales, justamente porque miden la cantidad de veces que se cita un trabajo en los dos primeros años luego de su publicación y a que las revistas de mayor prestigio tienen valores de impacto similares a los de menor prestigio en las exactas y naturales.

3 Anales de Arqueología y Etnología (Universidad Nacional de Cuyo), Arqueología (Universidad de Buenos Aires), Cazadores-recolectores del Sur: Revista de Arqueología (Universidad Nacional de Mar del Plata), Comechingonia (Universidad Nacional de Córdoba), Comechingonia Virtual (Universidad Nacional de Córdoba), Cuadernos de la UNJu (Universidad Nacional de Jujuy),Cuadernos del INAPL (Secretaría Cultura de la Nación), Intersecciones en Antropología (Universidad Nacional delCentro de la Provincia de Buenos Aires), La Zaranda de Ideas (Sociedad Argentina de Antropología), Mundo de Antes (Universidad Nacional de Tucumán), Relaciones de la Sociedad Argentina de Antropología (Sociedad Argentina de Antropología), Revista de Arqueología Histórica, Revista de la Escuela de Antropología (Universidad Nacional de Rosario), Runa (Universidad de Buenos Aires), Shincal (Universidad Nacional de Catamarca), Xama (Cricyt-Conicet).

4 Aunque sería necesario remarcar que Latin American Antiquity no tiene índice de impacto a pesar de ser publicado por la misma institución que American Antiquity.

REFERENCIAS CITADAS

Amin, M. y M. Mabe 2000 Impact factors. Use and abuse. Perspectives in Publishing. Occasional newsletter for journal editors. Elsevier Science. Página web: http://www.elsevier.com/framework_editors/pdfs/Perspectives1.pdf. (15 julio 2007).         [ Links ]

Buchholz, K. 1995 Criteria for the analysis of scientific quality. Scientometrics 32 (2): 195-218.         [ Links ]

Caicyt-Conicet 2005 Evolución de la producción científica argentina en Science Citation Index. Página web: http://www.caicyt.gov.ar (30 julio 2007).         [ Links ]

Coelho, P. M. Z., C. M. F. Antunes, H. M. A. Costa, E. G. Kroon, M. C. Sousa Lima y P. M. Linardi 2003 The use and misuse of the "impact factor" as a parameter of evaluation of scientific publication quality: a proposal to rationalize its application. Brazilian Journal of Medical and Biological Research 36: 1605-1612.         [ Links ]

Garfield, E. 2005 The agony and the ecstasy. The history and meaning of the Journal Impact Factor. Trabajo presentado en el International Congress on Peer Review and Biomedical Publication. Chicago, Septiembre 16, 2005. MS.         [ Links ]

Hargens, L. L. y J. R. Herting 1990 Neglected considerations in the analysis of agreement among journal referees. Scientometrics 19 (1-2): 91-106.         [ Links ]

Lindsey, D. 1988 Assessing precision in the manuscript review process: A little better than a dice roll. Scientometrics 14 (1-2): 75-82.         [ Links ]

Lindsey, D.1989 Using citation counts as a measure of quality in science measuring what's measurable rather than what's valid. Scientometrics 15 (3-4): 189-203.         [ Links ]

Lindsey, D.1991 Precision in the manuscript review process: Hargens and Herting revisited. Scientometrics 22 (2): 313-325.         [ Links ]

Lock, S. P. 1989 "Journalology": Are the quotes needed? CBE Views 12(4): 57-59. Página web: http://garfield.library.upenn.edu/essays/v13p019y1990.pdf (10 mayo 2008).         [ Links ]

Mulligan, A. 2004 Is peer review in crisis? Perspectives in Publishing. Occasional newsletter for journal editors. Elsevier Science. Página web: http://www.elsevier.com/framework_editors/pdfs/Perspectives2.pdf (28 julio 2007).         [ Links ]

Nalimov, V. V. y B. M. Mulchenko 1969 Scientometrics. Nauka, Moscú.         [ Links ]

OCDE 1997 The evaluation of scientific research: selected experiences. Proceedings of the Workshop on the evaluation of basic research of the OCDE Committee for Scientific and Technological Policy (CSTP), April 21, 1997. OCDE/GD (1997) 194. París. Página web:http://www.oecd.org/dataoecd/9/26/2754549.pdf (12 julio 2007).         [ Links ]

Pfeffer, J., A. Leong y K. Strehl 1977 Paradigm development and particularism: Journal publication in three scientific disciplines. Social Forces 55: 938.         [ Links ]

Pritchard, A. 1969 Statistical bibliography or bibliometrics? Journal of Documentation 24: 348-349.         [ Links ]

Romanos de Tiratel, S. y G. M. Giunti 2007 Las revistas argentinas de Ciencias Antropológicas: visibilidad en bases de datos internacionales. IR information research. Página web: http://information.net/ir/12-4/paper325.html (18 marzo 2008).         [ Links ]

Smith, R. 2006 Commentary: The power of the unrelenting impact factor-Is it a force of good or harm? International Journal of Epidemiology 35: 1129-1130.         [ Links ]

Starbuck, W. 2005 How much better are the most-prestigious journals? The statistics of academic publication. Organization Science 16 (2): 180-200.         [ Links ]

XVI Congreso Nacional de Arqueología Argentina 2007 Mesa Redonda: Cómo, cuándo y dónde publicar: consejos para planificar una carrera en la investigación científica. San Salvador de Jujuy, Octubre 2007.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons